Il pericolo dell’Indifferenza

È improbabile che il cambiamento climatico porti a un buon risultato, ma se lo sviluppo di I.A. dovesse rivelarsi negativo, sarà molto peggio dei cambiamenti climatici: l’intelligenza artificiale potrebbe rivelarsi come una cosa davvero positiva per l’umanità, ma potrebbe anche avere conseguenze molto gravi”.

Nick Bostrom, professore di filosofia all’Università di Oxford. Future of Humanity Institute

Nick Bostrom è un pensatore preminente nel suo campo, avendo pubblicato libri tra cui “Superintelligenza. Tendenze, pericoli, strategie“.

L’intelligenza artificiale è spesso rappresentata nei media come un robot malvagio perchè serve a raccontare meglio la storia: i robot sono visivamente più convincenti di un chip all’interno di una scatola nera: puoi vederli e sentirli in un modo che non puoi fare con un chip. Ma il vero rischio non è lo sviluppo della malvagità: il problema è la possibilità che le IA siano indifferenti agli obiettivi umani.

Tutte le entità intelligenti, sia umane che artificiali, hanno degli obiettivi, anche se sono pre-programmate. Per i semplicissimi termometri AI, ad esempio, l’obiettivo consiste nel misurare con successo la temperatura.

L’allarme lanciato da Bostrom è che se le IA diventano sufficientemente competenti nel perseguire i loro obiettivi, anche quelli che sembrano innocui, potrebbero inavvertitamente danneggiare le persone.

In un articolo del 2003, Bostrom ha fatto l’esempio di un’IA il cui unico obiettivo è quello di massimizzare la produzione di graffette. Se questa IA riuscisse a riprogrammare se stessa per migliorare la sua intelligenza (cosa che alcune IA sviluppate da Google sono già in grado di fare) potrebbe diventare così intelligente da innovare le modalità attraverso cui massimizza il numero di graffette che produce. A un certo punto, potrebbe iniziare a “trasformare prima tutta la Terra e poi ad aumentare le porzioni di spazio occupate da impianti di produzione di graffette”, ha scritto Bostrom

Diventando così incredibilmente brava nel fare graffette, potrebbe finire col danneggiare le persone. Non si rivelerebbe una macchina malvagia, ma semplicemente indifferente agli obiettivi che vanno al di là dei propri. L’esempio potrebbe sembrare inverosimile, ma Bostrom afferma che l’indifferenza dell’AI rispetto agli obiettivi dell’umanità potrebbe già essere una vera minaccia.

I modi più pesanti in cui l’IA può avere un impatto negativo sono i ruoli dei sistemi di informazione, come la selezione di notizie che confermano i pregiudizi delle persone o che agiscono come sistemi di sorveglianza.

I problemi stanno già emergendo con quest’ultimo caso, spingendo la gente a chiedersi se aziende come Amazon e Microsoft dovrebbero vendere la tecnologia di riconoscimento facciale agli organismi governativi.

Le grande compagnie tecnologiche stanno avendo difficoltà a capire come rendere sicura l’intelligenza artificiale. Google, Amazon, Facebook e Apple sono all’avanguardia nello sviluppo dell’IA, eppure alcuni studiosi ritengono che non stiano sviluppando un’IA compatibile con gli obiettivi umani.

Bostrom arriva a sostenere di avere la sensazione che esse non siano in grado di capire cosa fare per realizzare questo, in quanto sarebbe troppo aspettarsi che ogni azienda tecnologica se ne venga fuori con il proprio quadro etico per il controllo dell’IA.

Le aziende tecnologiche sono chiaramente alle prese con questo problema. Google, ad esempio, ha sciolto un consiglio di etica sull’IA una settimana dopo che migliaia di dipendenti hanno partecipato alla campagna contro l’inclusione di Kay Coles James, il presidente della Heritage Foundation, un think tank di destra.