È una delle paure nate nel XX secolo, di pari passo con l’evoluzione tecnologica e con la progettazione dei primi robot. Il progresso pone all’essere umano nuove domande, una di queste ha innescato il dibattito:
L’intelligenza artificiale è una minaccia per gli esseri umani?
Come detto, il progresso tecnologico ha subito un’accelerazione negli ultimi 50-60 anni. Cinema e letteratura si sono occupati del tema. Da Asimov, con le sue tre leggi della robotica, a Kubrick, con la pellicola 2001 Odissea nello spazio, gli artisti hanno provato ad immaginare come sarà la vita per la popolazione mondiale, una volta che l’intelligenza creata artificialmente avrà la possibilità di “pensare”.
Fino a che punto la nostra civiltà sarà in grado di fronteggiare le decisioni prese da un cervello sofisticato?
Il tema è già stato posto da tempo ma è negli ultimi anni che la suggestione e la fantasia creativa sono state affiancate da tavole rotonde e conferenze. Le menti più illuminate del pianeta hanno provato a dare delle risposte.
L’intelligenza artificiale è una minaccia: cosa pensa la scienza?
Stephen Hawking è un fisico, cosmologo e matematico: grazie al suo contributo intellettuale la scienza oggi si avvale di una teoria della radiazione termica e di quello che viene definito “lo stato di Hartle-Hawking”, ossia una teoria cosmologica sull’inizio dell’universo, che Hawking ha teorizzato essere senza confini.
Hawking ha sostenuto che l’intelligenza artificiale alla lunga potrebbe prendere il posto del genere umano. Il cosmologo non è certo di quale sarà lo scenario futuro, piuttosto pone delle domande e immagina delle ipotesi. Afferma infatti che il futuro dell’uomo e della donna, in una società dove sia presente un’intelligenza artificiale del tutto simile a quella umana, dipende esclusivamente da quello che gli scienziati riusciranno a fare per impedire che i “robot” prendano le decisioni al posto nostro.
Ma da dove nasce l’allarme? Perché l’intelligenza artificiale è un pericolo per gli esseri umani? Hawking lo spiega: il motivo è che una tecnologia incredibilmente evoluta potrebbe iniziare a gestirsi da sola, riprogrammandosi a velocità vertiginose.
Gli esseri umani non sarebbero in grado di tenere il passo di tale sviluppo a causa della loro evoluzione biologica, che procede a velocità largamente inferiori.
Anche Elon Musk, il fondatore dell’azienda aerospaziale Space X, si è espresso sul tema definendo l’intelligenza artificiale la maggiore minaccia per la nostra sopravvivenza.
Il timore di Musk è che alla fine l’uomo darà vita a robot e intelligenze artificiali in grado di prendere il suo posto. Si è soffermato in particolare sui pericoli che derivano dall’evoluzione di reti neurali sempre più sviluppate. Il problema è la futura autonomia di intelligenze artificiali, che saranno in grado di prendere decisioni senza che gli esseri umani siano minimamente coinvolti nel processo.
Musk è sempre più attivo nella sua campagna contro la minaccia dell’intelligenza artificiale. Ha infatti fondato OpenAI, un’ente che si pone l’obiettivo di trovare soluzioni e idee per veicolare il futuro dell’intelligenza artificiale verso prospettive di pace.
Ha rivolto anche un appello all’ONU per stimolare l’organizzazione a istituire delle regole per arginare gli armamenti autonomi. Musk teme che la corsa al nucleare e l’impiego di robot “indipendenti” sfoci in un terzo conflitto mondiale.
La singolarità tecnologica è una minaccia o una speranza?
I pareri tuttavia non sono unanimi. Se la maggior parte degli scienziati immagina un futuro inquietante, altri pensano che i robot intelligenti saranno una risorsa, in alcuni casi una salvezza.
C’è addirittura una scienza che studia gli scenari possibili e l’impatto della tecnologia sofisticata sulla società mondiale. La futurologia ha sviluppato la teoria della Singolarità Tecnologica. La Singolarità indica un momento temporale, che potrebbe essere raggiunto in futuro, in cui il progresso tecnologico sarà così avanzato da non poter più essere compreso e previsto, e dunque controllato.
A proposito della Singolarità Tecnologica si è espresso anche Ray Kurzweil, scienziato, fondatore della Singularity University e autore di svariati libri sull’intelligenza artificiale. Kurzweil ha ipotizzato addirittura una data che sancirebbe l’inizio della Singolarità. L’intelligenza artificiale raggiungerà l’essere umano e le sue più sofisticate funzionalità intellettive entro il 2029.
In realtà la previsione di Kurzweil non è affatto pessimistica. Non ci sarà nessuna ribellione dei robot contro il loro “dio” e creatore. Il progresso tecnologico porterà alla creazione di sistemi sofisticati che aiuteranno gli esseri umani a diventare sempre più intelligenti. Forse potremo risolvere problemi che oggi affliggono l’umanità, come l’inquinamento.
In che modo l’intelligenza artificiale renderà l’uomo migliore? Secondo Kurzweil accoglieremo nel nostro organismo parti artificiali. Una zona della corteccia cerebrale sarà collegata ad uno spazio virtuale, ad un cloud, aumentando esponenzialmente le possibilità e le prestazioni del nostro cervello.
Ma chi è stato il primo a teorizzare la Singolarità Tecnologica? Si tratta dello scrittore Vernor Vinge, professore di matematica all’Università di San Diego e autore di romanzi di fantascienza.
Vinge ha scritto nel 1993 The Coming Technological Singularity. Nel saggio parlò per la prima volta della Singolarità prendendo in considerazione la Legge di Moore. Nello specifico la Singolarità stabilisce che le capacità di effettuare calcoli complessi da parte di elaboratori elettronici raddoppia ogni due anni, aumentando dunque in modo esponenziale.
Verrà un momento, che Vinge chiama “punto”, in cui saranno progettate “macchine” più intelligenti dell’essere umano. Questa generazione di robot a sua volta potrà progettare una nuova generazione di robot più intelligenti della precedente, e così via. A quel punto il processo sarà fuori controllo e l’uomo sarà semplicemente spettatore della sua stessa storia.
Inutile negare come tutto ciò ci ricordi Matrix, il film scritto e diretto da Larry e Andy Wachowski.