L'Intelligenza Artificiale? "Più pericolosa del nucleare" | Economyup
Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

LA MINACCIA

L’Intelligenza Artificiale? “Più pericolosa del nucleare”

04 Ago 2014

Altri argomenti

Lo ha scritto in un tweet Elon Musk, Ceo di Tesla, dopo aver letto in anteprima “Superintelligence”, che prospetta il futuro dominio delle macchine sull’uomo. Ma lui ha investito in Vicarious, startup che lavora a un software per imitare il funzionamento del cervello umano

Elon Musk
“L’intelligenza artificiale è potenzialmente più pericolosa del nucleare”: la spiazzante affermazione è contenuta in un recente tweet di Elon Musk, Ceo di Tesla Motors, azienda automobilistica impegnata nella creazione di veicoli elettrici ad alte prestazioni per il mercato di massa. Un “cinguettio” che ha immediatamente suscitato commenti e re-tweet, perché lascia trapelare uno scenario già descritto nei libri di fantascienza in cui gli oggetti dotati, appunto, di intelligenza artificiale arrivano a prendere il controllo sugli esseri umani.  

 Ecco chi è Elon Musk e perché è un imprenditore che fa tendenza

In particolare Musk – imprenditore statunitense nato in Sudafrica, conosciuto soprattutto per aver creato la Space Exploration Technologies Corporation, di cui è tuttora amministratore delegato e Cto, e Tesla Motors, di cui è chairman e Ceo –  ha scritto nel suo tweet:

“È valsa la pena leggere Superintelligence di Bostrom. Dobbiamo essere super-attenti nei confronti della AI (Artificial Intelligence). È potenzialmente più pericolosa del nucleare”.

Il libro Superintelligence a cui si fa riferimento l’impenditore è quello scritto da Nick Bostrom, fondatore del Future of Humanity Institute di Oxford. Si tratta, come si legge nel sito, di un istituto di ricerca multidisciplinare dell’Università di Oxford che riunisce selezionati talenti nella matematica, filosofia e scienza per rispondere alle grandi domande dell’umanità e riuscire a intravedere le sue prospettive future. Di recente l’istituto ha stretto una collaborazione con il Centre for the Study of Existential Risk di Cambridge per studiare come la nanotecnologia, la robotica, l’intelligenza artificiale e altre innovazioni possono un giorno “spazzarci tutti via”.

Durante una conferenza lo stesso Bostrom, a chi gli chiedeva se dovremmo essere spaventati dalle nuove tecnologie, rispondeva: “Sì, ma spaventati per le cose giuste. Ci sono enormi minacce esistenziali, ci sono minacce alla sopravvivenza stessa della vita sulla terra, che possono scaturire dall’intelligenza artificiale. Questo non accadrà oggi ma se raggiungeremo una sorta di super-intelligenza nel futuro”.

In Superintelligence Bostrom si chiede “cosa succederà quando le macchine sorpasseranno gli umani nell’intelligenza” e se “gli agenti artificiali ci salveranno o ci distruggeranno”. Un suo college di Cambridge, Martin Rees, ha detto del suo lavoro: “Quelli pronto a liquidare il ‘dominio della AI’ come fantascienza dovranno ripensarci dopo aver letto questo libro originale e ben argomentato”.

Nel dipingere il futuristico scenario Bostrom comunque sottolinea che l’umanità ha un vantaggio: può fare la prima mossa. Quindi si domanda: “Sarà possibile costruire un’intelligenza artificiale in modo da sopravvivere ad essa? Come si può ottenere un’esplosione controllata?”.

Il libro uscirà in lingua inglese il mese prossimo, ma la riflessione di Elon Musk è frutto di una lettura in anteprima.

Da qui il suo grido d’allarme. Il fatto che l’AI sia a suo dire “potenzialmente più pericolosa”, non costituisce ovviamente motivo sufficiente per rinunciare all’investire nella ricerca: proprio Elon Musk è infatti uno dei maggiori investitori in Vicarious, startup di San Francisco che utilizza i principi computazionali del cervello per costruire software che possano pensare e apprendere come un essere umano.

Ma Bruno Olshausen, docente a Berkeley e uno dei consulenti di Vicarious, ritiene che siamo ancora molto lontani dal comprendere il perfetto funzionamento del cervello per essere in grado di creare qualcosa che sia veramente rivoluzionaria.

“In assenza di un cambiamento significativo di paradigm, qualcosa di imprevedibile al presente – dice Olshausen – non direi che siamo al punto in cui dovremmo essere realmente preoccupati di un’AI fuori controllo”.

Ma in ogni caso è qualcosa “da tenere d’occhio”. (L.M.)

Altri argomenti

Luciana Maci
Giornalista

Ho partecipato al primo esperimento di giornalismo collaborativo online in Italia (Misna). Sono dal 2013 in Digital360 Group, prima in CorCom, poi in EconomyUp. Scrivo di innovazione ed economia digitale

Articoli correlati