X

AI, intelligenza artificiale, rischio per l’umanità, se un laboratorio tipo Wuhan perde controllo peggio del covid

di Maria Vittoria Prest |14 Luglio 2024 10:19

AI, intelligenza artificiale, rischio per l’umanità, se un laboratorio tipo Wuhan perde controllo peggio del covid - Blitzquotidiano.it (foto Ansa)

L’intelligenza artificiale, AI, IA, potrebbe rappresentare un rischio “catastrofico” per la sicurezza nazionale e persino per tutta l’umanità, secondo un rapporto commissionato dal Dipartimento di Stato americano.
Se il controllo della AI sfuggisse a un qualche laboratorio sarebbe una catastrofe immensamente più grave del covid. Wuhan insegna.
Il documento intitolato “Un piano d’azione per aumentare la sicurezza e la protezione dell’intelligenza artificiale avanzata”, riportato per la prima volta da TIME, informa che il governo degli Stati Uniti deve muoversi “rapidamente e con decisione” – con misure che includono potenzialmente la limitazione della potenza di calcolo assegnata all’addestramento di queste IA. – oppure rischiare una “minaccia di estinzione per la specie umana”.

IA, INTELLIGENZA ARTIFICIALE COME LA BOMBA ATOMICA

AI, intelligenza artificiale, rischio per l’umanità, se un laboratorio tipo Wuhan perde controllo peggio del covid – Blitzquotidiano.it (foto Ansa)

“L’ascesa dell’intelligenza artificiale avanzata e dell’AGI [intelligenza artificiale generale] ha il potenziale per destabilizzare la sicurezza globale in modi che ricordano l’introduzione delle armi nucleari”, si legge nel rapporto.
Anche se dobbiamo ancora raggiungere lo stadio in cui i modelli di intelligenza artificiale possono competere con gli esseri umani a livello intellettuale, comunemente noto come AGI, molti hanno sostenuto che è solo questione di tempo e che dovremmo affrontare il problema facendo intervenire il governo prima che sia troppo tardi.
È solo l’ultimo esempio di esperti che avvertono che la tecnologia dell’intelligenza artificiale rappresenta un “rischio esistenziale” per l’umanità. Tra essi il capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, e un cosiddetto “padrino” della tecnologia, il capo dell’intelligenza artificiale di Google nel Regno Unito, Demis Hassabis, e l’ex amministratore delegato di Google Eric Schmidt.
Un articolo di Victor Tangermann su Futurism.com mette in guardia.
Un recente sondaggio ha anche scoperto che oltre la metà dei ricercatori sull’intelligenza artificiale intervistati afferma che esiste una probabilità del 5% che gli esseri umani siano portati all’estinzione, oltre ad altri “risultati estremamente negativi”.
Il rapporto di 247 pagine del Dipartimento di Stato, commissionato alla fine del 2022, prevedeva il colloquio con più di 200 esperti, inclusi dipendenti di aziende come OpenAI, Meta e Google DeepMind e dipendenti governativi.
Per impedire che un’intelligenza artificiale porti alla nostra scomparsa come specie, gli autori raccomandano che un’agenzia statunitense stabilisca il limite massimo della potenza di calcolo che dovrebbe essere utilizzata per addestrare un dato modello di intelligenza artificiale.

I GOVERNI DEVONO IMPORRE LIMITI

Le aziende di intelligenza artificiale dovrebbero anche chiedere il permesso al governo di addestrare qualsiasi nuovo modello al di sopra di una certa soglia. È interessante notare che il rapporto consiglia anche di rendere un reato penale rendere open source o rivelare il funzionamento interno di potenti modelli di intelligenza artificiale.
Queste raccomandazioni hanno lo scopo di affrontare il rischio che un laboratorio di intelligenza artificiale “perda il controllo” dei suoi sistemi di intelligenza artificiale, il che potrebbe avere “conseguenze potenzialmente devastanti per la sicurezza globale”.
“L’intelligenza artificiale è una tecnologia economicamente trasformativa”, ha detto alla CNN uno degli autori del rapporto e CEO di Gladstone AI Jeremie Harris.
“Potrebbe permetterci di curare malattie, fare scoperte scientifiche e superare sfide che una volta ritenevamo insormontabili.” “Ma potrebbe anche comportare seri rischi, compresi rischi catastrofici, di cui dobbiamo essere consapevoli”, ha aggiunto. “E un numero crescente di prove – tra cui ricerche e analisi empiriche pubblicate nelle principali conferenze sull’intelligenza artificiale del mondo – suggeriscono che al di sopra di una certa soglia di capacità, le IA potrebbero potenzialmente diventare incontrollabili”.
Non è la prima volta che sentiamo i leader del settore mettere in guardia sui potenziali pericoli dell’intelligenza artificiale, nonostante decine di miliardi di dollari siano stati investiti nello sviluppo della tecnologia. Ma resta da vedere se i governi presteranno ascolto a questi avvertimenti.
Scelti per te