AI, intelligenza artificiale: per l’ad di Google servono trattati regolatori come sulle armi nucleari

L’intelligenza artificiale può essere “molto dannosa” se usata in modo sbagliato. Lo ha detto l’amministratore delegato di Google Sundar Pichai.

AI, intelligenza artificiale: per l’ad di Google: “Molto dannosa”

Nel corso di un’intervista a 60 Minutes, ha messo in evidenza che per l’IA servono norme simili a quelle dei trattati usati per regolare l’utilizzo delle armi nucleari. Pichai quindi osserva come la competizione per far progredire la tecnologia potrebbe far accantonare i timori per la sicurezza.

Intanto, dopo il rilascio, qualche settimana fa, della quarta versione del chatbot ChatGpt, lo sviluppatore OpenAi ha spiegato che non è previsto, almeno per il momento, l’arrivo della quinta generazione.

OpenAi: “Non previsto l’arrivo della quinta generazione ChatGpt”

La prossima iterazione, a detta della stessa tabella di marcia di OpenAi, è quella che renderebbe il modello linguistico molto più simile all’uomo, visto il raggiungimento dello status di “Agi”, acronimo di artificial general intelligence. Le chat con utenti umani diventerebbero, a quel punto, quasi indistinguibili tra agente virtuale e reale.

“Non lo stiamo sviluppando e non lo faremo per un bel po’ di tempo. Stiamo facendo altre cose oltre con Gpt-4 e penso ci siano una serie di problemi di sicurezza che è importante affrontare” le parole pronunciate da Sam Altman, amministratore delegato di OpenAi, durante un evento pubblico al Mit di Boston sull’intelligenza artificiale.

La lettera di Musk e altri mille firmatari

Le dichiarazioni arrivano a seguito della lettera aperta inviata da Elon Musk e oltre mille firmatari, in cui si chiede alle organizzazioni che lavorano su progetti di intelligenza artificiale di fermarsi per almeno sei mesi. OpenAi non ha contestualizzato la decisione, limitandosi ad affermare che “è importante prendersi del tempo per studiare davvero il modello di sicurezza e cercare di capire cosa sta succedendo”.

L’approccio cautelativo darebbe più tempo alla fondazione per migliorare il trattamento dei dati personali degli utenti di ChatGpt. Una questione messa in evidenza, per la prima volta, dal Garante italiano a fine marzo.

Lo stop del Garante della Privacy in Italia

A tale richiesta, OpenAi aveva risposto con la chiusura temporanea dell’accesso al chatbot nel nostro Paese. Il Garante ha proposto nuove linee guida che, se adottate entro il 30 aprile, permetteranno a ChatGpt di tornare operativo in Italia.

Lo scorso 13 aprile, anche l’agenzia spagnola per la protezione dei dati (Aepd) ha avviato un’indagine preliminare su potenziali violazioni da parte di ChatGpt. Nello stesso giorno, il Comitato europeo per la protezione dei dati (Edpb) ha istituito una task force per monitorare le attività di ChatGpt

Published by
Warsamé Dini Casali