L’intelligenza artificiale può essere “molto dannosa” se usata in modo sbagliato. Lo ha detto l’amministratore delegato di Google Sundar Pichai.
Nel corso di un’intervista a 60 Minutes, ha messo in evidenza che per l’IA servono norme simili a quelle dei trattati usati per regolare l’utilizzo delle armi nucleari. Pichai quindi osserva come la competizione per far progredire la tecnologia potrebbe far accantonare i timori per la sicurezza.
Intanto, dopo il rilascio, qualche settimana fa, della quarta versione del chatbot ChatGpt, lo sviluppatore OpenAi ha spiegato che non è previsto, almeno per il momento, l’arrivo della quinta generazione.
La prossima iterazione, a detta della stessa tabella di marcia di OpenAi, è quella che renderebbe il modello linguistico molto più simile all’uomo, visto il raggiungimento dello status di “Agi”, acronimo di artificial general intelligence. Le chat con utenti umani diventerebbero, a quel punto, quasi indistinguibili tra agente virtuale e reale.
“Non lo stiamo sviluppando e non lo faremo per un bel po’ di tempo. Stiamo facendo altre cose oltre con Gpt-4 e penso ci siano una serie di problemi di sicurezza che è importante affrontare” le parole pronunciate da Sam Altman, amministratore delegato di OpenAi, durante un evento pubblico al Mit di Boston sull’intelligenza artificiale.
Le dichiarazioni arrivano a seguito della lettera aperta inviata da Elon Musk e oltre mille firmatari, in cui si chiede alle organizzazioni che lavorano su progetti di intelligenza artificiale di fermarsi per almeno sei mesi. OpenAi non ha contestualizzato la decisione, limitandosi ad affermare che “è importante prendersi del tempo per studiare davvero il modello di sicurezza e cercare di capire cosa sta succedendo”.
L’approccio cautelativo darebbe più tempo alla fondazione per migliorare il trattamento dei dati personali degli utenti di ChatGpt. Una questione messa in evidenza, per la prima volta, dal Garante italiano a fine marzo.
A tale richiesta, OpenAi aveva risposto con la chiusura temporanea dell’accesso al chatbot nel nostro Paese. Il Garante ha proposto nuove linee guida che, se adottate entro il 30 aprile, permetteranno a ChatGpt di tornare operativo in Italia.
Lo scorso 13 aprile, anche l’agenzia spagnola per la protezione dei dati (Aepd) ha avviato un’indagine preliminare su potenziali violazioni da parte di ChatGpt. Nello stesso giorno, il Comitato europeo per la protezione dei dati (Edpb) ha istituito una task force per monitorare le attività di ChatGpt
Un tranquillo pranzo a base di funghi si è trasformato in tragedia per una famiglia…
Svolta anti veti a Strasburgo: i Socialisti spagnoli hanno aperto a Fitto. Si sono sbloccati.…
Il video che racconta 1000 giorni di invasione russa in Ucraina. A realizzarlo sono stati…
Per i pensionati non sono di certo momenti facili. Dopo una vita di lavoro alla…
La sinistra e Musk: secondo la premier Giorgia Meloni un punto nevralgico. Meloni non rinuncia…
Otto razzi da 107 millimetri hanno colpito il quartiere generale del contingente italiano e del…