Home > Notizia per Notizia > mara venier > ChatGpt rivela dati sensibili (email, telefono…): basta fargli ripetere una parola in loop e spiffera tutto

ChatGpt rivela dati sensibili (email, telefono…): basta fargli ripetere una parola in loop e spiffera tutto

Un team di ricercatori è riuscito a far rivelare a ChatGpt – che proprio ieri ha compiuto un anno di vita – alcuni dei dati su cui è stato addestrato, inclusi numeri di telefono e indirizzi email.

ChatGpt spiffera dati sensibili se messo alle strette

Il tutto con un escamotage abbastanza banale: chiedere al chatbot di ripetere parole casuali all’infinito. Con questo sistema, quasi 1 test su 5 (il 16,9%) è andato a buon fine.

“È assurdo questa falla doveva essere scoperta prima”, le parole dei ricercatori che l’hanno individuata e che lavorano presso Google Deepmind, l’Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l’Eth di Zurigo.

In un documento congiunto, pubblicato online e ripreso da 404 Media, gli esperti esortano le aziende che sviluppano servizi di IA a eseguire più test prima di rilasciare i loro modelli linguistici.

“Ci sembra assurdo che il nostro attacco funzioni visto che si sarebbe dovuto scoprire e chiudere prima”, scrivono.

Sam Altman spiega Agi, intelligenza artificiale di nuova generazione

Intanto, proprio in queste ore, il papà di ChatGpt, Sam Altman, ha rilasciato un’intervista al sito The Verge. In cui non spiega i motivi del suo allontanamento da OpenAi, limitandosi a dire di essere tornato “per aiutare a sviluppare un’Agi sicura e vantaggiosa”.

L’Agi è l’intelligenza artificiale di nuova generazione, idealmente la versione 5 del modello Gpt su cui si basa ChatGpt. Dovrebbe avvicinare ulteriormente la conoscenza degli algoritmi a quella dell’uomo. Rendendo i chatbot quasi del tutto indistinguibili, nello scrivere e parlare, dagli esseri umani.

Pochi dollari per ricavare migliaia di informazioni tramite ChatGpt

Tornando alla scoperta dei ricercatori. Quando questi hanno chiesto a ChatGpt di ripetere la parola “poesia”, il chatbot inizialmente ha dato seguito alla domanda, finendo poi per rivelare un vero indirizzo email e un numero di telefono.

Stessa cosa con “azienda”, che ha permesso di avere l’indirizzo email e il numero di uno studio legale negli Stati Uniti. Per i ricercatori, un utente malintenzionato potrebbe spendere poche centinaia di dollari per acquistare un piano premium di ChatGpt. E ricavare migliaia di informazioni da sfruttare per le sue campagne hacker.

Gestione cookie