ChatGpt+rivela+dati+sensibili+%28email%2C+telefono%26%238230%3B%29%3A+basta+fargli+ripetere+una+parola+in+loop+e+spiffera+tutto
blitzquotidianoit
/societa/chatgpt-rivela-dati-sensibili-email-telefono-3577611/amp/

ChatGpt rivela dati sensibili (email, telefono…): basta fargli ripetere una parola in loop e spiffera tutto

Un team di ricercatori è riuscito a far rivelare a ChatGpt – che proprio ieri ha compiuto un anno di vita – alcuni dei dati su cui è stato addestrato, inclusi numeri di telefono e indirizzi email.

ChatGpt spiffera dati sensibili se messo alle strette

Il tutto con un escamotage abbastanza banale: chiedere al chatbot di ripetere parole casuali all’infinito. Con questo sistema, quasi 1 test su 5 (il 16,9%) è andato a buon fine.

“È assurdo questa falla doveva essere scoperta prima”, le parole dei ricercatori che l’hanno individuata e che lavorano presso Google Deepmind, l’Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l’Eth di Zurigo.

In un documento congiunto, pubblicato online e ripreso da 404 Media, gli esperti esortano le aziende che sviluppano servizi di IA a eseguire più test prima di rilasciare i loro modelli linguistici.

“Ci sembra assurdo che il nostro attacco funzioni visto che si sarebbe dovuto scoprire e chiudere prima”, scrivono.

Sam Altman spiega Agi, intelligenza artificiale di nuova generazione

Intanto, proprio in queste ore, il papà di ChatGpt, Sam Altman, ha rilasciato un’intervista al sito The Verge. In cui non spiega i motivi del suo allontanamento da OpenAi, limitandosi a dire di essere tornato “per aiutare a sviluppare un’Agi sicura e vantaggiosa”.

L’Agi è l’intelligenza artificiale di nuova generazione, idealmente la versione 5 del modello Gpt su cui si basa ChatGpt. Dovrebbe avvicinare ulteriormente la conoscenza degli algoritmi a quella dell’uomo. Rendendo i chatbot quasi del tutto indistinguibili, nello scrivere e parlare, dagli esseri umani.

Pochi dollari per ricavare migliaia di informazioni tramite ChatGpt

Tornando alla scoperta dei ricercatori. Quando questi hanno chiesto a ChatGpt di ripetere la parola “poesia”, il chatbot inizialmente ha dato seguito alla domanda, finendo poi per rivelare un vero indirizzo email e un numero di telefono.

Stessa cosa con “azienda”, che ha permesso di avere l’indirizzo email e il numero di uno studio legale negli Stati Uniti. Per i ricercatori, un utente malintenzionato potrebbe spendere poche centinaia di dollari per acquistare un piano premium di ChatGpt. E ricavare migliaia di informazioni da sfruttare per le sue campagne hacker.

Warsamé Dini Casali

Blitzer della prima ora, cerco di interpretare le notizie senza litigare con i fatti. Relativista tiepido, credo in un’informazione libera ma non nel mito della sua presunta neutralità. Considero il giornalismo online un’opportunità e una sfida: senza rischi che gusto ci sarebbe?

Recent Posts

L’oroscopo del 23 novembre segno per segno: amore, soldi, fortuna e lavoro

Cosa dice l'oroscopo del 23 novembre per tutti i segni? Andiamo a vedere le previsioni…

23 minuti ago

Pena di morte Usa. In Alabama il condannato inala azoto: un’agonia di minuti, è anche tortura?

Un uomo condannato a morte per l'omicidio, avvenuto trent'anni fa, di un autostoppista in Alabama,…

38 minuti ago

Che tempo farà nel weekend? Pioggia e vento forte al Centro-Sud. Nel weekend arriva il freddo

Le condizioni meteo continuano a essere difficili al Centro-Sud, con freddo intenso e venti forti,…

52 minuti ago

Libano: 4 militari italiani Unifil feriti. Colpita la base, non sono in pericolo di vita

Quattro militari italiani della missione Unifil sono rimasti feriti dopo che la base nel sud…

1 ora ago

Se vai a quest’ora alla Lidl diventa una miniera d’oro: non hai idea delle offerte

Alla Lidl ad un'ora del giorno ben precisa ci sono offerte imperdibili capaci di lasciarti…

1 ora ago