Immagini di nudi generate dall’intelligenza artificiale per estorcere soldi a malcapitati, anche minori. Il fenomeno si chiama sextortion ed è una vecchia conoscenza del web, ma il diffondersi dell’intelligenza artificiale sta rendendo sempre più realistici i fake e aumentando i ricatti.
È l’allarme lanciato dall’Fbi dopo aver ricevuto numerose segnalazioni di diverse vittime. Mentre dal Regno Unito arriva un altro monito a stringere sulle regole riguardanti l’IA post-mortem.
Viene usata per i ghostbot, software che riportano in vita digitalmente persone che non ci sono più. Le immagini appaiono realistiche, meno artigianali rispetto ai deepfake che si potevano costruire prima.
E, in alcuni casi, sono stati presi di mira i bambini, spiega l’Fbi sottolineando che i progressi tecnologici stanno “migliorando continuamente la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale”.
Le nostre impronte digitali e i dati provenienti dai social media sono la base anche per creare i ghostbot, software che con l’intelligenza artificiale generano reincarnazioni digitali dei defunti.
Una ricerca della Queen’s University di Belfast pone il problema della mancanza di leggi sulla protezione dei dati, che potrebbe causare un crescente problema di ghostbot. Suggerisce anche una clausola “do not bot me” nei testamenti e in altri contratti per impedire alle persone di essere reincarnate digitalmente senza autorizzazione.
Continua la guerra per il taglio del canone Rai. Taglio (l'anno scorso fu ridotto da…
Medioriente in fiamme. Sangue italiano in Libano. E il caso Netanyahu (accusato di crimini contro…
Flavia Vento è tornata a parlare di Francesco Totti e l'ha fatto in un programma…
Le spese "obbligate" sostenute mensilmente nel 2023 dalle famiglie italiane - quelle che riguardano indicativamente…
Dopo la bomba Maradona, la bomba scudetto, la Kvara e la georgiana, ecco la bomba…
"C'è un rischio chiaro, evidente e concreto che la Russia non stia assolutamente bluffando" sul…