Immagini di nudi generate dall’intelligenza artificiale per estorcere soldi a malcapitati, anche minori. Il fenomeno si chiama sextortion ed è una vecchia conoscenza del web, ma il diffondersi dell’intelligenza artificiale sta rendendo sempre più realistici i fake e aumentando i ricatti.
AI, intelligenza artificiale, e criminale: sextortion, ghostbot…
È l’allarme lanciato dall’Fbi dopo aver ricevuto numerose segnalazioni di diverse vittime. Mentre dal Regno Unito arriva un altro monito a stringere sulle regole riguardanti l’IA post-mortem.
Viene usata per i ghostbot, software che riportano in vita digitalmente persone che non ci sono più. Le immagini appaiono realistiche, meno artigianali rispetto ai deepfake che si potevano costruire prima.
E, in alcuni casi, sono stati presi di mira i bambini, spiega l’Fbi sottolineando che i progressi tecnologici stanno “migliorando continuamente la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale”.
La clausola “do not bot be”
Le nostre impronte digitali e i dati provenienti dai social media sono la base anche per creare i ghostbot, software che con l’intelligenza artificiale generano reincarnazioni digitali dei defunti.
Una ricerca della Queen’s University di Belfast pone il problema della mancanza di leggi sulla protezione dei dati, che potrebbe causare un crescente problema di ghostbot. Suggerisce anche una clausola “do not bot me” nei testamenti e in altri contratti per impedire alle persone di essere reincarnate digitalmente senza autorizzazione.