I chatbot, attraverso un software elaborato tramite l’intelligenza artificiale, simulano una conversazione con un essere umano, fornendo determinate risposte alle domande di quest’ultimo. Nonostante i passi in avanti, però, esistono ancora certe problematiche che ne compromettono a volta l’affidabilità. Ci sono argomenti poi che sarebbe meglio evitare quando si dialoga con l’intelligenza artificiale, per esempio quelli di natura medica e i consigli sulla salute. Scopriamo tutte le cose da non rivelare ai chatbot.
Data la natura non sempre affidabile dell’intelligenza artificiale tramite le conversazioni con i chatbot, gli esperti mettono in guarda gli utenti dal chiedere pareri riguardo la propria salute, dunque consigli medici più o meno specifici. Stando a un recente sondaggio della Cleveland Clinic, infatti, un americano su cinque chiede consigli sulla salute all’intelligenza artificiale e il 25% degli utenti tende ad affidarsi ai chatbot nel corso di una terapia medica.
Il consiglio degli esperti è quello di evitare di divulgare dati medici e sanitari nelle domande poste all’intelligenza artificiale. Se si cerca una risposta generica, considerando comunque la fragilità del sistema dei chatbot sull’argomento, il consiglio è quello di omettere il proprio nome o altre informazioni personali.
Riguardo ai dati sensibili, gli esperti suggeriscono di evitare il più possibile di rivelare le proprie informazioni personali. Credenziali di accesso, informazioni finanziarie, risposte alle domande di sicurezza, il proprio nome, il numero di telefono e l’indirizzo non dovrebbero mai essere condivisi con i chatbot.
“Nessuna password, numero di passaporto o carta di credito, indirizzo, nome o altri dati personali che appartengono a te, alla tua azienda o ai tuoi clienti devono finire nelle chat con un’intelligenza artificiale. Puoi sostituirli con gli asterischi nella tua richiesta”, ha affermato Stan Kaminsky, della società di sicurezza informatica Kaspersky. Data la natura sensibile di questi dati, esiste la possibilità che questi possano essere riutilizzati in qualche modo. “Tutto ciò che scrivi a un chatbot può essere usato contro di te”, avverte Kaminsky.
Lo stesso discorso, per esempio, vale anche per quel tipo di informazioni relative all’azienda per la quale si lavora: “Potrebbe esserci la forte tentazione di caricare un documento di lavoro. Tuttavia, caricando in modo non attento un documento di più pagine, si rischia di far trapelare dati riservati, proprietà intellettuale o segreti commerciali”, ha affermato Stan Kaminsky.