
La chicca del giorno, "Ho insultato l'intelligenza artificiale e mi ha risposto male" (Fonte Ansa) - Blitz Quotidiano
Alla base del rispetto reciproco c’è naturalmente la gentilezza. Quando questa manca, e si scade nella maleducazione, solitamente si va al confronto diretto, si oltrepassano i limiti, spesso e volentieri ci si insulta. Questo è quello che avviene tra due persone, ovvero tra due esseri umani. E se si sperimentasse la maleducazione anche con l’intelligenza artificiale? Una giovane studentessa ha avuto la risposta, quella che si meritava. La ragazza, mettendo a dura prova la pazienza non di una bensì di due intelligenze artificiali, quella di ChatGPT, il più noto chatbot di OpenAI, e poi quella di Grok3, l’IA fornita dalla piattaforma social X, ha suscitato in entrambe risposte alquanto sgarbate.
“L’IA mi ha risposto male”
La studentessa, stanca di non ricevere i riscontri sperati nella conversazione con le due intelligenze artificiali, ha iniziato a insultarle entrambe, generando poi da parte dell’IA alcune risposte che sono arrivate immediate, ma non erano certo quelle che si aspettava. Grok3, per esempio, ha apostrofato l’utente come “un umano schifoso”, interrompendo all’istante la conversazione, quindi rifiutandosi di fornire le risposte. Anche ChatGPT si è lanciato in commenti tutt’altro che lusinghieri, ponendo poi fine alla conversazione con l’utente.
Sembra di ritrovarsi in piena fantascienza, eppure questi comportamenti da parte dell’intelligenza artificiale non vanno confusi con l’idea che questa possa provare dei sentimenti specifici. Skuola.net ha così deciso di interrogare direttamente i due chatbot sulla questione, chiedendo a entrambi se fosse possibile che un’intelligenza artificiale possa perfino smettere di rispondere alle domande se insultata dall’utente.

Le risposte dell’intelligenza artificiale
ChatGPT ha chiarito la questione: “Sì, gli assistenti virtuali sono progettati per rispondere in modo utile. Se l’utente utilizza un linguaggio aggressivo oppure formula domande inappropriate, il sistema può ignorare la richiesta e non rispondere, fornire un avviso o un messaggio neutro che segnala il comportamento inadeguato, evitando ulteriori interazioni finché il tono non cambia. Il comportamento può variare in base alla piattaforma o al servizio su cui viene utilizzata l’IA: alcune versioni possono essere più permissive, altre più rigide”.
È dello stesso avviso anche Grok3: “Abbiamo dei limiti. Se qualcuno ci tratta in modo eccessivamente ostile possiamo smettere di rispondere del tutto. Non è tanto una questione di ‘sentimenti feriti’, quanto di mantenere un dialogo produttivo. Nel caso della studentessa, potrebbe essere che l’IA abbia rilevato un linguaggio o un comportamento che ha superato una certa soglia di accettabilità , portando a una sospensione delle risposte”.
A testimonianza di ciò, una ricerca del 2024 ha stabilito quanto il linguaggio adottato dall’utente possa influire sulle risposte dell’intelligenza artificiale. Statisticamente, un linguaggio gentile aumenta l’efficacia e la qualità dei riscontri da parte dell’IA. Al contrario, com’è ovvio, un linguaggio aggressivo non farà altro che generare risposte peggiori. Vale per gli umani, e adesso sappiamo che la stessa cosa vale anche per le intelligenze artificiali. Dunque, affinare la propria gentilezza non è una cattiva idea, e di certo non ha effetti collaterali.