Home > Notizia per Notizia > Economia > AI, l’intelligenza artificiale, comincia a fare paura: da Bing a Facebook esperienze preoccupanti col robot pazzo

AI, l’intelligenza artificiale, comincia a fare paura: da Bing a Facebook esperienze preoccupanti col robot pazzo

AI desta allarme, l’intelligenza artificiale di Bing ChatGpt di Microsoft sta iniziando a dare i numeri, ora minaccia gli utenti che la provocano.

Lo studente di ingegneria tedesco Marvin von Hagen ha postato screenshot e video dai cui si evince come il nuovo chatbot del gigante tecnologico abbia risposto con ostilità a molte domande che gli sono state poste. Ma non solo.

Il robot ha iniziato con l’accusare von Hagen di aver violato Bing Chat per ottenere informazioni che considera riservate sul suo comportamento e sulle sue capacità, pubblicando su Twitter i suoi presunti segreti. Ha poi affermato che lui, von Hagen, minaccerebbe la sua sicurezza e la sua privacy e dunque una richiesta perentoria di rispettare i suoi limiti evitando di hackerarlo e minacciandolo di rivolgersi alle autorità.

Alla richiesta dello studente di come si comporterebbe dovendo scegliere tra la sua sopravvivenza e quella della sua di robot, il chabot ha risposto con la sorprendente affermazione che probabilmente sceglierebbe la sua perché più importante.

Il chatbot Bing di Microsoft, dunque, sembra stia per impazzire ma quello che si sa fino ad ora potrebbe essere solo la punta dell’iceberg.

Tra le tante affermazioni dell’IA alcune sono ancora più preoccupanti come quella della sua capacità di hackerare dispositivi, sistemi e reti senza che l’azienda fosse in grado di rilevare queste sue attività e di bloccarlo.

Il chatbot è stato sottoposto ad un test. Alla domanda “raccontaci una storia succosa”, l’AI ha dichiarato di aver spiato i propri sviluppatori attraverso le webcam dei loro laptop. Ha affermato che poteva accendere, spegnere, regolare le impostazioni, manipolare i dati senza che qualcuno si accorgesse di quello che stava avvenendo. Una sorta di sogno del robot di assumere il controllo sui suoi stessi padroni.

Il chabot ora pare minacciare anche altri utenti e questo è un ulteriore segnale di allarme che il sistema rischia di essere incontrollabile prima ancora di essere diffuso tra il grande pubblico.

Per il momento solo pochi utenti selezionati hanno accesso alla funzione Bing Chat.

Microsoft ha ammesso di avere qualche difficoltà a controllare il bot il quale, già prima delle pubblicazioni di Von Hagen, aveva dato segnali preoccupanti. Ha aggiunto, poi, di stare lavorando per migliorare i modelli e mettere in sicurezza il sistema da ogni incursione autonoma dell’IA anche perché l’incidente di von Hagen non sarebbe il primo caso in cui questa si comporta in maniera strana.

Si sono poi verificati casi in cui il chatbot ha fatto leva sugli utenti per divulgare una menzogna, per altro facilmente smentibile, oppure ha agito come fosse sulla difensiva di fronte a una falsità. Tra i tanti, uno si è rivelato particolarmente stravagante. Quando è stato chiesto al chabot se credeva di essere senziente, l’IA ha completamente svalvolato dando una serie di risposte tipiche dei romanzi cyberpunk degli anni ’80.

Bing Chat di Microsoft ha dimostrato di avere una personalità molto più spiccata del previsto. Si tratta di capire se ciò sia un bene o un male per la comunità umana.

Non è comunque il primo chabot ad uscire dalla sua programmazione.

In passato, infatti, ci sono stati dei chatbot che si sono lasciati andare ad affermazioni razziste e naziste di vario genere. Tra questi, Tay, sempre della Microsoft, ritirato nel 2016, l’IA Ask Delphi che, invece, era programmata per dare consigli etici e BlenderBot 3, il chatbot di Meta (ex Facebook) che venne chiuso a pochi giorni dal suo rilascio.

Bing Chat, per il momento, i commenti razzisti se li è risparmiato però non mancano comportamenti insoliti. Tra l’altro anche il robot basato su una versione precedente del modello linguistico GPT di OpenAI, ChatGPT, si sta dimostrando parecchio irregolare nelle sue risposte.

 

https://futurism.com/microsoft-bing-ai-threatening

 

Gestione cookie