Home > Notizia per Notizia > Economia > La verità, vi prego, sull’amore per l’intelligenza artificiale

La verità, vi prego, sull’amore per l’intelligenza artificiale

«Se scrivessi il vero nessuno mi crederebbe. Quindi devo scrivere il verosimile» Luca De Biase nel suo articolo su Nòva 24 di oggi cita Carlo Goldoni per parlare di intelligenze artificiali – che vengono chiamate comunemente AI – raccontandone lo stato dell’arte. La frase del drammaturgo sembra calzare a pennello in un periodo storico dove, anche per noi che siamo umani, diventa ogni giorno più difficile discernere ciò che è vero da ciò che è falso.

Sull’argomento si è recentemente espresso anche Noam Chomsky e ne abbiamo reso conto proprio su queste pagine, parlando di come, allo stato attuale, sia perfettamente inutile attribuire “malizia” a un’entità che non può provarla, per il semplice motivo che non capisce nulla di ciò che scrive o dice.

Bibliografie perfette… peccato non esistano

Tutti i giorni, se ci si vuole creare un personale bagaglio di informazioni su cui basare la nostra idea del mondo, non possiamo avvalerci di un’unica fonte. Questo ormai è assodato. In un’epoca dove l’estrema polarizzazione delle idee schiera su due lati della barricata chi la pensa in un modo da chi ne pensa l’esatto opposto, diventa quasi impossibile trovare una via di mezzo. Troppe informazioni, con troppi punti di vista diametralmente opposti. Le AI, in questo, possono essere viste come una cartina di tornasole del processo cognitivo che porta, sempre più spesso, a convinzioni errate.

Nell’articolo di De Biase c’è una parte in cui prova a spiegare come funzionano le AI: “C’è l’eloquenza generata statisticamente, come tutti sanno, sulla base di miliardi di testi masticati dal sistema che riesce a inferire la frase che probabilmente prosegue un certo incipit. I risultati migliori sono ottenuti però grazie all’intervento di migliaia di persone pagate qualche dollaro l’ora per correggere i risultati”.

Esemplare l’esperienza di David Smerdon, economista alla University of Queensland che ha chiesto a ChatGPT: «Qual è l’articolo accademico di economia più citato della storia?». Senza alcun La macchina ha risposto: «”A Theory of Economic History” di Douglass North e Robert Thomas, pubblicata nel Journal of Economic History, nel 1969, citata più di 3omila volte. Il giornale è considerato ormai un classico della storia economica». Bella risposta. È davvero un peccato che quell’articolo accademico non esista.

Verosimile is the new veritiero

I tempi in cui avevamo una ricerca su Google e avevamo una rosa di scelte catalogate per rilevanza, importanza (ma quasi mai per autorevolezza) sembra storia di un lontano passato. Oggi si cerca la risposta secca. Scegliere fra varie opzioni, verificare le fonti, ragionare sui contenuti è una fatica. in più non c’è tempo.  Poco importa se a darci la risposta sia una macchina che, nel suo bagaglio di informazioni arriva fino al 2021 – è questo oggi il limite di banca dati, il “Data Set”, da cui attinge, per esempio, ChatGPT – e quindi non è colpa sua se tutto quello che è successo dopo quell’anno, non solo non esiste ma non ha alcuna rilevanza statistica.

Come spiega sempre l’articolo di Nòva “ChatGPT punta al verosimile e non prova alcun interesse per distinguere il vero dal falso. Perché, in realtà, non è una macchina per conoscere. È una macchina per conversare”.

Intelligenze artificiali usate come scaricabarile della nostra inadeguatezza

Se usiamo ChatGPT, la risposta a una nostra richiesta, insieme a milioni di altre richieste fatte nello stesso momento entra in un calderone statistico, completamente privo di anima ma efficientissimo. È vero che, a volte, sembra davvero che dall’altra parte dello schermo ci sia una persona che ci fornisce risposte molto più che verosimili. Tanto credibili che già si leggono notizie in cui un membro di una coppia in crisi decida di mandare all’aria anni di matrimonio a causa di un suggerimento fornito da una AI. Casi come questo sono un po’ come quelli  di chi va da un cartomante per sapere se la sua vita di coppia va bene. Persone che, già prima di sedersi di fronte al “mago” di turno, sanno la risposta e l’unica cosa che cercano è poter scaricare le proprie responsabilità su qualcun altro o, peggio, sul fato.

Se c’è una cosa che ci fa paura, soprattutto in questo “bizzarro” periodo storico è il libero arbitrio che è una vera fatica esercitare. Meglio quindi lasciare che le nostre scelte cadano dall’altro e siamo prese da un altro. Se questo è un’entità che non ha corpo, ancora meglio: così non soffrirà quando gli darò la colpa delle mie disgrazie. Ed qui che parte l’amore viscerale che si sta provando per le AI. Ci sono anche due serie ti tv che ci raccontano come delle coppie si sfascino perché un algoritmo decide che quella non è la persona giusta e scelgono quella che ha deciso per loro l’algoritmo. Con tutte le conseguenze (negative) del caso. 

Le intelligenze artificiali danzano nella caverna platonica

Una delle metafore più belle sulla conoscenza arriva da Platone che metteva l’umanità in una caverna, schiava di ombre che si rifrangono sulle pareti della grotta create da un fuoco. Per i prigionieri di quel luogo (noi)  le ombre proiettate dal fuoco sono l’unica verità raggiungibile. Le intelligenze artificiali di oggi hanno preso il nostro posto in quella caverna. Le loro “verità” sono “l’ombra della verità”. Le pareti di roccia sono sostituite da scatole di metallo. Non ci sono fiamme a proiettare ombre sui muri ma flussi di elettroni che convergono in chip quantici. Ma sempre di un luogo chiuso e avulso dall’esterno stiamo parlando. Finché “l’umanità” delle intelligenze artificiali sarà relegata in quella caverna tecnologica non potrà che basarsi solo sulle ombre che vede, lasciando noi umani liberi di scorrazzare nel mondo esterno.

In questo c’è solo da ringraziare le “fluide” intelligenze artificiali alle quali non possiamo ancora dare del tu, del lei ma forse neanche del loro per il semplice motivo che siamo noi ad averle volute così.

 

 

 

 

Gestione cookie