Come funzionano davvero gli algoritmi di raccomandazione di YouTube e TikTok? Si temono rischi connessi alla manipolazione degli utenti.
Da tempo l’UE è alle prese con un’estesa indagine per capire se le più note piattaforme online rispettano sul serio le normative comunitarie sui servizi digitali. Si tratta di tutelare la privacy degli iscritti e di prevenire potenziali abusi. Ma anche di evitare che i siti più frequentati possano manipolare gli utenti, in senso commerciale, politico o culturale. Il focus è sugli algoritmi di raccomandazione, dei sistemi che analizzano i dati degli utenti per suggerire dei contenuti personalizzati.
In base a tali algoritmi YouTube sceglie per esempio quali video consigliare. Per farlo utilizza vari metodi: dall’analisi del comportamento passato, ai like, cioè le preferenze dichiarate e le interazioni con i contenuti (commenti e reazioni). Il fine è quello di prevedere cosa potrebbe interessare a un utente. E se invece il consiglio fosse interessato? Il rischio è che le piattaforme, in base a secondi fini non chiari (sponsorizzazioni dichiarate od occulte), possano traghettare l’utente verso contenuti specifici per indirizzarlo verso un prodotto, un comportamento o un’idea specifica.
YouTube, TikTok, Snapchat, ma anche Netflix e molti altri siti sfruttano questi algoritmi per migliorare l’esperienza utente e mantenere un alto coinvolgimento da parte dei naviganti. Il punto è che sorgono dubbi sul meccanismo di raccolta dati, sui processi di analisi (che dovrebbero basarsi sul machine learning e l’identificazione di pattern) e, soprattutto, sulla cosiddetta “raccomandazione”, ovvero sui suggerimenti finali.
L’UE attacca YouTube e TikTok: critiche agli algoritmi delle piattaforme
Ecco perché la Commissione Europea ha chiesto a YouTube, TikTok e Snapchat dei chiarimenti sul funzionamento dei loro algoritmi. Bisogna insomma far luce sui criteri di selezione e raccomandazione dei contenuti che di fatto influenzano l’opinione pubblica, anche in faccende serie come le elezioni. E che possono avere un impatto decisivo sul benessere mentale degli utenti. L’UE si aspetta informazioni esaustive anche a proposito delle misure adottate dalle tre piattaforme per proteggere i minori e per contrastare la diffusione di contenuti illegali e dannosi (come per esempio la promozione del consumo di droghe, autodiagnosi mediche, fake news, frodi e di incitamento all’odio).
Le tre piattaforme dovranno rispondere alla richiesta di chiarimento entro il 15 novembre, così come imposto dal Digital Services Act, il regolamento europeo sulla sicurezza e la trasparenza dei contenuti digitali. Il Digital Services Act impone pure alle tre piattaforme social l’obbligo di controllare il processo di moderazione e di provvedere a soluzioni per contrastare la disinformazione e la diffusione di contenuti illegali e nocivi.
I sospetti riguardano da tempo soprattutto TikTok (attualmente, ci sono circa 19,7 milioni di utenti attivi mensili sul social cinese solo in Italia). Da anni, infatti, si levano voci preoccupate sul funzionamento dell’algoritmo del social cinese. Secondo alcune accuse, TikTok promuoverebbe contenuti pericolosi: video sull’autolesionismo e disturbi alimentari, mettendo così a rischio i giovani utenti. E non sono mai state risolte le vecchie preoccupazioni a proposito della raccolta e dell’uso dei dati personali degli utenti. Chi ci assicura che il social non li utilizzi in modo inappropriato? E poi c’è l’eterna questione dei contenuti mirati e potenzialmente manipolativi.