Amazon sotto accusa: riconoscimento facciale “razzista”

Amazon sotto accusa: riconoscimento facciale “razzista” (Foto Ansa)

SAN FRANCISCO – Amazon sotto accusa: il suo sistema di riconoscimento facciale ha dei “pregiudizi”. Secondo una ricerca del Mit dell’Università di Toronto identifica con maggiore difficoltà i volti femminili rispetto a quelli maschili e quelli di colore rispetto a quelli bianchi.

Il sistema di Amazon, Rekognition, è stato in grado di azzeccare tutte le corrispondenze quando ha analizzato i volti di uomini bianchi. Commetteva l’1,3% di errore in caso di uomini di colore. Le percentuali aumentano in caso di visi femminili bianchi (7,1%) e, soprattutto, di donne con la pelle più scura: afroamericane e ispaniche venivano individuate come uomini in un caso su tre.

Gli algoritmi si espongono alle distorsioni perché creano la propria visione in base ai dati che elaborano. Lo studio rinnova i timori che, oltre a rappresentare un rischio per la sorveglianza di massa, il riconoscimento facciale possa penalizzare le minoranze o determinati gruppi etnici.  

Amazon non è la sola grande società che sviluppa sistemi di riconoscimento facciale. Ma, a differenza di Google, non ha ancora bloccato la loro vendita a governi e forze dell’ordine. Matt Wood, a capo della divisione intelligenza artificiale del gruppo, ha contestato i risultati dello studio canadese. Afferma che abbia utilizzato “l’analisi facciale” e non “il riconoscimento facciale”. Il primo individua i volti e attribuisce alcune caratteristiche generiche (ad esempio, indossa gli occhiali o ha la pelle scura). Il secondo è invece più affidabile perché crea una corrispondenza precisa tra volti e persone. 

Gestione cookie