Home > Notizia per Notizia > Politica > Politica estera > L’Europa vuole mettere in campo la prima legge destinata alle Intelligenze Artificiali

L’Europa vuole mettere in campo la prima legge destinata alle Intelligenze Artificiali

La legge europea sull’intelligenza artificiale sta per diventare realtà. In Europa si respira aria di futuro. C’è la volontà non solo di prevederlo ma anche di regolarlo. È infatti imminente il vaglio della prima proposta di regolamento europeo sull’intelligenza artificiale (AI). Presentato nel 2021 ha percorso varie tappe giungendo alla valutazione finale e diventerà legge una volta che sia il Consiglio sia il Parlamento Europeo avranno concordato la versione comune del testo.  

L’AI Act ha l’ambizione di essere il più importante regolatore al mondo, in fatto di uso e consumo delle Intelligenze Artificiali. È pensato per assegnare alle piattaforme o alle app che fanno uso dell’AI tre categorie di rischio di utilizzo. Sono considerati a rischio inaccettabile prima di tutto le applicazioni e i sistemi che creano un punteggio sociale gestito da un governo. Saranno categoricamente vietati mezzi per il controllo delle masse come quelli utilizzati in Cina negli ultimi anni. Rientrano in un secondo gruppo le candidature ad alto rischio come gli strumenti di scansione dei curriculum che classificano i candidati, grazie ad algoritmi statistici. Questi saranno soggetti a requisiti legali specifici.

Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio che oggi, per mancanze normative, sono in gran parte lasciate non regolamentate saranno severamente controllate con criteri che sembrano usciti da un racconto di Asimov.

La fantascienza diventa realtà

Le regole previste nella fantascienza, le leggi robotiche di Asimov, nella loro semplicità sono un nume tutelare nel definire che cosa può fare o non fare un robot e quindi una AI. Non stiamo ovviamente parlando di fantascienza ma di un futuro che è già qui, oggi. La prima legge stabilisce che un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. La seconda che un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge. La terza e ultima legge decreta che un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

 

Nel campo delle AI si sta cercando una regolamentazione simile ma con uno spettro più ampio.

I motivi per cui dovrebbe interessarci

Le applicazioni di intelligenza artificiale, già oggi, influenzano le informazioni che vediamo online. Prevedendo quali contenuti possano essere interessanti, ci consigliano cosa acquistare, ci trovano le strade più semplici da percorrere, ci trovano il locale più vicino che incontra i nostri gusti. Le AI acquisiscono e analizzano i dati dai volti per far rispettare le leggi o personalizzare le pubblicità.  Ma vengono anche utilizzate per diagnosticare e curare il cancro. In altre parole, l’intelligenza artificiale influenza molte parti delle nostre vite.

Come il regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, l’EU AI Act potrebbe diventare uno standard globale, determinando fino a che punto l’IA avranno un effetto positivo, piuttosto che negativo, sulle nostre vite ovunque siamo.

Il regolamento dell’UE sull’IA sta già facendo scalpore a livello internazionale. Alla fine di settembre 2022, il Congresso brasiliano ha approvato un disegno di legge che crea un quadro giuridico per l’intelligenza artificiale.

Propositi della legge europea sull’intelligenza artificiale

Nella proposta di legge sono state pensate delle disposizioni normative a garanzia che le IA rimangano delle forze positive nella vita delle persone. Il riconoscimento facciale da parte della polizia sarà vietato, a meno che le immagini non vengano acquisite per trovare, per esempio, dei bambini scomparsi.

Inoltre, la legge si propone di essere lungimirante. Se tra qualche anno un’applicazione di IA pericolosa verrà utilizzata in un settore imprevisto, la legge che oggi non prevede alcun meccanismo per etichettarla come “ad alto rischio”, fornirà i mezzi normativi necessari per tutelare le persone e le istituzioni.

Gestione cookie