Progetto RoboLaw, “Obbedire e non uccidere”: la robotica tra etica e tecnologia

Progetto RoboLaw, "Obbedire e non uccidere": la robotica tra etica e tecnologia
Progetto RoboLaw, “Obbedire e non uccidere”: la robotica tra etica e tecnologia (Foto LaPresse)

ROMA – Quindici cervelli per una intelligenza artificiale. Il progetto RoboLaw unisce informatici, ingegneri, giuristi e filosfi delle università europee per definire le nuove frontiere della robotica tra etica, legge e tecnologia. “Obbedite e non uccidete” il comando, scrive Marco Gasperetti sul Corriere della sera. Un vero e proprio codice dei doveri dei robot che vede impegnati i ricercatori dell’università di Reading, in Gran Bretagna, di Tilburg in Olanda, della Ludwig Maximilians di Monaco, tutti coordinati dalla Scuola Superiore Sant’Anna di Pisa.

Gasperetti sul Corriere della Sera spiega:

“Sono una quindicina i «cervelloni», tra i quali lo scienziato inglese Kevin Warwick, il primo al mondo a farsi impiantare chip sotto la pelle per sperimentare la status di cyborg, e discutono anche temi futuribili che il 28 e il 29 novembre saranno al centro di convegno internazionale a Pisa. Elucubrazioni che oggi possono apparire fantascientifiche, ma destinate a diventare di quotidiana attualità. Come accaduto per Internet e con i nuovi reati informatici”.

Tra i temi trattati dal progetto RoboLaw anche quello della violenza e dei robot usati come armi, spiega Pericle Salvini, dottorato di ricerca in biorobotica alla Sant’Anna e project manager di RoboLaw:

“«Una macchina non deve uccidere un uomo e questo ci sembra un principio universale, anche se in questa stesura non affronteremo i problemi legati alle guerre e agli eserciti. Stiamo discutendo molti temi, tra i quali quello del lavoro e la spinosa questione della macchina che toglie occupazione alle persone, cercando di arrivare a una sintesi tra il bisogno della tecnica e dello sviluppo industriale, l’annullamento di impieghi pericolosi e degradanti (sempre più affidati alle macchine) e l’aumento di posti di lavoro»”.

Anche la “personalità virtuale” è uno dei temi in studio, spiega Salvini:

“«Un robot deve essere riconosciuto come tale e non deve mai ingannare le persone, né per le sembianze fisiche, né per le capacità cognitive, né per gli pseudo sentimenti. Con un’eccezione: l’impiego in alcune terapie»”.

La responsabilità per i danni provocati dai robot è “sempre e comunque di un umano:

“«Progettista, costruttore, programmatore, assemblatore, venditore o proprietario che sia. Ogni robot dovrà essere dotato di una scatola nera da cui sarà possibile, eventualmente, risalire alle cause di un mal funzionamento»”.

I robot entrano nella vita delle persone e lo sviluppo dell’intelligenza artificiale continua ed evolve, ma dietro ad ogni macchina c’è sempre un uomo e il fine deve essere uno solo: portare dei benefici all’umanità, non nuovi pericoli.

Gestione cookie