Media

Nòva – Il Sole 24 Ore: “I robot e la ripartizione sociale del rischio”

Vi proponiamo qui l’articolo di Giusella Finocchiaro e Michele Colajanni, pubblicato su Nòva del Sole 24 Ore il 15 ottobre 2017.

Chi avrebbe mai pensato di trovare citate le tre leggi della robotica di Asimov in un testo normativo? Eppure si leggono nella “Risoluzione del Parlamento europeo del 16 febbraio 2017” che reca “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”.

Pur trattandosi di raccomandazioni e quindi di soft law, si affronta un tema che pochi anni fa sarebbe parso ai limiti della fantascienza: chi risponde dei danni causati da un robot o da un software a cui vengono delegate decisioni? Qualche anno fa si sarebbe risposto: è responsabile o sono responsabili alternativamente o cumulativamente chi ha scritto il programma, il produttore o il venditore. Ma oggi lo scenario è più complesso, la risposta giuridica più articolata e pertinente alla pervasività dell’informatica nella società e nell’industria.

La progressiva delega della competenza decisionale dall’uomo al software ci porterà dall’Industria 4.0 all’Impresa 5.0 in modo progressivo e solo apparentemente non dirompente. Già oggi esistono algoritmi in grado di apprendere in modo autonomo e di prendere decisioni senza che le relazioni causa-effetto siano necessariamente comprese dall’uomo. Colpisce l’affermazione del capo progetto del software Libratus che ha stracciato i migliori giocatori mondiali del poker professionistico: “Noi non abbiamo insegnato a Libratus come giocare a poker. Gli abbiamo dato le regole del poker e detto: adesso impara da solo”.

Certo, un gioco complesso a informazione imperfetta non è assimilabile alla vita reale dove non è detto che tutti rispettino le regole, ma d’altro canto la coabitazione che ci attende è molto più complessa del previsto scenario: robot che rispetta le regole, uomo imprevedibile. Dovremo considerare aspetti relativi alla co-esistenza di robot che operano con software contenente errori (essendo un prodotto umano, è fallace per definizione), robot che saranno informaticamente violati, ma anche robot che implementeranno regole basate su princìpi della propria cultura e della contingenza, in quanto nessuno ha mai potuto definire a livello universale le categorie assolute e dualistiche del giusto e dell’errato, da cui la necessità del Parlamento europeo di ricorrere alle meta-leggi della robotica di Asimov. Sotto il profilo giuridico ciò che rileva è proprio che la decisione o il comportamento assunti dai robot non sono sempre prevedibili.

Quali soluzioni sono prospettabili in alternativa o in aggiunta alle soluzioni tradizionali?

Continua su Nòva.