Economia
January 15 2018
Sono particolarmente felice di segnalare un interessante studio fatto da alcuni ricercatori italiani che, nei mesi scorsi, è stato pubblicato sulle più importanti riviste internazionali nel campo dell’intelligenza artificiale e del diritto, come anche da molti quotidiani, e ha suscitato un vivo dibattito. Francesca Lagioia, Giuseppe Contissa, Giovanni Sartor, che lavorano al Cirssid, centro di informatica giuridica dell’Università di Bologna, e all’Istituto universitario europeo di Fiesole, hanno proposto un’idea molto originale che arricchisce il dibattito sulle potenzialità e i limiti dell’intelligenza artificiale: la manopola etica. Di cosa si tratta?
Il dispositivo trova la sua applicazione nelle autovetture guidate da un computer. Esiste una classificazione in 6 livelli di automazione (da 0 a 5), relativi a quanto l’uomo può intervenire: più alto è il livello, meno è possibile all’uomo controllare il veicolo. In un’auto di livello 1, ad esempio, il sistema automatico imposta la velocità, mentre l’uomo controlla il volante. In un’auto di livello 5, il computer ha in mano tutti gli aspetti della guida, e non vi è nemmeno il volante. L’uomo, in quest’ultimo caso, si affida totalmente al sistema automatico e al suo algoritmo. La domanda che gli autori dello studio si sono posti è: possiamo, in quest’ultimo scenario, restituire all’uomo la responsabilità morale dei suoi atti? Insomma: in caso di incidente, ammesso che esistano delle alternative da prendere, chi deve decidere chi subirà i danni maggiori o, addirittura, chi avrà salva la vita?
La manopola etica è appunto il mezzo per conservare la scelta nell’era delle driverless cars. Infatti guidare una macchina automatica vuol dire, essenzialmente, delegare. Ma possiamo delegare anche i nostri valori? Evidentemente no, perché, anche se, per ipotesi, affidassimo a un algoritmo perfetto, un cervellone morale per dir così, il compito di scegliere l’alternativa più giusta, potremmo sempre domandarci se sia giusto (cioè morale) che sia un algoritmo perfetto a valutare il bene e il male.
E a questa domanda l’algoritmo non potrebbe rispondere senza ricadere in un circolo vizioso. Anche in una macchina automatica di livello 5, dunque, ci vuole un dispositivo che accolga l’elemento umano. La manopola etica consente di regolare il sistema automatico da “massimo egoismo” a “massimo altruismo”, passando per un grado intermedio “neutrale”. Impostato su “massimo egoismo”, il sistema, in caso di incidente, sacrificherà le vite degli altri a beneficio di quella del passeggero. Impostato su “massimo altruismo”, sarà invece il passeggero a subire i danni maggiori, e massimamente tutelati, invece, i passeggeri delle altre vetture o i pedoni. L’impostazione “neutrale” ricerca un via di mezzo.
Facendo un esempio concreto e, per spiegarci meglio, estremo: immaginiamo una fila di bambini che attraversano la strada, e che l’unico modo per evitarli sia sterzare andando a precipitare in un burrone. Un’alternativa così drammatica chiama in gioco il valore che noi attribuiamo alla nostra vita in relazione a quella degli altri. Nell’impostazione massimamente altruistica, l’automobile sterzerà, in quella massimamente egoistica, procederà dritta. Nell’impostazione neutrale (e che non è detto sia eticamente la migliore per tutti, ma appunto, la responsabilità della scelta sta all’uomo) cercherà di conciliare le due soluzioni con un compromesso.
Per ora la manopola etica è solo una proposta teorica, ma in un futuro non lontano potrebbe essere implementata. Al di là delle questioni giuridiche, per le quali principalmente è nata, ha il merito di ribadire che, anche nell’era dell’AI e della crescente automazione, la persona è e sarà sempre al centro del nostro mondo, con le sue decisioni, responsabilità ed emozioni, non delegabili alle macchine senza una preliminare espressione di volontà o di desiderio.