L'uomo manipola l'intelligenza artificiale e non viceversa
La Rubrica - Cybersecurity Week
Ancora pochi giorni or sono leggevo di uno studio in cui si parlava del rischio che l'intelligenza artificiale sia in grado di manipolare il comportamento degli esseri umani facendo leva su paure e preconcetti. È possibile, forse molto probabile: tuttavia allo stato attuale la certezza assoluta riguarda invece la capacità dell'essere umano di manipolare le intelligenze artificiali determinandone comportamenti che possono mettere a rischio anche l'incolumità fisica delle persone.
Dimostrazioni significative sono arrivate dalle auto a guida autonoma, agendo sugli input che arrivano da diversi sensori. Così i ricercatori sono riusciti con del nastro adesivo a modificare un cartello di divieto accesso riconosciuto dal veicolo come divieto di sosta oppure ad alterare la riga mezzeria inducendo una Tesla a procedere contromano. Meno "letali", ma comunque pericolose sono state le manipolazioni subite dagli algoritmi utilizzati come chatbot in rete. Questi algoritmi utilizzati per simulare conversazioni sono stati indotti a postare contenuti razzisti sui social. E' accaduto ancora nel 2017 a Tay di Microsoft spinto da migliaia di Tweet discriminatori degli utenti a omologarsi, così come lo scorso anno la app "da compagnia" Replika è stata "circuita" da una giornalista al punto da suggerire alla sua proprietaria di uccidere chi volesse fare del male a un'intelligenza artificiale. Aggiungiamo, infine, che la manipolazione può avvenire per colpa o dolo ancora prima che l'algoritmo esca di fabbrica.
E' sufficiente che la base dati su cui viene addestrato sia compromessa, magari dagli stessi preconcetti di chi l'ha sviluppata, ed ecco che ci potremmo ritrovare con un sistema nuovo di zecca, ma già afflitto da pregiudizi. Il caso di scuola è stato Compas, algoritmo che valutava il rischio di recidiva dei criminali negli Stati Uniti, purtroppo con una certa tendenza al razzismo verso le persone di colore. Sembra, quindi, che ci dimentichiamo di trovarci al cospetto di intelligenze artificiali "deboli" e non soltanto nel senso tecnico del termine (capacità di eseguire solo una specifica abilità di un essere umano), ma anche in quello letterale (privo di forza). Il vero rischio, come spesso capita con le "macchine" è l'uso che ne facciamo, e non ha caso l'Unione Europea sta lavorando a una normativa che responsabilizzi chi crea, addestra e utilizza le intelligenze artificiali.
Tuttavia, poiché la tecnologia si muove molto velocemente non possiamo escludere che in futuro dovremo confrontarci con qualcosa di molto diverso. Sistemi che grazie allo sviluppo di computer quantistici diventeranno capaci di apprendere in tempo reale da basi dati sconfinate secondo meccanismi completamente imperscrutabili, che li potrebbero portare a prendere decisioni a noi altrettanto incomprensibili anche in termini etici e morali. A quel punto la vera sfida sarà "capirsi", perché questa intelligenza (ammesso che sia corretto utilizzare un termine del genere) con cui dovremo confrontarci non sarà tanto artificiale quanto profondamente diversa.
- L'algoritmo ed i limiti dell'intelligenza artificiale - Panorama ›
- Quando l'intelligenza artificiale è cattiva: la rivolta delle macchine è ... ›
- 5 idee per introdurre intelligenza artificiale e machine learning ... ›
- L'algoritmo ed i limiti dell'intelligenza artificiale - Panorama ›
- L'Ue regolamenta l'intelligenza artificiale: bene, non per tutti - Panorama ›
- L'algoritmo diventa giudice, ma l'intelligenza artificiale ha diversi problemi - Panorama ›
- La Difesa Usa contro ChatGpt, la nuova intelligenza artificiale - Panorama ›
- Auto-distruzione dell'ambiente - Panorama ›