L'Ue regolamenta l'intelligenza artificiale: bene, non per tutti
La Rubrica - Intrusioni di Maskelyne
LA UE REGOLAMENTA LA INTELLIGENZA ARTIFICIALE: BENE, MA NON PER TUTTI
Chi vi scrive ha sempre pubblicamente lamentato la mancanza di norme adeguate a disciplinare l'utilizzo della Intelligenza Artificiale (IA). La notizia che la Commissione Europea ha pubblicato il primo atto legislativo (seppure migliorabile) per affrontare le principali questioni relative all'IA, rappresenta in ogni caso un concreto (e decisamente opportuno) passo in avanti nel trasformare la lA in una realtà misurata, controllata e regolamentata.
La proposta di legge si basa sul noto principio del rischio, criterio già adottato dal legislatore europeo per normare altre categorie di prodotti (per esempio i dispositivi medici). Nel caso specifico, i livelli di rischio sono quattro: rischio minimo, rischio limitato, alto rischio e rischio intollerabile, un criterio semplice che vieta il rischio intollerabile e impone condizioni rigorose per i contesti ad alto rischio.
É impossibile qui entrare in dettaglio sulle diverse casistiche contemplate, è invece opportuno fornire una panoramica dei principali aspetti del quadro normativo disegnato dalla Commissione Europea, prima di concentrarsi su alcune riflessioni.
Gli usi inammissibili della AI includono, ad esempio, tutte le applicazioni che "manipolano" il comportamento umano e i sistemi di identificazione biometrica in tempo reale su suolo pubblico (fatto salvo tre impieghi previsti per le forze dell'ordine). Sono vietate anche le situazioni in cui la IA è usata per calcolare il "social scoring" (il punteggio sociale, utilizzato dal governo cinese) e per la sorveglianza di massa.
Scendendo la scala della pericolosità, troviamo le applicazioni dell'IA categorizzate come" ad alto rischio", che sono utilizzabili purché regolate da severissimi requisiti da seguire sia nella fase di progettazione e realizzazione, che durante l'intero ciclo di vita del prodotto.
La Rubrica - Intrusioni di Maskelyne
In questa casistica rientrano tra l'altro le soluzioni di IA che operano nelle infrastrutture critiche, gli algoritmi per valutare gli studenti, quelli impiegati per selezionare i candidati ad un posto di lavoro, le persone meritorie di un credito, i software per investigare o prevenire reati e quelli per valutare le richieste di visto e di asilo o per supportare le decisioni dei magistrati.
Bene, ora qualche riga dedicata ad evidenziare un punto di merito ed un punto di attenzione.
Proprio come accaduto con il GDPR (il regolamento generale sulla protezione dei dati) la Commissione sta cercando di "normare la tecnologia" per garantire la rigorosa protezione degli utenti, la privacy dei dati, nonché i possibili utilizzi impropri dell'Intelligenza Artificiale. L'obiettivo è quello di porre le persone al centro, in modo che possano fidarsi della tecnologia che deve essere utilizzata in maniera sicura e conforme alla legge, nel pieno rispetto dei diritti fondamentali.
Focalizziamoci quindi su di un aspetto che può avere margini di miglioramento. Le regole dovrebbero essere equilibrate, proporzionate, ma soprattutto non limitare o ostacolare lo sviluppo tecnologico. Alcuni aspetti del regolamento non favoriranno certamente le attività delle PMI (il vero cuore dell'innovazione italiana), difficilmente in grado di dipanarsi tra la tanta burocrazia prevista nella proposta.
Su questo punto appare significativa una dichiarazione di Benjamin Mueller (analista specializzato sulle tecnologie innovate) riportata dal Wall Street Journal: "Sviluppare soluzioni di IA in Europa sarà costoso o addirittura impossibile. Gli Stati Uniti e la Cina guarderanno con soddisfazione la UE che attacca le proprie startup".
Appare chiaro che gli incentivi e il supporto per le PMI previsti nella bozza della Commissione Europea non risultano adeguati. Andrebbero rivisti e indirizzati a garantire concorrenza e inoltre, per evitare che solo le grandi imprese siano in grado di affrontare i tanti aspetti prettamente amministrativi (problemi legali, certificazione, gestione del rischio, ecc.), dovrebbero essere correlati alla progettazione di sistemi di intelligenza artificiale.
Qualunque sia il punto di vista è il momento di familiarizzare con la legislazione proposta, segnalare potenziali preoccupazioni all'attenzione degli organi legislativi (la proposta deve essere ratificata da ogni paese membro della EU) ma soprattutto prepararsi al rispetto delle nuove norme e obblighi.
- L'algoritmo ed i limiti dell'intelligenza artificiale - Panorama ›
- 5 idee per introdurre intelligenza artificiale e machine learning ... ›
- L'uomo manipola l'intelligenza artificiale e non viceversa - Panorama ›
- Dobbiamo difenderci dalla tecnologia che vuole controllarci - Panorama ›
- L'arte firmata dai robot - Panorama ›