Il rischio cyber non è solo il crimine
La Rubrica - Cybersecurity Week
Da un lato il caso dell’intelligenza artificiale ChatGPT, dall’altro 11 mila aerei bloccati a terra per un guasto a un software della Federal Aviation Administration statunitense. Questi i due temi che hanno monopolizzato l’attenzione del settore della cyber security. La possibilità di utilizzare le capacità di ChatGPT per generare malware, email fake e sviluppare strumenti che possono essere utilizzati per attaccare sistemi informatici, ha confermato quanto molti esperti di settore già sapevano. Il tema del cosiddetto “dual use” (se lo puoi usare per difenderti lo puoi utilizzare anche per attaccare) è senza dubbio esplosivo quando si tratta di un’intelligenza artificiale accessibile a chiunque. Considerando il successo avuto da ChatGPT e i significativi investimenti (svariate decine di miliardi dollari) che saranno riversati nel progetto, sulla base delle sue straordinarie potenzialità, chi si occupa di cyber security non può esimersi dal fare almeno una domanda: se per andare in giro con una pistola ci vuole il porto d’armi e un’intelligenza artificiale di questo tipo può essere usata come arma, forse non sarebbe il caso di mettere qualche paletto?
Mentre si discettava sulle implicazioni etiche dell’uso delle intelligenze artificiali è arrivata la notizia che il traffico aereo sui cieli degli Stati Uniti era stato bloccato a causa del malfunzionamento del sistema “Notice to Air Missions” della FAA (Federal Aviation Administration) che fornisce informazioni sulla sicurezza agli equipaggi. Il risultato è stata la sospensione di 11 mila voli. Dall’indagine è emerso che la causa del blocco del sistema è stato un singolo file corrotto. Quando si è scoperto che non si era trattato di un attacco cyber molti hanno tirato un sospiro di sollievo. A ben vedere non si capisce per quale ragione, perché adesso è chiaro come sia possibile colpire un piccolo componente di un sistema informatico e produrre un risultato di svariati ordini di grandezza superiore. In effetti, immaginare che il trasporto aereo possa essere messo in ginocchio da qualche byte “andato a male” dovrebbe indurre a qualche riflessione sulle implicazioni della pervasività della tecnologia.
In generale, le notizie della scorsa settimana dovrebbero farci riflettere su almeno due cose. La prima. Quando si parla di rischi cyber essi non sono relativi soltanto alle attività di criminali, ma riguardano errori umani, e sono impliciti nella digitalizzazione. La seconda. Le tecnologie dell’informazione e quelle cyber soffrono di un’intrinseca fragilità che si manifesta in diverse forme. Nel caso di ChatGPT è l’assoluta “ingenuità” dell’algoritmo che allo stato attuale può essere facilmente manipolato. In quello del guasto al sistema della FAA è bastato un singolo file per “spegnere” il trasporto aereo. La speranza è che questi segnali non vengano ancora una volta trascurati.