Le dimissioni da Google del padre dell’Intelligenza Artificiale (AI), Geoffrey Hinton, considerato uno dei maggiori esperti di reti neuronali, fa molto riflettere sul pericolo rappresentato dall’evoluzioni dei sistemi. I rischi posti dalle nuove applicazioni dell’Intelligenza Artificiale (AI) sono ormai molteplici: dalla violazione della privacy alla discriminazione, dalla manipolazione mentale al rischio di danni fisici, psicologici o economici. Per fare ulteriori esempi, i sistemi AI possono non solo identificare il volto di un soggetto in una folla, ma anche riconoscerne le emozioni e addirittura classificarlo in base a caratteristiche personalissime e sensibili. Ne sono prova alcuni discutibili studi recenti che sono riusciti a identificare l’orientamento sessuale o anche la propensione al crimine a partire da caratteristiche facciali. Altrettanto preoccupanti sono progetti di ricerca sul riconoscimento emozionale su soggetti obbligati a testare l’algoritmo sottoponendosi a test forzati. Alcuni algoritmi possono addirittura predire le capacità e l’affidabilità dei candidati per una posizione lavorativa, basandosi semplicemente su video-interviste. Tecnologie simili potrebbero presto essere utilizzate nelle scuole per predire il livello di attenzione ed educazione degli studenti. Inoltre, le società di tecnologia finanziaria prevedono di usare i social media e altri dati per stabilire le condizioni e i tassi d’interesse dei mutui. Sistemi AI complessi sono già usati in diverse parti del mondo per le auto a guida autonoma, per le diagnosi mediche, per cani poliziotti robotici e addirittura per le armi “intelligenti”. Peraltro, anche i più comuni sistemi AI, come quelli impiegati nelle app per la consegna a domicilio, possono essere discriminatori. Tutto ciò può portare a scenari distopici, come il sistema di social scoring, in cui un algoritmo può classificare i cittadini in base a quanto rispettano le regole e a quanto mostrano obbedienza (online e offline) verso il partito. Altri rischi, ben più concreti, sono la discriminazione sul luogo di lavoro in base al sesso o all’orientamento sessuale o a danno di determinate minoranze sociali in contesti di polizia predittiva. Il controllo delle emozioni da parte di sistemi AI, peraltro, può portare alla manipolazione comportamentale di bambini, anziani o altri consumatori, sfruttandone le vulnerabilità cognitive e inducendoli a scelte commerciali indesiderate. Allo stesso tempo, questi sistemi automatizzati sono spesso opachi e pertanto difficili da contestare. Si tratta, com’è chiaro, di una sfida globale e avrebbe poco senso affrontarla all’interno degli stretti confini nazionali. Ecco perché sia l’Unione Europea che gli USA si stanno muovendo in parallelo, ma con approcci molto diversi nella direzione di una regolamentazione delle applicazioni AI “ad alto rischio”. Alcuni sistemi di AI sono considerati a rischio intollerabile e sono pertanto proibiti. Si tratta delle pratiche online di manipolazione cognitiva che causano danni fisici o psicologici o sfruttano la vulnerabilità dovuta all’età o alla disabilità. Sono anche vietati i sistemi di valutazione sociale dei cittadini che possono produrre effetti dannosi sproporzionati o fuori contesto, nonché i sistemi di identificazione facciale usati indiscriminatamente dalle forze dell’ordine in luoghi aperti. Altri sistemi AI sono considerati ad alto rischio (incluso il riconoscimento facciale, o l’AI usata in infrastrutture critiche, in contesti di educazione, valutazione dei lavoratori, emergenza, assistenza sociale, valutazione del credito, o l’AI usata da parte delle forze dell’ordine, della polizia di frontiera e dei tribunali). I fornitori e gli utilizzatori di tali sistemi AI dovranno effettuare una valutazione dei rischi e assicurare la sorveglianza umana nello sviluppo dell’algoritmo per garantirne la modificabilità e la comprensibilità. Dovranno, inoltre, preparare un adeguato piano di gestione dei dati, colmando eventuali lacune, prevenendo qualsiasi pregiudizio intrinseco all’algoritmo e contestualizzando il sistema AI nella specifica realtà socio-geografica in cui se ne prevede l’utilizzo. Sappiamo che, nonostante gli sforzi europei, la maggior parte dei servizi AI sono prodotti non solo sul suolo europeo, ma soprattutto negli USA e in Cina. Anche se le proposte europee si applicherebbero a qualsiasi prodotto o servizio AI impiegato in UE (pur se sviluppato all’estero) dovremmo guardare anche alle legislazioni d’oltreoceano per capire le concrete possibilità di ridurre i rischi dei sistemi AI, legislazioni che non hanno come obiettivo dichiarato la protezione dei diritti fondamentali dei cittadini, ma soltanto la “riduzione delle barriere allo sviluppo e all’uso dell’AI”. A questo punto bisogna imporre alle grandi società tecnologiche che forniscono servizi e prodotti di preparare un dettagliato piano per la gestione dei dati, rendere gli algoritmi spiegabili anche a un pubblico di non esperti e prevenire “bias” discriminatori, stabilire regole più sostanziali e durature. Questa sfida non è soltanto necessaria, ma anche urgente, visto che a breve potremmo avere a che fare con applicazioni AI che prendono decisioni di vita o di morte sull’assegnazione delle cure mediche, che guidano l’attività della polizia e influenzano l’accesso al credito. Il vero progresso tecnologico sostenibile dipende dal rispetto dei diritti fondamentali, dalla garanzia della sicurezza e dal divieto di pratiche AI particolarmente rischiose per gli individui.
Luigi Bernabò