È stato approvato il 14 giugno del 2023 il testo definitivo del cosiddetto AI Act, ossia l’insieme di norme che – per la prima volta al mondo – regolerà cosa possono e non possono fare i software di intelligenza artificiale in Europa. Ma l’iter europeo, iniziato nel 2021 con gli occhi del Pianeta addosso, non è ancora arrivato alla fine: il testo approvato dal Parlamento dovrà essere negoziato e dunque condiviso anche dal Consiglio (gli Stati membri della Ue) e dalla Commissione. Con l’idea che questo avvenga entro la fine dell’anno perché l’AI Act possa diventare infine legge entro la prima metà del 2024. Il nodo intorno cui gira tutto è il divieto di utilizzare il riconoscimento facciale in spazi accessibili al pubblico. In sostanza gli algoritmi non potranno essere utilizzati per l’identificazione biometrica remota «in tempo reale» e «a posteriori» in spazi accessibili al pubblico.
L’idea di fondo, così come raccontata nel Parlamento Ue, è di vietare tutti «i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone». I deputati hanno allungato la lista dei divieti di uso dell’IA perché «intrusivi e discriminatori». E così vengono messi nella lista nera i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); quelli di cosiddetta “polizia predittiva” (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; le piattaforme per l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy). Sono stati aggiunti alla lista ad alto rischio anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
Tra le regole introdotte vi è anche una serie di norme da applicare ai cosiddetti sistemi di intelligenza artificiale generativa, come il rinomato ChatGpt: ognuna di queste risorse dovrà rendere conto in modo chiaro con quali modalità è stato generato il contenuto. Proprio quest’ultima parte è tra le più discusse fuori dal Parlamento. Nello specifico, pochi giorni dopo l’approvazione del testo, sui tavoli dell’Unione Europea è arrivata una lettera firmata da 150 aziende del Continente che chiede la revisione dell’Act sotto diversi aspetti. Tra i firmatari nomi come Siemens, Renault, Airbus, Heineken. Secondo i quali l'AI Act mette «a rischio la competitività e la sovranità tecnologica dell'Europa», limitando le nuove iniziative in un settore, quello dell'intelligenza artificiale, dalle infinite potenzialità. «L'Europa non può permettersi di rimanere ai margini». In particolare ci si rivolge appunto alle norme su software generativi, specificando che chi sviluppa questo tipo di soluzioni in Europa affronterebbe costi di conformità e rischi di responsabilità sproporzionati rispetto ai competitor in altre parti del mondo. E questo potrebbe portare all'abbandono di progetti e investimenti, dunque a un «divario critico di produttività» rispetto agli Stati Uniti e alla Cina.