La prima legge organica sull’intelligenza artificiale è realtà. Rimangono molte critiche in merito alla sorveglianza di massa, soprattutto dei migranti.
L’AI Act, il regolamento europeo sull’intelligenza artificiale, è legge. Con il voto del Parlamento comunitario del 13 marzo si completa il lungo iter legislativo che ha portato alla luce la prima normativa complessa sull’intelligenza artificiale al mondo, creando un precedente storico importante.
Il Parlamento, in vista dello scioglimento per le prossime elezioni europee, ha anticipato il voto finale del testo che era previsto per la metà di aprile. Per la promulgazione del testo bisognerà aspettare maggio, dato che dovrà essere tradotto nelle 24 lingue comunitarie e ci saranno molto probabilmente degli adattamenti alle normative nazionali che porteranno ad un ulteriore voto del Parlamento ad aprile. La prima scadenza degli adeguamenti è di sei mesi; le norme diventeranno completamente operative tra due anni.
Brando Benifei, il relatore del Parlamento europeo sull’AI Act, lo ha definito un regolamento “volto a limitare i rischi e aumentare le opportunità, a combattere le discriminazioni, a portare la trasparenza e i nostri valori democratici di libertà e uguaglianza all’interno dello sviluppo dell’intelligenza artificiale, sostenendo al contempo l’innovazione e la competitività”.
— IMCO Committee Press (@EP_SingleMarket) March 13, 2024
A chi è indirizzato l’AI Act: escluse ricerca, scopi militari, controlli sui migranti
I soggetti interessati dalle regole dell’AI Act sono diversi. Fornitori, utilizzatori e acquirenti: tutti soggetti a cui fa riferimento il regolamento. Insomma, chiunque deve assicurarsi che il prodotto acquistato abbia superato la procedura di valutazione di impatto prevista dalla norma.
Ci sono però delle eccezioni: le regole non si applicano infatti alle attività di ricerca e sviluppo che precedono la messa in vendita del prodotto, né ai sistemi destinati a scopi esclusivamente militari, di difesa, di controllo dei flussi migratori o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con rischi sistemici.
Il sistema a “scala di rischio”
Il regolamento prevede un livello di protezione degli utenti, con una scala di rischio per regolare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, elevato e inaccettabile. I sistemi a rischio limitato saranno soggetti a requisiti di trasparenza molto leggeri, come, per esempio, il solo obbligo a comunicare che un determinato contenuto è stato prodotto attraverso l’uso dell’intelligenza artificiale.
Per quelli a rischio elevato, è prevista una valutazione d’impatto sui diritti fondamentali prima dell’immissione sul mercato, che comprende l’obbligo di registrazione presso l’apposita banca dati dell’Unione Europea e di requisiti sui dati e sulla documentazione tecnica da presentare per dimostrare la conformità del prodotto.
Il regolamento classifica nella categoria di rischio inaccettabile – e quindi di fatto li vieta – i sistemi di manipolazione del comportamento cognitivo, lo scraping ossia la raccolta non mirata di immagini dal web o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, i sistemi di punteggio sociale (social scoring) da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o religiosi, e alcuni casi di polizia predittiva.
Le critiche della società civile: legittimata la sorveglianza biometrica, nonostante rischi ed errori
La bozza iniziale del regolamento prevedeva il divieto della sorveglianza di massa attraverso il riconoscimento biometrico facciale. Il testo definitivo, invece, consentirà alle forze dell’ordine di usare software per il riconoscimento facciale negli spazi pubblici nonostante le prove empiriche degli errori e delle discriminazioni che questo genere di tecnologie presenta nei loro algoritmi.
Con il voto di mercoledì, invece, il Parlamento ha legittimato la sorveglianza biometrica in tutto il territorio comunitario, con il rischio di trasformare il nostro sistema democratico in “uno stato di sorveglianza high-tech”, come dichiarato da Patrick Breyer, eurodeputato del Partito Pirata e membro della commissione Libertà civili (Libe).
🇬🇧 #AIAct: EU Parliament approves instruction manual for establishing a high tech surveillance state with real-time #facialrecognition all over Europe.
— Patrick Breyer #JoinMastodon (@echo_pbreyer) March 13, 2024
La società civile ha aspramente criticato il livello di permissività dell’uso del riconoscimento facciale contenuto nell’AI Act. Secondo quanto dichiarato da Access Now, organizzazione no profit focalizzata sui diritti digitali, il diavolo è nei dettagli. La nuova legge sull’intelligenza artificiale è piena di concessioni alle lobby del settore, ma soprattutto di deroghe che permettono l’uso da parte di forze dell’ordine e di autorità di quei sistemi categorizzati come inaccettabili. Per EDRi, rete di ong e accademici che si occupano di diritti digitali, con questo regolamento si crea un pericoloso precedente attraverso un quadro giuridico parallelo per l’uso dell’intelligenza artificiale da parte delle autorità nell’ambito della sicurezza nazionale, ma soprattutto nel controllo dei flussi migratori.
1/5 🚨Today, with @Europarl_EN's final plenary vote, the EU has inched one step closer to the formal adoption of the long-awaited #AIAct.
I divieti sui sistemi di intelligenza artificiale ad alto rischio non si estendono al contesto migratorio, anzi, molti di quelli che vengono già usati nel controllo delle frontiere o nelle gestioni delle domande di asilo non compaiono nell’elenco dei sistemi considerati, appunto, ad alto rischio. Anche la conformità dei database comunitari in materia di migrazioni, l’Eurodac, e il Sistema d’informazione Schengen avranno tempo per conformarsi al regolamento solo nel 2030.
Tutte scappatoie ed eccezioni che danneggeranno i migranti, le comunità etnicamente connotate e quelle emarginate che già sopportano il peso della discriminazione e dell’eccessiva sorveglianza da parte delle autorità.
L’intelligenza artificiale e la digitalizzazione non sono una priorità per i partiti candidati alle europee, tra proposte confuse, dichiarazioni di intenti e programmi che non ne fanno menzione.
Con l’approvazione del Consiglio si è dato il via libera all’AI Act, che diventa ufficialmente la prima legge sull’intelligenza artificiale in vigore al mondo.
Trovato l’accordo tra Parlamento e Consiglio per l’AI Act. Vieta il riconoscimento biometrico e introduce vari limiti ma, secondo le ong, non è abbastanza.
Drogata e stuprata per anni, Gisèle Pelicot ha trasformato il processo sulle violenze che ha subìto in un j’accuse “a una società machista e patriarcale che banalizza lo stupro”.