Regolamento sull’Intelligenza Artificiale in UE: Accordo provvisorio
22/01/2024
Raggiunto agli inizi di dicembre 2023 un primo accordo provvisorio tra Consiglio e Parlamento UE sulla proposta di regole armonizzate in materia di intelligenza artificiale (IA). Dal mese di gennaio seguiranno incontri di livello tecnico per definire i dettagli del testo e portarlo all’approvazione dei rappresentanti degli Stati membri (Coreper). La pubblicazione in GUUE è attesa nelle prossime settimane.
Di fatto è un primo Regolamento a livello mondiale che contempla un sistema di regole da modulare in base alla valutazione di impatto dei sistemi di intelligenza artificiale e agli ambiti di relativa applicazione, ambiti da cui resterebbero esclusi la sicurezza nazionale, le applicazioni militari o di difesa, i sistemi di IA utilizzati a scopo di ricerca e innovazione.
Entrerà in piena attuazione a due anni dalla pubblicazione in GUUE.
Prevista una classificazione dei sistemi di IA in:
- Rischio limitato, soggetti ad obblighi di informazione nei confronti degli utilizzatori (quali la dichiarazione che il contenuto dell’artefatto è stato generato dall’intelligenza artificiale in modo che gli utenti possano prendere decisioni informate circa il loro utilizzo); tra questi sistemi sono compresi ad es. i chatbot (programmi informatici progettati per simulare una conversazione umana, vocale o scritta, attraverso l'uso di intelligenza artificiale (IA), spesso integrati in piattaforme di messaggistica istantanea, siti web o applicazioni per offrire assistenza, rispondere a domande comuni, eseguire compiti specifici o interagire con gli utenti).
- Alto Rischio, soggetti a specifici requisiti tecnici che dovranno essere tracciati attraverso apposita documentazione per garantire la qualità dei dati e delle prestazioni e soggetti alla precisa definizione e assegnazione di ruoli e responsabilità tra gli attori della catena di valore che ne ha premesso la realizzazione, la distribuzione e l’utilizzo; in questi sistemi di IA sono compresi quelli dedicati a trasporti e logistica, valutazione di esami, assunzioni, concessione di prestiti.
- Rischio inaccettabile, con conseguente divieto di utilizzazione e commercializzazione nell’UE. All’interno di questa categoria sono compresi sistemi di IA che permetterebbero la manipolazione comportamentale cognitiva, lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso (cioè la pratica di raccogliere o estrarre immagini facciali da varie fonti online o da sistemi di videosorveglianza senza uno scopo specifico o un’autorizzazione esplicita), il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, e alcuni strumenti di polizia predittiva per le persone. Il Regolamento prevede tuttavia eccezioni all’uso di sistemi di identificazione biometrica per azioni di pubblica sicurezza a contrasto di minacce reali presenti o prevedibili come attacchi terroristici o ricerca di persone sospettate di gravi reati.
E’ stato inoltre istituito un Ufficio per l’IA all’interno della Commissione, affiancato da un Comitato tecnico di esperti, con scopi di supervisione delle capacità dei modelli di IA più avanzati e dei relativi impatti e di diffusione di norme e corrette pratiche operative. Previsto anche un forum consultivo per i portatori di interesse aperto a rappresentanti dell’industria, PMI e start-up, società civile e mondo accademico.
Disposto un apparato sanzionatorio per violazioni a disposizioni contenute nel Regolamento (basato alternativamente su una percentuale del fatturato annuo globale relativo all’esercizio finanziario precedente della società che ha commesso l’illecito oppure su sanzioni predeterminate in ragione della gravità delle violazioni) ma anche misure di sostegno all’innovazione e degli investimenti pubblici e privati europei, per un migliore coordinamento e il rafforzamento di reti e la sinergie tra i centri di ricerca europei e la più chiara ed oggettiva classificazione di sistemi di intelligenza artificiale (in particolare per quelli ad alto Rischio).
Area Legale