AI ACT o Regolamento sull’Intelligenza Artificiale

Ambito di applicazione

L’AI Act, o Atto sull’Intelligenza Artificiale, è un Regolamento dell’Unione Europea, approvato definitivamente il 13 marzo 2024 che introduce il primo regolamento globale sull’intelligenza artificiale (IA) in Europa che mira a regolamentare l’uso dell’intelligenza artificiale.

I principali punti includono:
 
  • Regolamentazione e Sicurezza: Stabilire norme chiare per garantire che l’IA sia sicura e rispetti i diritti fondamentali.
  • Fiducia e Trasparenza: Assicurare che gli utenti possano fidarsi delle applicazioni IA, richiedendo trasparenza e responsabilità.
  • Innovazione ed Eccellenza: Promuovere l’innovazione e lo sviluppo di tecnologie IA eccellenti nell’UE.
  • Approccio Basato sul Rischio: Classificare le applicazioni IA in base al livello di rischio e applicare requisiti proporzionali.

Stato di avanzamento

  • Definizione e approccio basato sul rischio: L’AI Act incorpora una definizione di sistemi di intelligenza artificiale allineata con quella dell’OECD (Organizzazione per la Cooperazione e lo Sviluppo Economico) e mantiene un approccio basato sul rischio, classificando i sistemi AI in diverse categorie di rischio con regolamenti variabili.
  • La definizione dell’OECD di un sistema di intelligenza artificiale è la seguente: "Un sistema di intelligenza artificiale è un sistema basato su macchine che può, per un insieme di obiettivi definiti dall’uomo, espliciti o impliciti, inferire, dai dati in ingresso che riceve, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici reali o virtuali".
  • Questa definizione mette in evidenza il ruolo fondamentale dei dati in ingresso, che possono essere forniti da esseri umani o macchine, nel funzionamento dei sistemi di intelligenza artificiale
  • Proibizioni e casi ad alto rischio: Estende le proibizioni a una gamma più ampia di pratiche AI e identifica casi d’uso specifici in cui i sistemi AI sono considerati ad alto rischio per la salute, la sicurezza o i diritti fondamentali delle persone. L’approccio del regolamento per i sistemi ad alto rischio mira all’integrazione delle regole nel contesto del “nuovo quadro legislativo” dell’Unione Europea attraverso una serie di punti chiave:
  1. Regolamenti Esistenti: Il testo suggerisce che le nuove regole per l’IA ad alto rischio dovrebbero essere in linea con i regolamenti esistenti come il regolamento (CE) n. 765/2008 (che pone norme in materia di accreditamento e vigilanza del mercato per quanto riguarda la commercializzazione dei prodotti), la decisione n. 768/2008/CE (che definisce chiare responsabilità di produttori, importatori e distributori lungo la catena del prodotto precisando procedure di valutazione della conformità e marcatura) e il regolamento (UE) 2019/1020 (che riguarda la normativa di armonizzazione dei prodotti della UE al fine di contrastare l’immissione di prodotti non conformi).
  2. Applicazione Settoriale: Le regole armonizzate si applicheranno a tutti i settori e non dovrebbero interferire con altre normative dell’Unione Europea.
  3. Complementarità: Il nuovo regolamento sull’IA dovrebbe essere complementare alla legislazione esistente dell’UE, inclusa la protezione dei dati, la tutela dei consumatori, i diritti fondamentali, l’occupazione, la protezione dei lavoratori e la sicurezza dei prodotti.
  4. Questo approccio mira a garantire che i sistemi di IA ad alto rischio siano regolamentati in modo efficace senza compromettere gli standard esistenti in altri ambiti importanti.
  • Trasparenza e rischi limitati: Identifica sistemi AI che presentano rischi limitati, come i deep fake o i contenuti sintetici, che saranno soggetti a requisiti di informazione e trasparenza.
  • Sandbox regolatori e modelli GPAI: Chiede agli stati membri di istituire sandbox regolatori per testare sistemi AI ad alto rischio e fornisce regole specifiche per i modelli di AI di uso generale (GPAI), con eccezioni per i modelli GPAI open source e gratuiti.
  • Alfabetizzazione sui sistemi AI: Si prevede che il comitato europeo per l'intelligenza artificiale sostenga la Commissione UE al fine di promuovere gli strumenti di alfabetizzazione in materia di IA.
  • Adozione e implementazione: Il Parlamento ha approvato l’AI Act nel marzo 2023 e sarà formalmente adottato durante la sessione plenaria di aprile 2024, prima dell’endorsement finale del Consiglio.
  • Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ad eccezione di:
  1. divieti di pratiche vietate, che si applicheranno 6 mesi dopo la data di entrata in vigore;
  2. codici di condotta (9 mesi dopo l'entrata in vigore);
  3. norme generali sull'IA, compresa la governance (12 mesi dopo l'entrata in vigore);
  4. obblighi per i sistemi ad alto rischio, quali quelli sottoposti a procedura di valutazione di conformità da parte di un organismo terzo o quelli che presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone (36 mesi).
Condividi linkedin share facebook share twitter share
Siglacom - Internet Partner