Normativa europea sull’Intelligenza Artificiale

Condividi questo articolo

L’AI Act è il primo quadro giuridico in assoluto sull’intelligenza artificiale, che affronta i rischi dell’intelligenza artificiale e posiziona l’Europa in modo da svolgere un ruolo di primo piano a livello mondiale.

L’ AI Act (Regolamento (UE) 2024/1689 che stabilisce norme armonizzate sull’intelligenza artificiale) è il primo quadro giuridico completo sull’IA a livello mondiale. L’obiettivo delle norme è promuovere un’IA affidabile in Europa.

L’AI Act stabilisce un insieme chiaro di regole basate sul rischio per gli sviluppatori e gli utilizzatori di IA in merito a specifici utilizzi dell’IA. L’AI Act fa parte di un pacchetto più ampio di misure politiche a sostegno dello sviluppo di un’IA affidabile, che include anche il  Pacchetto Innovazione per l’IA , il lancio di AI Factories  e il Piano Coordinato sull’IA. Insieme, queste misure garantiscono la sicurezza, i diritti fondamentali e un’IA incentrata sull’uomo, e rafforzano l’adozione, gli investimenti e l’innovazione nell’IA in tutta l’UE.

Per agevolare la transizione al nuovo quadro normativo, la Commissione ha lanciato l’AI Pact , un’iniziativa volontaria che mira a sostenere la futura attuazione, a coinvolgere le parti interessate e a invitare i fornitori e gli operatori di intelligenza artificiale in Europa e nel mondo a conformarsi in anticipo agli obblighi fondamentali della legge sull’intelligenza artificiale.

Perché abbiamo bisogno di regole sull’intelligenza artificiale?
L’AI Act garantisce che gli europei possano fidarsi di ciò che l’IA ha da offrire. Mentre la maggior parte dei sistemi di IA presenta rischi limitati o nulli e può contribuire a risolvere molte sfide sociali, alcuni sistemi di IA presentano rischi che dobbiamo affrontare per evitare risultati indesiderati.

Ad esempio, spesso non è possibile scoprire perché un sistema di intelligenza artificiale abbia preso una decisione o una previsione e intrapreso una determinata azione. Pertanto, potrebbe diventare difficile valutare se qualcuno sia stato ingiustamente svantaggiato, ad esempio in una decisione di assunzione o in una domanda di ammissione a un programma di assistenza pubblica.

Sebbene la legislazione vigente fornisca una certa tutela, non è sufficiente ad affrontare le sfide specifiche che i sistemi di intelligenza artificiale possono presentare.

Un approccio basato sul rischio
L’AI Act definisce 4 livelli di rischio per i sistemi di intelligenza artificiale:

Rischio inaccettabile
Tutti i sistemi di intelligenza artificiale considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone sono vietati. L’AI Act proibisce otto pratiche, ovvero:

  1. manipolazione e inganno dannosi basati sull’intelligenza artificiale
  2. sfruttamento dannoso delle vulnerabilità basato sull’intelligenza artificiale
  3. punteggio sociale
  4. Valutazione o previsione del rischio di reato individuale
  5. scraping non mirato di materiale Internet o CCTV per creare o espandere database di riconoscimento facciale
  6. riconoscimento delle emozioni nei luoghi di lavoro e negli istituti scolastici
  7. categorizzazione biometrica per dedurre determinate caratteristiche protette
  8. identificazione biometrica remota in tempo reale per scopi di applicazione della legge in spazi accessibili al pubblico

Alto rischio
I casi d’uso dell’IA che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali sono classificati come ad alto rischio. Questi casi d’uso ad alto rischio includono:

  • Componenti di sicurezza dell’IA nelle infrastrutture critiche (ad esempio i trasporti), il cui guasto potrebbe mettere a rischio la vita e la salute dei cittadini
  • Soluzioni di intelligenza artificiale utilizzate negli istituti scolastici, che possono determinare l’accesso all’istruzione e il corso della vita professionale di una persona (ad esempio, la valutazione degli esami)
  • Componenti di sicurezza dei prodotti basati sull’intelligenza artificiale (ad esempio applicazione dell’intelligenza artificiale nella chirurgia assistita da robot)
  • Strumenti di intelligenza artificiale per l’occupazione, la gestione dei lavoratori e l’accesso al lavoro autonomo (ad esempio software di ordinamento dei CV per il reclutamento)
  • Alcuni casi d’uso dell’intelligenza artificiale sono utilizzati per dare accesso a servizi privati ​​e pubblici essenziali (ad esempio, il punteggio di credito nega ai cittadini l’opportunità di ottenere un prestito)
  • Sistemi di intelligenza artificiale utilizzati per l’identificazione biometrica a distanza, il riconoscimento delle emozioni e la categorizzazione biometrica (ad esempio, un sistema di intelligenza artificiale per identificare retroattivamente un taccheggiatore)
  • Casi d’uso dell’intelligenza artificiale nelle forze dell’ordine che potrebbero interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove)
  • Casi d’uso dell’intelligenza artificiale nella gestione delle migrazioni, dell’asilo e del controllo delle frontiere (ad esempio, esame automatizzato delle domande di visto)
  • Soluzioni di intelligenza artificiale utilizzate nell’amministrazione della giustizia e nei processi democratici (ad esempio soluzioni di intelligenza artificiale per preparare le sentenze dei tribunali)

I sistemi di intelligenza artificiale ad alto rischio sono soggetti a obblighi rigorosi prima di poter essere immessi sul mercato:

  • sistemi adeguati di valutazione e mitigazione del rischio
  • elevata qualità dei set di dati che alimentano il sistema per ridurre al minimo i rischi di risultati discriminatori
  • registrazione delle attività per garantire la tracciabilità dei risultati
  • documentazione dettagliata che fornisce tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità possano valutarne la conformità
  • informazioni chiare e adeguate al distributore
  • misure appropriate di controllo umano
  • elevato livello di robustezza, sicurezza informatica e accuratezza

Rischio limitato
Ciò si riferisce ai rischi associati alla necessità di trasparenza nell’uso dell’IA. L’AI Act introduce specifici obblighi di informativa per garantire che gli esseri umani siano informati quando necessario per preservare la fiducia. Ad esempio, quando si utilizzano sistemi di IA come i chatbot, gli esseri umani dovrebbero essere consapevoli di interagire con una macchina, in modo da poter prendere una decisione informata.

Inoltre, i fornitori di IA generativa devono garantire che i contenuti generati dall’IA siano identificabili. Inoltre, alcuni contenuti generati dall’IA dovrebbero essere etichettati in modo chiaro e visibile, in particolare i deep fake e i testi pubblicati allo scopo di informare il pubblico su questioni di interesse pubblico.

Rischio minimo o nullo
La legge sull’intelligenza artificiale non introduce norme per l’intelligenza artificiale considerata a rischio minimo o nullo. La stragrande maggioranza dei sistemi di intelligenza artificiale attualmente utilizzati nell’UE rientra in questa categoria. Tra queste rientrano applicazioni come videogiochi basati sull’intelligenza artificiale o filtri antispam.

Come funziona tutto questo in pratica per i fornitori di sistemi di intelligenza artificiale ad alto rischio?

Come funziona tutto questo in pratica per i fornitori di sistemi di intelligenza artificiale ad alto rischio?

Una volta che un sistema di intelligenza artificiale è immesso sul mercato, le autorità sono responsabili della sorveglianza del mercato, i distributori garantiscono la supervisione e il monitoraggio umano e i fornitori dispongono di un sistema di monitoraggio post-commercializzazione. Fornitori e distributori segnaleranno anche incidenti gravi e malfunzionamenti.

Una soluzione per l’uso affidabile di grandi modelli di intelligenza artificiale
I modelli di IA general-purpose (GPAI) possono svolgere un’ampia gamma di compiti e stanno diventando la base per molti sistemi di IA nell’UE. Alcuni di questi modelli potrebbero comportare rischi sistemici se molto efficienti o ampiamente utilizzati. Per garantire un’IA sicura e affidabile, la legge sull’IA stabilisce norme per i fornitori di tali modelli. Ciò include norme sulla trasparenza e sul diritto d’autore. Per i modelli che possono comportare rischi sistemici, i fornitori dovrebbero valutare e mitigare tali rischi. Le norme della legge sull’IA relative alla GPAI sono entrate in vigore da agosto 2025.

Supporto alla conformità
Nel luglio 2025, la Commissione ha introdotto 3 strumenti chiave per sostenere lo sviluppo e l’implementazione responsabili dei modelli GPAI:

Le linee guida sulla portata degli obblighi per i fornitori di modelli GPAI chiariscono la portata degli obblighi GPAI previsti dalla legge sull’intelligenza artificiale, aiutando gli attori lungo la catena del valore dell’intelligenza artificiale a comprendere chi deve rispettare tali obblighi.
Il Codice di condotta GPAI è uno strumento di conformità volontaria presentato alla Commissione da esperti indipendenti, che offre una guida pratica per aiutare i fornitori a rispettare i propri obblighi ai sensi dell’AI Act in materia di trasparenza, copyright e sicurezza.
Il modello per la sintesi pubblica del contenuto formativo dei modelli GPAI richiede ai fornitori di fornire una panoramica dei dati utilizzati per addestrare i propri modelli. Ciò include le fonti da cui sono stati ottenuti i dati (compresi ampi set di dati e nomi di dominio principali). Il modello richiede inoltre informazioni sugli aspetti del trattamento dei dati per consentire alle parti con interessi legittimi di esercitare i propri diritti ai sensi del diritto dell’UE.
Questi strumenti sono progettati per funzionare in sinergia. Insieme, forniscono un quadro chiaro e attuabile per i fornitori di modelli GPAI, consentendo loro di conformarsi all’AI Act, riducendo gli oneri amministrativi e promuovendo l’innovazione, salvaguardando al contempo i diritti fondamentali e la fiducia del pubblico.

Governance e attuazione
L’  Ufficio europeo per l’intelligenza artificiale (IA) e le autorità degli Stati membri sono responsabili dell’attuazione, della supervisione e dell’applicazione della legge sull’IA. Il Comitato per l’IA, il Gruppo di esperti scientifici e il Comitato consultivo guidano e forniscono consulenza sulla governance della legge sull’IA. Scopri di più sulla governance e l’applicazione della legge sull’IA.

Cronologia delle domande
La legge sull’intelligenza artificiale è entrata in vigore il 1° agosto 2024 e sarà pienamente applicabile due anni dopo, il 2 agosto 2026, con alcune eccezioni:

  • divieti e obblighi di alfabetizzazione in materia di intelligenza artificiale entrati in vigore dal 2 febbraio 2025
  • le regole di governance e gli obblighi per i modelli GPAI sono diventati applicabili il 2 agosto 2025
  • le norme per i sistemi di intelligenza artificiale ad alto rischio, integrati nei prodotti regolamentati, hanno un periodo di transizione esteso fino al 2 agosto 2027

Sezione di archivio