AI Act: norme per sistemi ad alto rischio rinviate al 2027

robot ai act

L’applicazione dell’AI ACT (la legge europea sull’intelligenza) per i per i sistemi ad “alto rischio” è stata posticipata di 16 mesi

La Commissione europea ha infatti annunciato che le regole per i sistemi di intelligenza artificiale considerati “ad alto rischioentreranno in vigore a dicembre 2027, e non più nell’agosto 2026 come inizialmente previsto. 

Questa decisione, parte del pacchetto legislativo “Digital Omnibus“, è stata presa per concedere più tempo alle aziende e agli Stati membri dell’Unione Europea per adeguarsi a una normativa complessa e innovativa.

Cos’è l’AI Act e cosa prevede (in breve)

La legge classifica i sistemi di IA in 4 categorie di rischio.

  • Rischio inaccettabile: Sistemi che rappresentano una chiara minaccia per la sicurezza e i diritti delle persone. Saranno vietati a partire da febbraio 2025. Tra questi rientrano, ad esempio, le tecnologie che manipolano il comportamento umano o i database di riconoscimento facciale creati tramite scraping da internet.
  • Rischio alto: Tecnologie utilizzate in settori critici come la sanità, le infrastrutture, la gestione delle risorse umane (ad esempio, analisi dei curriculum) o la valutazione del credito. Questi sistemi sono soggetti a requisiti molto severi.
  • Rischio limitato: Sistemi come i chatbot, che devono rispettare obblighi minimi di trasparenza, informando gli utenti che stanno interagendo con una macchina.
  • Rischio minimo: La grande maggioranza delle applicazioni di IA, come i filtri antispam o i videogiochi, che non richiedono normative aggiuntive.

Le aziende che sviluppano o utilizzano sistemi ad alto rischio devono garantire una supervisione umana, dimostrare la qualità dei dati usati per l’addestramento dell’algoritmo e sottoporsi a rigorose valutazioni di conformità.

Perché l’AI Act è stato rinviato al 2027

La decisione di posticipare di oltre un anno l’applicazione delle norme per i sistemi ad alto rischio non è stata improvvisa. 

Le cause principali sono 2.

  1. Ritardi degli Stati membri: Molti Paesi dell’UE non hanno ancora recepito la legislazione nei tempi previsti. Per applicare l’AI Act, ogni Stato deve istituire autorità nazionali competenti e organismi di valutazione, un processo che sta richiedendo più tempo del previsto.
  2. Pressioni delle aziende: Numerose imprese, incluse le Big Tech, hanno richiesto più tempo per adattarsi a regole che giudicano particolarmente complesse. La conformità richiede investimenti significativi e l’adeguamento di processi interni, come la creazione di comitati di governance sull’IA.

La Commissione europea ha quindi optato per un approccio pragmatico, inserendo il rinvio nel pacchetto “Digital Omnibus”, pensato per semplificare e armonizzare la rete di norme digitali dell’Unione. 

L’obiettivo è evitare che l’Europa resti indietro nello sviluppo dell’intelligenza artificiale, dando al contempo alle aziende il tempo necessario per implementare correttamente le nuove disposizioni.

Approfondimento: Gazzetta ufficiale dell’Unione europea