Con il nuovo accordo politico provvisorio raggiunto il 7 maggio 2026 tra Parlamento europeo e Consiglio nell’ambito del cosiddetto Omnibus VII, l’UE vieta i “nudifier”, le app basate sull’AI che simulano immagini sessualmente esplicite senza consenso, ma nello stesso tempo rinvia e alleggerisce alcune delle disposizioni più incisive dell’AI Act.
Misure altamente simboliche e facilmente comunicabili sul piano mediatico, si fondono con un progressivo ammorbidimento degli obblighi destinati ai sistemi ad alto rischio, il vero cuore della regolazione europea dell’intelligenza artificiale.
La narrazione ufficiale parla di “semplificazione”, riduzione degli oneri e sostegno alla competitività europea. Dietro il lessico tecnocratico emerge in realtà un cambiamento molto più profondo: l’Unione europea sembra passare da una governance dell’AI fondata sui diritti fondamentali a una governance sempre più condizionata dalla competizione geopolitica, dalle esigenze industriali e dalla pressione americana sul fronte tecnologico.
Sebbene, dopo anni di negoziati, sia politicamente difficile mettere in discussione un regolamento divenuto simbolo dell’ambizione normativa europea, il rischio reale è che l’AI Act venga progressivamente svuotato dall’interno attraverso rinvii, deroghe, eccezioni e reinterpretazioni motivate dalla necessità di “non frenare l’innovazione”.
Ed è proprio questo che il nuovo compromesso sembra anticipare.
L’Omnibus VII e la nuova stagione della semplificazione europea
L’intesa raggiunta tra Consiglio e Parlamento si inserisce all’interno della più ampia agenda europea sulla semplificazione normativa. La Commissione ha infatti presentato negli ultimi mesi una lunga serie di pacchetti “Omnibus” destinati a ridurre obblighi amministrativi, compliance e reporting burden in diversi settori strategici: sostenibilità, digitale, difesa, automotive, agricoltura e industria.
La linea politica è ormai esplicita: dopo i rapporti Letta e Draghi sulla competitività europea e dopo la dichiarazione di Budapest del novembre 2024, Bruxelles ha adottato come sua priorità la costruzione di un quadro regolatorio “chiaro, semplice e smart” per le imprese europee. L’obiettivo dichiarato è evitare che l’eccessiva complessità normativa penalizzi la capacità industriale dell’Unione rispetto a Stati Uniti e Cina.
Nel comunicato del Consiglio UE il compromesso sull’AI Act viene presentato proprio come uno strumento per “ridurre i costi amministrativi ricorrenti”, rafforzare la “sovranità digitale europea” e garantire un’applicazione “più armonizzata” delle regole nel mercato unico.
Il problema è che questa nuova fase politica rischia di ridefinire anche la filosofia originaria della regolazione tecnologica europea.
Il nuovo compromesso europeo sull’AI Act
L’intesa modifica alcuni aspetti centrali dell’applicazione dell’AI Act. Il punto più rilevante riguarda il rinvio degli obblighi relativi ai sistemi ad alto rischio.
Secondo il nuovo accordo, gli obblighi per i sistemi AI ad alto rischio entreranno in vigore dal 2 dicembre 2027 per gli use case più sensibili (biometria, infrastrutture critiche, istruzione, occupazione, law enforcement e gestione delle frontiere), mentre per i sistemi utilizzati come componenti di sicurezza incorporati in prodotti regolati dalla normativa settoriale europea la decorrenza slitterà al 2 agosto 2028.
La Commissione aveva inizialmente proposto un rinvio fino a 16 mesi per consentire l’adozione degli standard tecnici necessari e ridurre l’incertezza applicativa; Parlamento e Consiglio hanno mantenuto sostanzialmente questa impostazione, introducendo però un calendario fisso per l’entrata in vigore delle nuove scadenze.
Il testo interviene anche sulla governance del sistema europeo dell’AI. Vengono rafforzati i poteri dell’AI Office per la supervisione dei sistemi basati su modelli general purpose sviluppati dallo stesso provider che realizza il sistema finale, pur lasciando competenze nazionali in settori sensibili come law enforcement, giustizia, gestione delle frontiere e servizi finanziari.
L’accordo reintroduce inoltre l’obbligo di registrazione nel database europeo anche per i provider che ritengano di beneficiare di esenzioni dalla classificazione high-risk, nel tentativo di evitare zone grigie troppo ampie sul piano della trasparenza.
Parallelamente, il compromesso conferma la possibilità di trattare categorie particolari di dati personali per finalità di rilevazione e correzione dei bias algoritmici, ma ripristina il requisito della “stretta necessità”, limitando almeno formalmente l’estensione di questa eccezione.
Le semplificazioni che il mercato chiedeva davvero
Va detto che non tutte le modifiche introdotte dal nuovo accordo europeo sono prive di razionalità tecnica. Una parte delle semplificazioni risponde infatti a criticità concrete emerse durante i primi mesi di implementazione dell’AI Act, soprattutto per quanto riguarda la sovrapposizione tra normative settoriali e nuovi obblighi introdotti dal regolamento sull’intelligenza artificiale.
Particolarmente rilevante è il compromesso raggiunto sull’interazione tra AI Act e legislazione armonizzata di settore (dispositivi medici, macchinari, ascensori, giocattoli, imbarcazioni e altri prodotti industriali). Il nuovo meccanismo consente di limitare l’applicazione delle disposizioni AI nei casi in cui la normativa settoriale contenga già requisiti specifici equivalenti, evitando duplicazioni di compliance.
Per il settore machinery è stato inoltre introdotto un meccanismo volto a limitare l’applicazione diretta di alcune disposizioni dell’AI Act nei casi già coperti dalla regolazione settoriale, con la possibilità per la Commissione di introdurre requisiti specifici tramite atti delegati nell’ambito della regolazione settoriale.
In molti casi le imprese rischiavano infatti di dover affrontare duplicazioni documentali, procedure parallele di conformità e obblighi potenzialmente incoerenti tra loro. La scelta di ridurre le sovrapposizioni può quindi contribuire concretamente a diminuire costi amministrativi e incertezza giuridica, soprattutto per gli operatori industriali europei.
Anche il restringimento della definizione di “safety component” risponde all’esigenza di evitare che semplici funzionalità accessorie basate sull’AI facciano automaticamente scattare il regime dei sistemi ad alto rischio. Se un sistema utilizza algoritmi solo per ottimizzare prestazioni o assistere l’utente senza impatti diretti su salute e sicurezza, l’applicazione integrale degli obblighi previsti dall’AI Act rischiava effettivamente di apparire sproporzionata.
Nello stesso senso si muove l’estensione di alcune esenzioni alle small mid-cap enterprises, nel tentativo di evitare che il peso regolatorio favorisca indirettamente solo i grandi operatori già strutturati sul piano della compliance.
Il compromesso rinvia inoltre al 2 agosto 2027 la creazione dei sandbox regolatori nazionali, strumenti pensati per consentire test controllati dei sistemi AI in collaborazione con le autorità competenti. Anche qui la motivazione ufficiale è garantire maggiore uniformità e preparazione operativa.
L’accordo interviene anche sugli obblighi di trasparenza per i contenuti artificialmente generati. I provider avranno infatti tre mesi di tempo in meno rispetto alla proposta iniziale per…
#Adessonews seleziona nella rete articoli di particolare interesse.
Se vuoi leggere l’articolo completo clicca sul seguente link
Tania Orrù
Source link



