L’attuazione dell’AI Act entra in una fase più concreta e produce effetti diretti anche sul dibattito italiano su innovazione, Pubblica Amministrazione e servizi pubblici digitali.
La Commissione europea ricorda che il regolamento, entrato in vigore nell’agosto 2024, è il primo quadro normativo organico sull’intelligenza artificiale a livello globale e adotta un approccio basato sul rischio, con obblighi diversi per sistemi vietati, ad alto rischio, trasparenti o a rischio minimo.
Per l’ecosistema nazionale il punto più rilevante è che scuola, sanità e servizi pubblici rientrano tra gli ambiti nei quali alcuni usi dell’IA possono essere classificati come high risk, quindi sottoposti a requisiti stringenti su documentazione, qualità dei dati, supervisione umana, accuratezza e cybersecurity. In parallelo Bruxelles sta preparando ulteriori strumenti di accompagnamento, inclusi codici di condotta e linee guida sulla marcatura dei contenuti generati dall’IA, mentre Parlamento e Consiglio stanno discutendo il pacchetto di semplificazione digitale sull’AI.
Per imprese, amministrazioni e fornitori di tecnologie il messaggio è chiaro: il 2026 non sarà soltanto l’anno dell’adozione sperimentale dell’IA, ma quello in cui diventeranno centrali compliance, tracciabilità e gestione del rischio. Il tema interessa da vicino l’Italia, che deve tradurre in pratica la corsa all’innovazione senza perdere terreno su affidabilità e tutela dei diritti.