5 min

AI Act e modello UK: panoramica e differenze

AI in Contract Management

Scopri la firma elettronica di Yousign

Prova gratuitamente per 14 giorni la nostra soluzione di firma elettronica sicura, conforme e facile da usare.

Con la crescita della potenza e degli ambiti di applicazione dell'intelligenza artificiale, le spinte alla regolamentazione sono diventate, negli scorsi anni, sempre più forti. Mentre l'Unione Europea, in linea con quanto già fatto con il GDPR, ha scelto di offrire un framework chiaro all'interno del quale le aziende possono operare, altri paesi, come il Regno Unito, hanno preferito lasciare maggiore libertà alle imprese, favorendo uno sviluppo libero (ma non privo di rischi) della tecnologia.

Dato che si tratta di un tema che interessa moltissime aziende italiane, soprattutto le startup innovative, abbiamo analizzato il regolamento europeo e quello britannico per scoprirne le differenze più cruciali e le principali implicazioni per le imprese che operano con sistemi di intelligenza artificiale.

Sintesi in breve:

  • AI Act (Reg. UE 2024/1689) : entrato parzialmente in vigore ad agosto 2024, sarà pienamente applicabile dal 2 agosto 2026. Armonizza le normative sull'IA nei paesi UE.
  • Approccio basato sul rischio : i sistemi di intelligenza artificiale sono classificati in tre categorie (alto rischio, pratiche vietate, altri sistemi) con obblighi proporzionati al livello di rischio.
  • Obblighi per le aziende : mapping dei sistemi IA, formazione del personale, conformità GDPR e copyright, governance strutturata, monitoraggio continuo e gestione incidenti.
  • Modello UK pro-innovazione : nessun regolamento vincolante generale, ma guidance settoriali e AI Growth Lab (sandbox regolatoria) per accelerare la ricerca in settori strategici.
  • Differenza chiave : l'UE privilegia la protezione dei diritti fondamentali e dei dati personali, il Regno Unito favorisce la libertà d'innovazione con regole più flessibili per settore.

Panoramica dell'AI Act

Entrato parzialmente in vigore ad agosto di quest'anno e destinato ad essere pienamente applicabile a partire dal 2 agosto 2026, l'AI Act (Reg. UE 2024/1689, anche noto come The EU Artificial Intelligence Act) è un regolamento europeo di ampia portata che ha come obiettivo l'armonizzazione delle normative relative all'intelligenza artificiale nei diversi paesi dell'Unione Europea.

Inizialmente proposto dalla Commissione Europea nel 2021, ha avuto un iter di redazione e approvazione complesso che riflette la complessità di questo momento storico in relazione all'impiego delle nuove tecnologie. Approvato dal Parlamento Europeo, l'AI Act adotta un approccio basato sul rischio che mira a bilanciare innovazione e protezione dei diritti fondamentali e della privacy dei dati personali.

In Italia, il DDL 1146/2024, che costituisce l'integrazione italiana all'AI Act, è stato approvato dal Senato, e ora il governo ha tempo fino a marzo 2026 per adottare un decreto legge di recepimento della normativa europea.

Le tre categorie di sistemi di intelligenza artificiale secondo l'AI Act

L'AI Act si estende su tutte le applicazioni di IA con l'eccezione di quelle militari, suddividendole in tre categorie:

  • Sistemi ad alto rischio: sono considerati ad alto rischio tutti quei sistemi che possono rappresentare una minaccia ai diritti, alla salute e alla sicurezza degli individui. Questi includono applicazioni nei settori dell'istruzione, dell'occupazione, dei servizi pubblici essenziali e dell'applicazione della legge.
  • Pratiche vietate: rientrano in questa categoria le applicazioni che possono causare danni, sia fisici che psicologici, alle persone tramite lo sfruttamento delle loro fragilità, la manipolazione, l'applicazione di "social scoring" utilizzati a scopo punitivo, o l'identificazione biometrica indiscriminata nei luoghi pubblici ad opera delle forze dell'ordine.
  • Altri sistemi: questo grande insieme include tutte le pratiche che non rientrano nelle categorie precedenti, e che per questo non sono oggetto di regolamentazione specifica.

Attenzione

Le aziende che non si conformano all'AI Act rischiano sanzioni fino a 35 milioni di euro o al 7% del fatturato globale annuo, a seconda di quale importo sia più elevato. È fondamentale avviare subito un audit dei sistemi di intelligenza artificiale in uso.

Gli obblighi per le aziende

L'approccio dei legislatori europei è stato quindi "risk-based", imponendo maggiori regole laddove ci sono maggiori rischi. Tuttavia, alcuni obblighi ricadono su tutte le aziende e organizzazioni che impieghino l'intelligenza artificiale:

  • Mapping e valutazione del rischio: la normativa stabilisce l'obbligo per le aziende di mappare tutte le applicazioni di IA che impiega e classificarle sulla base del loro livello di rischio. Laddove sono presenti pratiche rischiose o vietate secondo l'AI Act, l'azienda deve intervenire per garantirsi la conformità. La digitalizzazione degli archivi e la gestione documentale strutturata diventano quindi essenziali.
  • Formazione per gli utenti: sia le aziende fornitrici che quelle utilizzatrici dei sistemi di intelligenza artificiale devono assicurare la formazione del personale, dei partner e di chiunque altro interagisca con essi. La formazione deve essere documentata a scopi di audit, e deve includere temi quali machine learning, normative vigenti, bias, problemi etici.
  • Copyright e GDPR: le aziende devono accertarsi che il loro uso dell'IA sia in linea con il GDPR per quanto riguarda il trattamento dei dati personali e la protezione dei dati. Devono inoltre verificare che sia rispettato il diritto d'autore nell'utilizzo dei dati che ne sono coperti.
  • Quadro di governance: è necessario che le imprese stabiliscano un quadro di governance per l'impiego dell'intelligenza artificiale sia tra i dipendenti che tra i fornitori e i collaboratori esterni, a partire da un team che riunisca tutti gli stakeholder (dall'ufficio IT a quello legale, passando per gestione del rischio, conformità e via dicendo).
  • Cicli di revisione e monitoraggio continuo: le buone pratiche implementate devono essere periodicamente riviste in linea con le evoluzioni della tecnologia e della normativa. Inoltre, il monitoraggio continuo deve attivare subito gli interventi in caso di anomalie o incidenti (quest'ultimi vanno subito comunicati anche alle autorità competenti).
  • Attenzione all'intelligenza artificiale generativa: lo sviluppo e l'integrazione di strumenti di intelligenza artificiale generativa devono andare di pari passo con una documentazione trasparente sui dati di training e sul modello. In particolare, vanno prese misure per evitare l'insorgenza di contenuti illeciti o abusi, attraverso l'impiego di policy di moderazione, filtri e altre misure. Occorre inoltre registrarsi nel database europeo dei sistemi di intelligenza artificiale. Anche i modelli di IA generativa già sul mercato alla data del 2 agosto 2025 dovranno avviare un processo di adattamento alle nuove normative, raggiungendo la piena conformità entro il 2027.

Buono a sapersi

L'AI Act prevede un periodo transitorio durante il quale le aziende possono adeguarsi progressivamente. I sistemi ad alto rischio già sul mercato prima dell'entrata in vigore hanno tempo fino al 2027 per conformarsi completamente agli obblighi del regolamento europeo.

Le proposte di normativa sull'IA nel Regno Unito

Nel tentativo di allinearsi maggiormente con l'amministrazione statunitense, il Regno Unito non ha al momento adottato una normativa di ampio respiro come quella UE. Esistono tuttavia dei documenti di guidance (l'AI Playbook, l'AI Regulation White Paper) e una proposta di legge che dovrebbe essere approvata nei prossimi mesi. Tutti elementi che ci permettono di tracciare i principi del modello UK:

  • Focus sull'innovazione: invece di regolamentazione stringente, il governo britannico privilegia un approccio che lascia ampia libertà all'innovazione, in linea con le analoghe iniziative statunitensi. L'obiettivo è rendere il Regno Unito un hub globale per lo sviluppo dell'IA.
  • Forte spinta al settore: il governo britannico ha emesso grossi finanziamenti per spingere all'adozione e all'uso dell'IA, e nel 2021 ha reso pubblica la sua strategia per rendere il Paese un nuovo hub globale di sviluppo dell'intelligenza artificiale.
  • AI Growth Lab: durante il Times Tech Summit di ottobre 2024, il governo britannico ha svelato la proposta di quella che appare come una sandbox istituzionale, all'interno della quale le aziende potrebbero fare ricerca e sperimentare le loro applicazioni di intelligenza artificiale beneficiando di leggi e regolamenti più rilassati. Un modo per accelerare l'avanzamento della tecnologia in un momento storico in cui è in pieno svolgimento una corsa tra potenze per mettersi alla testa dell'innovazione. Inizialmente questi ambienti di ricerca e test saranno aperti a settori ritenuti particolarmente strategici, come industria, sanità e trasporti.
  • Regolamentazioni specifiche per settore: invece di una normativa generale, il Regno Unito procede verso un sistema "a collage", per cui ogni Ministero ed ente regolamenterà l'IA nel suo ambito sulla base di alcuni principi generali stabiliti nell'AI Playbook.

Confronto tra AI Act e modello britannico

Appare evidente che la maggiore differenza tra l'AI Act e le proposte che stanno emergendo dal governo britannico è di approccio: se l'Unione Europea ha adottato un approccio basato sul rischio, ponendo al centro la valutazione dei potenziali pericoli delle applicazioni di IA e la loro limitazione, il modello britannico è decisamente più morbido e basato su principi di guidance invece che su obblighi vincolanti.

Tabella comparativa: AI Act vs Modello UK

Criteri

AI Act (UE)

Modello UK

Approccio

Basato sul rischio

Pro-innovazione

Normativa

Regolamento vincolante (Reg. UE 2024/1689)

Guidance settoriali non vincolanti

Classificazione sistemi

3 categorie (alto rischio, vietati, altri)

Non prevista

Obblighi aziende

Mapping, formazione, conformità GDPR, governance, audit

Volontari, definiti per settore

Sanzioni

Fino a 35M€ o 7% fatturato globale

Variabili secondo l'autorità di settore

AI Growth Lab

Non previsto

Sì (sandbox regolatoria per settori strategici)

Protezione diritti

Focus su diritti fondamentali e dati personali

Lasciato alle autorità settoriali

La scelta fatta dal Regno Unito può dunque apparire decisamente morbida nei confronti delle imprese, ponendo l'imperativo dell'innovazione prima delle regole. Un'impronta politica che pare aver attraversato indenne i diversi governi, testimoniando di una volontà strategica che va al di là delle logiche di partito e che ha a che fare con la posizione che il Paese vuole assumere nel mercato digitale. Con un'economia che fatica a riprendere il decollo dopo il divorzio dall'Europa, l'UK sembra voler puntare su un approccio pienamente favorevole alle imprese che si dedicano a ricerca e sviluppo nell'ambito complesso dei sistemi di intelligenza artificiale.

L'Unione Europea, per suo conto, ha invece preferito, come ha già fatto in passato con la legge sulla privacy, stabilire dei confini chiari all'interno dei quali l'innovazione può svilupparsi senza il rischio che questa prevalichi sui diritti.

Importante

Le aziende italiane che collaborano con partner britannici devono prestare particolare attenzione: mentre i sistemi utilizzati in Europa devono conformarsi all'AI Act, quelli sviluppati nel Regno Unito potrebbero seguire standard diversi. È essenziale verificare la conformità dei fornitori di tecnologie IA in fase di selezione dei contratti.

Conformità AI Act: il ruolo della firma elettronica nella gestione documentale

Le aziende che sviluppano o utilizzano sistemi di intelligenza artificiale devono gestire una quantità importante di documentazione per garantire la conformità all'AI Act: contratti con fornitori di IA, accordi di protezione dati, registri di valutazione del rischio, documenti di formazione del personale, audit trail per dimostrare la conformità.

La soluzione di firma elettronica Yousign (Youtrust) supporta le imprese innovative nella gestione di questi processi critici:

  • Automatizza la firma dei contratti con fornitori di tecnologie IA e accordi di partnership
  • Garantisce la conformità GDPR richiesta dall'AI Act per il trattamento dei dati personali
  • Crea audit trail certificati per dimostrare la conformità in caso di controllo dalle autorità
  • Accelera l'onboarding di collaboratori esterni che lavorano su progetti IA con massima sicurezza

La nostra piattaforma è progettata per le startup innovative e le aziende tecnologiche che vogliono scalare rapidamente garantendo al contempo cybersicurezza e conformità normativa.

Gestisci la conformità all'AI Act con firma elettronica sicura

FAQ

  • Quali sono i principali obiettivi del regolamento europeo sull'intelligenza artificiale (Artificial Intelligence Act o AI Act)?

    I principali obiettivi dell'AI Act sono fornire un quadro normativo armonizzato basato sul rischio per lo sviluppo delle applicazioni di intelligenza artificiale nell'Unione Europea, proteggere i diritti fondamentali dei cittadini e i dati personali, e garantire che i sistemi ad alto rischio rispettino standard elevati di sicurezza e trasparenza.

  • In che modo l'approccio dell'Europa differisce da quello britannico?

    L'approccio dell'Unione Europea è basato sul rischio e prevede un regolamento vincolante (Reg. UE 2024/1689) con obblighi chiari e sanzioni fino a 35 milioni di euro. Il modello del Regno Unito, invece, è pro-innovazione: non prevede un regolamento generale vincolante ma guidance settoriali e l'AI Growth Lab, una sandbox regolatoria per accelerare la ricerca in settori strategici.

  • Quali sono le implicazioni dell'AI Act per le imprese che operano in Europa?

    Le aziende che operano nell'Unione Europea (Italia inclusa) sono sottoposte a una serie di obblighi nell'utilizzo e sviluppo delle applicazioni di IA: valutazione del rischio, formazione documentata del personale, conformità GDPR e copyright, governance strutturata, monitoraggio continuo e gestione degli incidenti con comunicazione alle autorità competenti.

  • Quali sono le sanzioni previste dall'AI Act per le aziende non conformi?

    Le sanzioni possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo dell'azienda, a seconda di quale importo sia più elevato. Le violazioni più gravi riguardano l'utilizzo di pratiche vietate o la mancata conformità per i sistemi ad alto rischio.

     

  • Le PMI italiane sono soggette agli stessi obblighi delle grandi imprese?

    Sì, l'AI Act si applica a tutte le aziende che sviluppano o utilizzano sistemi di intelligenza artificiale nell'UE, indipendentemente dalla dimensione. Tuttavia, le PMI e le startup innovative possono beneficiare di supporto specifico attraverso i regulatory sandbox e misure di accompagnamento previste dal regolamento europeo per facilitare l'adozione delle nuove norme.

Supporta la tua impresa con la firma elettronica versatile e conforme

Provala gratis per 14 giorni

Scopri la firma elettronica gratuita di Yousign

Prova Yousign gratuitamente
per 14 giorni

Unisciti a oltre 30.000 aziende europee e affidati a Yousign per firmare e verificare i tuoi documenti.

cta illustration