Dal 2 agosto 2025 l’Europa ha un nuovo strumento giuridico che segnerà profondamente il mondo digitale: l’AI Act. Si tratta della prima normativa organica sull’intelligenza artificiale, costruita con un approccio antropocentrico che mette al centro diritti e libertà dei cittadini. Non più solo regole tecniche, ma una cornice di valori: dignità umana, trasparenza, tutela della democrazia e protezione della vita privata.
La mappa dei rischi per i sistemi di intelligenza artificiale
Il regolamento classifica le AI in quattro categorie. Sono vietati i sistemi più invasivi, come il riconoscimento facciale non autorizzato, la manipolazione delle persone vulnerabili o il cosiddetto punteggio sociale. Seguono le intelligenze artificiali ad alto rischio, che includono quelle usate in ambito sanitario, lavorativo e finanziario. Poi troviamo i sistemi a rischio limitato, con obblighi ridotti, e infine le AI a uso generale – i modelli linguistici e generativi che utilizziamo ogni giorno. Una novità significativa è la revisione annuale delle regole: ogni anno il regolamento sarà aggiornato per seguire il ritmo dell’innovazione.
Cosa bisogna fare?
Il regolamento stabilisce una serie di obblighi che cambiano a seconda del ruolo ricoperto nella catena di distribuzione. Chi fornisce modelli di intelligenza artificiale deve garantire la qualità dei dati di addestramento, documentare i processi, prevedere un monitoraggio umano e attivare procedure di segnalazione in caso di incidenti. Gli utilizzatori – cioè le aziende che impiegano l’AI nei propri servizi – hanno compiti più semplici ma essenziali: informare l’utente che sta interagendo con una macchina, svolgere un’analisi del rischio e organizzare corsi di alfabetizzazione sull’AI per i dipendenti. Alcune buone pratiche, come il monitoraggio periodico delle risposte dei chatbot o la redazione di una policy aziendale sull’AI, non sono obbligatorie ma possono rafforzare la credibilità e la trasparenza.
Chi deve farlo?
I fornitori – cioè chi sviluppa o reimmette sul mercato sistemi di AI, anche basati su modelli esterni – sono i soggetti con più responsabilità. Per loro il percorso di adeguamento è più complesso e richiede interventi strutturati di compliance. I deployer, cioè gli utilizzatori finali come e-commerce, agenzie di marketing, aziende che integrano chatbot o strumenti basati su AI, hanno un quadro più leggero ma devono comunque rispettare obblighi minimi e dimostrabili. Tutti, senza eccezioni, sono tenuti a garantire trasparenza verso i propri utenti e a formare il personale. Le piccole e medie imprese beneficiano di oneri proporzionati alla loro dimensione, ma non sono esentate dal rispetto delle regole di base.
Il regolamento prevede inoltre una fase transitoria: i modelli già presenti sul mercato prima del 2 agosto 2025 avranno tempo fino al 2027 per adeguarsi, mentre i nuovi dovranno essere conformi da subito. Questo significa che chi immette oggi sul mercato soluzioni basate su AI deve già rispettare integralmente l’AI Act. La lezione è chiara: non aspettare l’ultimo minuto, ma avviare per tempo il percorso di adeguamento, pena il rischio di sanzioni e la perdita di fiducia di clienti e partner.
L’AI Act non rappresenta soltanto una serie di regole, ma una scelta politica che lega innovazione e diritti. Per le imprese italiane si apre ora una fase delicata: programmare la compliance in modo sostenibile, evitando corse finali e puntando a trasformare l’obbligo in un’occasione di crescita. La vera sfida non è solo rispettare la legge, ma dimostrare che innovazione e responsabilità possono convivere e generare valore.
Recap AI Act:
Cosa bisogna fare:
- Garantire la qualità dei dati di addestramento e documentare i processi.
- Attivare procedure di monitoraggio umano e di segnalazione incidenti.
- Informare sempre l’utente quando interagisce con un sistema AI.
- Valutare il livello di rischio del sistema utilizzato.
- Organizzare corsi di alfabetizzazione sull’uso dell’AI per i dipendenti.
- Adottare buone pratiche come policy interne e monitoraggi periodici.
Chi deve farlo:
- Fornitori: chi sviluppa modelli di intelligenza artificiale o li immette sul mercato con il proprio marchio. Obblighi completi di compliance.
- Deployer: aziende e professionisti che utilizzano sistemi di AI (es. e-commerce, agenzie marketing, servizi digitali). Obblighi semplificati ma obbligatori.
- Tutte le imprese: indipendentemente dalla dimensione, devono garantire trasparenza e formazione. Gli oneri sono proporzionati alle risorse disponibili.