Legge italiana sull’IA 2025: cosa prevede e perché conta

7 Ott 2025 | Etica, Intelligenza Artificiale

Legge italiana sull’Intelligenza Artificiale (L. 132/2025): sintesi, impatti e nodi aperti

È stata pubblicata la Legge 23 settembre 2025, n. 132, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, in vigore dal 10 ottobre 2025. La legge fissa principi generali per un’IA trasparente e affidabile, allineata al Regolamento (UE) 2024/1689 (AI Act), e delega il Governo ad adottare entro 12 mesi i decreti legislativi attuativi.

Punti chiave (in 5 bullet)

  • Principi e allineamento UE: approccio antropocentrico, tutela dei diritti, trasparenza e coerenza con l’AI Act.
  • Deleghe al Governo: entro 12 mesi regole su uso di dati e algoritmi per addestrare e impiegare sistemi di IA.
  • Governance nazionale: designazione di autorità competenti (tra cui ACN e AgID) e comitato di coordinamento.
  • Lavoro e professioni: uso dell’IA per migliorare condizioni e sicurezza, informativa ai lavoratori, divieto di discriminazioni; nell’attività professionale l’IA è strumento di supporto.
  • Profili penali e tutela dalle manipolazioni: nuove fattispecie/aggiornamenti (es. deepfake) e aggravanti quando i reati sono commessi tramite IA.

Perché è importante per l’Italia

La legge fornisce un quadro organico e coerente con l’UE, riducendo incertezze normative e favorendo investimenti in innovazione responsabile. Definisce ruoli e responsabilità istituzionali, promuove sicurezza, qualità e accountability dei sistemi, sostiene la competitività del Paese e la tutela dei diritti fondamentali.

Perché riguarda tutti

L’IA incide su servizi pubblici, salute, educazione, lavoro, informazione. La legge tutela privacy e non discriminazione, rafforza la sicurezza dei sistemi usati ogni giorno e contrasta abusi come i deepfake, aumentando la fiducia di cittadini e imprese nell’adozione di tecnologie intelligenti.

A quali domande risponde la legge

Chi controlla i sistemi di IA e con quali poteri?

Individua autorità nazionali con compiti di vigilanza, ispezione, notifica e promozione di casi d’uso sicuri, coordinati da un apposito comitato.

In quali settori e con quali limiti si può usare l’IA?

Applicazione trasversale (sanità, PA, giustizia, lavoro, formazione, sport) nel rispetto di trasparenza, sicurezza, protezione dati e divieto di discriminazioni.

Come si tutelano le persone dagli effetti negativi dell’IA?

Previste garanzie su informazione e controllo umano nei processi decisionali rilevanti, presìdi di privacy e misure penali per manipolazioni e abusi.

Come conciliare sviluppo tecnologico ed etica?

Si fissano principi e si delegano standard tecnici e procedure a decreti attuativi, per accompagnare l’innovazione con regole chiare e verificabili.

Vantaggi per lo sviluppo etico dell’IA

  • Chiarezza di principi: orienta progettazione e adozione di soluzioni “ethical by design”.
  • Allineamento con l’AI Act: evita arbitraggi regolatori e armonizza requisiti in tutta l’UE.
  • Monitoraggio pubblico: autorità e osservatori favoriscono prevenzione e correzione delle derive.
  • Formazione e cultura: impulso a competenze diffuse su uso responsabile e consapevole dell’IA.
  • Ambiente pro-innovazione: regole prevedibili aumentano fiducia di mercato e investimenti.

Tre criticità etiche a cui la legge non risponde pienamente

1) Responsabilità civile e standard tecnici ancora da definire

Molti aspetti operativi (metriche di trasparenza/spiegabilità, audit dei bias, riparto delle responsabilità per danni) sono rinviati ai decreti: finché non arriveranno, l’accountability resta parziale.

2) Attuazione senza risorse dedicate

L’estensione dei compiti a più autorità senza chiari stanziamenti rischia di rallentare controlli, assistenza alle PMI e alfabetizzazione, riducendo l’efficacia pratica delle tutele.

3) Governance complessa e approccio “minimalista”

Molti attori e competenze possono creare sovrapposizioni; l’assenza di requisiti nazionali aggiuntivi in settori sensibili (es. sanità e scuola) potrebbe non cogliere specificità italiane.


La Legge 132/2025 è un tassello strategico: offre cornice, principi e ruoli per un’IA affidabile e centrata sulla persona, allineata all’Europa. Il vero banco di prova saranno i decreti attuativi e la capacità di renderli operativi con tempi certi, risorse adeguate e coordinamento efficace tra le autorità. Nell’immediato, imprese, PA e professionisti possono già trarne una roadmap chiara: mappare gli usi di IA, valutare rischi, predisporre informative e controlli umani, formare il personale. Prepararsi ora significa accelerare l’adozione di soluzioni innovative che producano valore, senza sacrificare diritti, trasparenza e fiducia.

L’Autore
Luigi Resta, esperto di tecnologia e comunicazione, autore del libro “Pensiero Umano, Intelligenza Artificiale”. Da anni mi occupo del rapporto tra uomo e tecnologia, con un’attenzione particolare al valore dell’intelligenza umana nell’era digitale.

Se rappresenti un’azienda, una scuola o un progetto culturale in linea con i temi che affronto, possiamo collaborare. Scrivimi

Altri articoli