Il 10 ottobre 2025 è entrata in vigore la nuova Legge 132/2025, recante “Disposizioni e deleghe al governo in materia di intelligenza artificiale”. Questa legge introduce un primo quadro normativo nazionale sullo sviluppo e l’utilizzo delle nuove tecnologie “intelligenti”, andandosi ad inserire nel solco della regolamentazione già tracciata a livello europeo con il c.d. AI-Act (Reg. UE 2024/1689).
Il presente approfondimento compie una panoramica delle principali novità intervenute e del loro ambito applicativo, prestando particolare attenzione alle possibili criticità – in termini di attuazione, governance e responsabilità – che ne deriveranno in capo alle imprese.
- Uno sguardo d’insieme: il contesto normativo europeo e nazionale
L’Italia, con la L. 132/2025, ha inteso dare attuazione a quanto già previsto a livello più generale dall’AI Act europeo, secondo un approccio che si ispira, dunque, ai principi fondamentali dettati da tale provvedimento.
Come noto, il Regolamento EU 2024/1689, entrato in vigore il 1° agosto 2024, fissa un quadro armonizzato per la regolamentazione dello sviluppo e dell’utilizzo dei sistemi di IA all’interno dell’Unione Europea, fungendo da cornice normativa entro cui gli Stati membri dovranno collocare le proprie discipline nazionali. Esso si snoda secondo un approccio basato sul rischio (Risk Based Approach), ossia attraverso la previsione di una serie di obblighi e divieti in capo a produttori ed utilizzatori (di trasparenza, governance, accountability e sicurezza) diversamente scanditi in base al grado di rischio inoculato da ciascuna tipologia di sistema intelligente (sistemi vietati, sistemi ad alto rischio, sistemi a rischio minimo).
In tale contesto si inserisce la L. 132/2025 che, nel dichiarato intento di non introdurre obblighi ulteriori rispetto a quanto già previsto a livello europeo, ha introdotto un impianto normativo armonizzato che mira a combinare la necessità di garantire lo sviluppo delle nuove tecnologie con l’esigenza di tutela dei diritti fondamentali della persona.
- Principi generali e principali novità
L’intervento nazionale si fonda su alcuni principi cardine alla stregua di quanto già emerso a livello europeo:
- centralità della persona e dei diritti fondamentali;
- approccio fondato sul rischio con obblighi di trasparenza e tracciabilità dei sistemi di IA;
- responsabilità dell’uomo nelle decisioni automatizzate;
- sicurezza degli algoritmi e non discriminazione.
La nuova legge pone quindi l’accento sullo sviluppo e l’utilizzo dell’IA in modo sicuro e responsabile, promuovendo un approccio “antropocentrico”.
Quanto alle novità introdotte, accanto ad una serie di deleghe nei confronti del governo per l’emanazione dei decreti attuativi dei principi generali previsti nella Legge, vi sono previsioni cui le organizzazioni private e pubbliche sono chiamate ad adeguarsi sin da subito (in materia di lavoro, pubblica amministrazione e diritto d’autore). Vengono inoltre introdotte diverse norme sul fronte penalistico, tutte incentrate sull’introduzione di nuove aggravanti (per i casi di utilizzo di sistemi intelligenti ai fini della commissione del reato) e di nuove fattispecie di illecito (tra cui, in particolare, l’art. 612-quater sul c.d. deep fake), che tuttavia esulano dal tema del presente articolo.
2.1 In materia di lavoro (art. 11).
Nel contesto lavorativo, la legge impone l’obbligo al datore di lavoro di informare il lavoratore circa l’utilizzo di sistemi di IA, modificando le informative privacy ed aggiornando, eventualmente, le valutazioni DPIA. Si consideri, inoltre, che gli “strumenti di IA” usati nella gestione del personale generano implicazioni anche ai sensi dello Statuto dei lavoratori (L. 300/1970).
In particolare, il datore di lavoro che utilizzi sistemi di intelligenza artificiale per la gestione dell’impresa e del personale dovrà modificare le proprie informative privacy ed il registro del trattamento dati. Se poi il trattamento dei dati del personale è stato oggetto di valutazione di impatto (DPIA), anche tale valutazione andrà aggiornata.
2.2 Per i professionisti (art. 13).
Innovazioni rilevanti riguardano anche i professionisti (come avvocati, commercialisti e consulenti del lavoro): l’uso dell’IA da parte di tali soggetti deve essere trasparente e finalizzato unicamente a supportare il giudizio umano e non già a sostituirlo.
Il cliente deve essere adeguatamente informato circa l’utilizzo di sistemi automatizzati, con indicazione specifica delle finalità e dei limiti. Inoltre, l’adozione di tali sistemi deve adeguarsi ai principi di responsabilità e proporzionalità, evitando che l’IA influenzi indebitamente le decisioni professionali e che ne venga minato il rapporto fiduciario.
In caso di danni derivanti dall’utilizzo improprio dell’IA, la responsabilità è da ricercare in capo al professionista, che sarà chiamato a giustificare le proprie determinazioni.
Si impongono, infine, obblighi formativi per i professionisti, in modo da garantire una comprensione adeguata delle tecnologie utilizzate e dei rischi che vi sono collegati.
2.3 Pubblica Amministrazione (art. 14).
L’articolo 14 stabilisce che l’IA possa essere utilizzata a supporto dell’azione amministrativa a patto che la decisione finale sia mantenuta in capo al funzionario responsabile.
In caso di decisione algoritmica, restano validi i principi di conoscibilità, non esclusività, non discriminazione già enunciati dalla giurisprudenza del Consiglio di Stato.
Le PA sono inoltre chiamate ad attivare misure tecniche, organizzative e formative, in un contesto in cui è prevista la pubblicazione di linee guida da parte della Agenzia per l’Italia Digitale (AGID).
2.4 Diritto d’autore (art. 25).
La legge interviene anche sul piano del diritto d’autore: protegge le opere dell’ingegno create con l’ausilio di strumenti IA nonché le fonti, introducendo nuove regole per la produzione dei contenuti generati con IA, con impatto significativo sul settore dell’editoria, della produzione di contenuti multimediali e, in generale, sulle imprese creative.
- Implicazioni per le imprese.
Le imprese che sviluppano o utilizzano nei loro processi sistemi di IA dovranno adottare un approccio di governance proattiva, che includa:
- mappatura e valutazione dei sistemi IA in uso, con adeguata analisi dei rischi;
- procedure di trasparenza e informativa verso dipendenti, clienti e Stakeholders;
- puntuale definizione di ruoli e responsabilità interne, per assicurare che il controllo umano resti centrale nei processi decisionali;
- formazione mirata su etica, sicurezza e uso responsabile dell’IA;
In prospettiva, la capacità delle imprese di integrare l’intelligenza artificiale in modo conforme e trasparente diventerà un fattore competitivo e reputazionale decisivo. Chi saprà anticipare il nuovo scenario normativo sarà avvantaggiato nel dialogo con autorità di vigilanza, clienti e partner commerciali.
ADR Firm è a disposizione delle imprese clienti per assisterle nello sviluppo di modelli virtuosi di governance, in vista della piena conformità al nuovo quadro normativo che si va delineando.

