D.M. 17 dicembre 2025, n. 180 “Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro”

26/01/2026

AI e gestione degli aspetti HSE

Dal documento “Linee guida per l’implementazione dell’IA nel mondo del lavoro”, in allegato al Decreto del Ministero del Lavoro del 17 dicembre 2025, n. 180, emergono diversi profili strettamente rilevanti per la sicurezza e salute nei luoghi di lavoro (SSL) e per la tutela ambientale, che richiederanno alle aziende un presidio attento organizzativo, tecnico e gestionale. Per arricchire la nostra analisi abbiamo confrontato il contenuto delle Linee guida ministeriali con quanto previsto a livello europeo, nell’AI Act di cui al Regolamento (UE) 2024/1689, nelle Linee guida della Commissione europea del 4 febbraio 2025 sulle pratiche vietate in materia di intelligenza artificiale (IA), adottate in attuazione del Regolamento (UE) 2024/1689, e nella legge 23 settembre 2025 n. 132 recante "Disposizioni e deleghe al Governo in materia di intelligenza artificiale".

Di seguito presentiamo una sintesi per aree tematiche, analizzando in particolare i possibili impatti sui temi HSE.

1. Tutela della salute psicofisica dei lavoratori

Aspetto chiave: prevenzione di stress, sorveglianza invasiva e carichi cognitivi impropri.

Le Linee guida richiamano esplicitamente:
 
  • il rischio di “stress da automazione” e di ansia da controllo algoritmico continuo;
  • l’esigenza di evitare che l’IA diventi uno strumento di monitoraggio pervasivo delle prestazioni.
Implicazioni HSE
 
  • Valutazione dei rischi deve includere impatti psicosociali connessi a sistemi IA (organizzazione del lavoro, ritmi, KPI automatizzati).
  • Necessità di coinvolgimento di RSPP, MC e HR nelle scelte di implementazione.
  • Attenzione a sistemi che “indirettamente” incidono su carichi di lavoro, pause, obiettivi, performance.

2. Supervisione umana e affidabilità delle decisioni su sicurezza

Aspetto chiave: l’IA come supporto, non sostituto del giudizio tecnico.

Il documento insiste sul principio di:
 
  • supervisione umana significativa;
  • divieto di delega automatica di decisioni che incidono su persone.
Implicazioni HSE
 
  • Sistemi IA usati per analisi di rischi, segnalazione condizioni pericolose, manutenzione predittiva, gestione emergenze non possono produrre decisioni “automatiche” non validate.
  • Occorre definire chi valida l’output, con quali criteri, con quale tracciabilità.

3. Qualità, sicurezza e governo dei dati HSE

Aspetto chiave: i dati di sicurezza e salute sono spesso dati sensibili o “critici”.

Le Linee guida richiamano:
 
  • minimizzazione dei dati,
  • sicurezza informatica,
  • corretto uso dei dataset.
Implicazioni HSE
 
  • Dati su infortuni, near miss, idoneità, esposizioni, comportamenti operativi devono essere gestiti con regole chiare se trattati da sistemi IA.
  • Evitare riutilizzi impropri, addestramenti non controllati, correlazioni automatiche su singoli lavoratori.
  • Necessità di policy su uso dell’IA generativa in ambito HSE (prompt, anonimizzazione, verifiche).

4. IA, organizzazione del lavoro e prevenzione degli infortuni

Aspetto chiave: l’IA può migliorare la sicurezza, ma anche introdurre nuovi rischi.

Il documento valorizza l’uso dell’IA per:
 
  • monitoraggio ambienti,
  • manutenzione predittiva,
  • riduzione errori umani.
Implicazioni HSE
 
  • Ogni sistema IA che modifica procedure, sequenze operative, priorità di intervento
  • deve essere valutato come “cambiamento organizzativo” ai fini della prevenzione.
  • Aggiornamento di DVR, procedure, formazione e addestramento.

5. Formazione, competenze e “AI literacy” come misura di prevenzione

Aspetto chiave: la competenza è una misura di sicurezza.

Le Linee guida dedicano ampio spazio a:
 
  • formazione,
  • upskilling e reskilling,
  • consapevolezza dei limiti dell’IA.
Implicazioni HSE
 
  • La mancata comprensione degli strumenti IA può diventare fattore di rischio.
  • Serve formazione mirata su uso corretto, limiti, errori tipici (bias, falsi positivi/negativi).
  • L’addestramento rientra a pieno titolo nelle misure di prevenzione.

6. Tutela ambientale e sostenibilità

Aspetto chiave: IA come leva di ottimizzazione, ma da governare.

Il documento collega l’IA a:
 
  • ottimizzazione energetica,
  • riduzione sprechi,
  • supporto alla transizione green.
Implicazioni ambientali
 
  • I sistemi IA che incidono su consumi, emissioni, gestione rifiuti, supply chain devono essere verificabili e coerenti con SGA e autorizzazioni ambientali.
  • Evitare che l’automazione produca effetti indiretti non valutati (over-ottimizzazione, aumento carichi produttivi).

In sintesi operativa

Per le aziende, le Linee guida implicano che l’IA diventi una nuova “variabile di rischio” da governare, non solo tecnologica ma:
 
  • organizzativa (ruoli, processi, decisioni),
  • tecnica (affidabilità, dati, cybersecurity),
  • gestionale (formazione, audit, miglioramento continuo).
Nel perimetro HSE, l’IA va trattata come strumento di supporto alla prevenzione, mai come sostituto del giudizio tecnico e della responsabilità umana.

7. Governance, audit e responsabilità

Aspetto chiave: dimostrare il controllo.

Le Linee guida insistono su:
 
  • governance strutturata,
  • audit periodici,
  • canali di segnalazione.
Implicazioni HSE
 
  • Necessità di mappare i casi d’uso IA rilevanti per sicurezza e ambiente, integrarli nei sistemi di gestione (ISO 45001 – ISO 14001), garantire tracciabilità e riesame.
  • Rilevanza anche in ottica whistleblowing per usi impropri dell’IA.
Area Legale