Il presente contributo non coinvolge l’amministrazione di appartenenza ed è frutto esclusivo del pensiero dell’autore

Negli ultimi anni, il mondo del lavoro ha subito una trasformazione senza precedenti. L'innovazione portata dalle tecnologie digitali, insieme alla crescente disponibilità di dati, ha aperto la strada a modelli produttivi che sono profondamente diversi da quelli a cui eravamo abituati. In questo contesto, l'intelligenza artificiale (AI) si distingue come uno dei principali fattori di cambiamento, capace non solo di modificare le modalità operative, ma anche di influenzare l'organizzazione aziendale, la gestione delle risorse umane e, soprattutto, le strategie per la prevenzione e la sicurezza dei lavoratori. Con l'emergere di nuovi rischi, nuove forme di attività ed un aumento delle interazioni tra uomo e macchina, la gestione della sicurezza sul lavoro diventa fondamentale. Se utilizzata nel modo giusto, l'AI può diventare uno strumento chiave per prevenire incidenti, monitorare situazioni critiche e ridurre l'esposizione a pericoli fisici e organizzativi.

L’impatto dell’intelligenza artificiale sul mondo del lavoro

Oggi, collaborare con l’intelligenza artificiale è fondamentale per sfruttarne appieno il potenziale. L’IA è ormai ovunque, ma la sua diffusione ha creato una contraddizione evidente: molte aziende adottano tecnologie di IA generativa senza però percepirne un valore reale.

L'idea di "delegare il nostro carico mentale" a strumenti esterni non è però nuova. Socrate, già secoli fa, esprimeva timori sull’uso dell’alfabeto, temendo che riducesse la nostra capacità di memorizzare e pensare in modo autonomo.

Nonostante l’entusiasmo, un’indagine recente ha rilevato che il 95% delle aziende non ha visto ritorni misurabili sugli investimenti fatti in IA. Allora, perché tanto fermento con pochi risultati concreti? La risposta, secondo ChatGPT, sta nel fatto che spesso l'IA viene vista come un semplice "gadget" e non come un vero processo di apprendimento. Se utilizzata in modo superficiale, invece di generare valore, rischia di produrre contenuti di bassa qualità, che poi devono essere corretti o riformulati da altri, creando inefficienze.

Questo fenomeno, definito "workslop", è evidente anche sui social, invasi da contenuti generati automaticamente e definiti "AI slop", ossia "spazzatura IA". Il rischio è che, in ambito professionale, l’automazione non solo non semplifichi il lavoro, ma sposti l’onere dal creatore al destinatario, che si trova a dover correggere o reinterpretare contenuti incompleti. Il risultato? Un rallentamento dei flussi di lavoro e, soprattutto, un costo relazionale: chi invia contenuti di bassa qualità può essere percepito come meno competente, minando la fiducia e la collaborazione.

Sicurezza sul lavoro nell’era dell’AI

La sicurezza è una delle sfide principali in questa trasformazione. Tradizionalmente, la prevenzione si basa su tre pilastri: analisi del rischio, formazione dei lavoratori e attuazione di misure tecniche e organizzative.

Con l'introduzione dell'IA, a questi pilastri si aggiungono nuovi strumenti in grado di: prevedere situazioni pericolose prima che si verifichino, monitorare costantemente gli ambienti e i lavoratori, e intervenire autonomamente per prevenire incidenti.

Tuttavia, accanto ai benefici, emergono anche rischi legati alla complessità tecnologica, alla possibile mancanza di trasparenza degli algoritmi e alla nuova distribuzione delle responsabilità. È essenziale integrare gli effetti preventivi dell'intelligenza artificiale in ogni settore merceologico e di servizi, distinguendo le diverse fasi di ciascuna attività, come quelle predittive e valutative. Più un processo lavorativo è caratterizzato da operazioni automatizzate, standardizzate e ripetitive, più l'impatto dell'intelligenza artificiale diventerà profondo e pervasivo.

I sistemi possono analizzare milioni di dati provenienti da sensori ambientali, dispositivi indossabili, macchinari connessi e storici degli incidenti e grazie a queste informazioni, gli algoritmi sono in grado di identificare schemi ricorrenti e prevedere situazioni di rischio, come sovraccarichi delle macchine, anomalie di temperatura o pressione, posture pericolose mantenute dai lavoratori e affaticamento fisico o cognitivo.

Il coordinamento della sicurezza sul lavoro applicato tramite l'IA può migliorare la prevenzione dei rischi attraverso proprio un'analisi predittiva, il monitoraggio in tempo reale e l'automazione dei processi. Questa capacità di previsione consente di pianificare interventi tempestivi, riducendo drasticamente il rischio di incidenti.

I robot collaborativi, o cobot, rappresentano una delle applicazioni più affascinanti dell'AI. A differenza dei robot tradizionali, che operano in aree isolate, i cobot sono progettati per lavorare fianco a fianco con gli esseri umani, supportando attività fisicamente impegnative o ad alto rischio, come la movimentazione manuale dei carichi, operazioni ripetitive in catena di montaggio e lavori in ambienti contaminati o insalubri. Se programmati e monitorati correttamente, questi robot riducono l'esposizione diretta dei lavoratori ai pericoli e aiutano a diminuire gli infortuni muscoloscheletrici.

Tuttavia, l'interazione tra uomo e robot introduce nuovi rischi legati a improvvise variazioni nel comportamento del robot, errori software e incomprensioni delle logiche di funzionamento da parte dei lavoratori. Pertanto, la formazione sulla robotica avanzata diventa un elemento essenziale per garantire la sicurezza moderna. L'interazione di AI e IoT, ovvero reti di dispositivi intelligenti, offre ai lavoratori strumenti avanzati per monitorare parametri vitali, posture, esposizione a sostanze pericolose, cadute o impatti improvvisi. Caschi intelligenti, tute dotate di sensori e smartwatch industriali forniscono dati in tempo reale, permettendo interventi rapidi in caso di anomalie. Il principale vantaggio è la possibilità di ottenere una maggiore tracciabilità delle attività, segnalazioni tempestive, riduzione dei tempi di reazione in situazioni di emergenza e un miglioramento dei piani di evacuazione e soccorso.

Tuttavia, sorgono anche questioni etiche e legali riguardanti la protezione della privacy, la gestione dei dati personali e la trasparenza dei sistemi. Un dilemma giuridico importante è legato al fatto che l'uso dell'IA implica la raccolta e l'elaborazione di dati sensibili, sollevando preoccupazioni sulla privacy, soprattutto se il sistema non è progettato per rispettare le normative sulla protezione dei dati, come il GDPR. Gli strumenti IoT, in particolare i DPI intelligenti possono essere considerati come strumenti di controllo che necessitano di autorizzazione o di un accordo sindacale (art. 4 comma 1 Legge 300/70), oppure come strumenti di lavoro che non richiedono procedure autorizzative (art. 4 comma 2 L. 300/70)? Ecco questo è un vero dilemma e l’onere della qualificazione spetta al datore di lavoro in fase di contenzioso. Immaginiamo ancora se, per esempio, il Documento di Valutazione dei Rischi (DVR), redatto secondo l'art. 29, c.1 e 28 c.1 e art. 17 T.U.81/08, fosse redatto dall’AI: in questo caso emergerebbero sia opportunità che sfide. I vantaggi includerebbero, ad esempio, una maggiore efficienza e rapidità, poiché l'IA potrebbe semplificare e velocizzare il processo di redazione del DVR, analizzando una grande quantità di dati in tempi brevi. Questo ridurrebbe notevolmente il carico di lavoro umano, risparmiando tempo e risorse. Inoltre, ci sarebbe più coerenza e uniformità, garantendo una valutazione dei rischi standardizzata, priva di errori o dimenticanze.

Inoltre, l'IA potrebbe essere sempre aggiornata sulle normative più recenti, garantendo una conformità costante. Inoltre, grazie a capacità predittive, utilizzando modelli di analisi avanzata, l'IA sarebbe in grado di individuare potenziali rischi prima che si manifestino, prevedendo scenari di pericolo che potrebbero non essere immediatamente visibili a un esperto umano. Tuttavia, ci sono anche rischi e limiti da considerare, come la mancanza di giudizio contestuale. Anche se l'IA è brava ad analizzare grandi volumi di dati, potrebbe non cogliere le sfumature specifiche di un ambiente di lavoro o le dinamiche interpersonali. La valutazione dei rischi richiede spesso una comprensione profonda delle situazioni e un'intuizione che va oltre i numeri. Inoltre, emerge una questione fondamentale riguardo alla gestione della responsabilità e all'affidabilità del documento stesso: se l'IA commettesse un errore nella valutazione dei rischi o suggerisse misure inadeguate, chi ne sarebbe responsabile? Questo potrebbe sollevare questioni legali complesse, specialmente in un contesto in cui la sicurezza dei lavoratori è in gioco.

Anche se l'intelligenza artificiale può essere uno strumento potente, l'intervento umano rimane fondamentale. Un esperto in sicurezza sul lavoro deve sempre verificare il DVR prodotto dall'IA, per assicurarsi che rispecchi le realtà specifiche dell'azienda e che tutte le variabili siano prese in considerazione. L'IA può sicuramente accelerare e ottimizzare il processo, ma non può sostituire l'esperienza e il giudizio che solo un professionista del settore può fornire. Col passare del tempo, l'uso dell'IA potrebbe portare a una valutazione dei rischi sempre più su misura, adattata alle esigenze specifiche di ogni settore o ambiente di lavoro. Tuttavia, è fondamentale trovare un giusto equilibrio tra automazione e controllo umano, per evitare che un'eccessiva dipendenza dalla tecnologia possa farci perdere di vista le peculiarità del contesto. In sintesi, l'IA può essere un valido alleato nella redazione del DVR, ma non può mai sostituire il tocco umano. La soluzione migliore sarebbe un approccio misto, in cui l'IA offre supporto nell'analisi e nell'elaborazione dei dati, mentre gli esperti di sicurezza sul lavoro validano, personalizzano e prendono le decisioni finali. In questo modo, l'intelligenza artificiale può diventare uno strumento potente per garantire la sicurezza sul lavoro, senza compromettere la qualità della valutazione.

Integrare l'IA nel Modello di Organizzazione e Gestione (MOG) per la Sicurezza sul Lavoro può essere invece utile? Il MOG, introdotto dal Decreto Legislativo 231/2001, mira a prevenire e gestire i rischi aziendali e il perfezionamento del modello con l’IA può migliorare significativamente la sicurezza sul lavoro. Abbiamo già detto come l'IA consente di analizzare dati in tempo reale per identificare rischi potenziali, come anomalie nelle condizioni ambientali (qualità dell’aria, temperatura, ecc.) o comportamenti non sicuri, permettendo interventi tempestivi e come l'uso di sensori IoT e simulazioni immersive supporta il monitoraggio delle condizioni di sicurezza e la formazione del personale senza rischi. L’IA integrando il MOG può così subito richiedere l’aggiornamento in tempo reale del DVR e migliorare la gestione complessiva della sicurezza. Monitorando il comportamento dei lavoratori, l’IA rileva eventuali violazioni delle normative di sicurezza, come l'uso scorretto dei dispositivi di protezione individuale (DPI) molto più incisivamente rispetto alla vigilanza del preposto e così rendendo più efficace il sistema di gestione delle segnalazioni previsto nei MOG. Tuttavia, l’adozione dell’IA nei MOG comporta le sfide di cui sopra. In sintesi, l’integrazione dell’IA nel MOG offre enormi potenzialità per migliorare la sicurezza sul lavoro, ma richiede una gestione attenta dei dati, delle risorse e del cambiamento tecnologico.

L'IA nei processi produttivi ha assunto un'importanza notevole anche ai fini giuridici del diritto del lavoro nelle aule di tribunale. Una recente sentenza del Tribunale di Roma (sentenza n. 9135 del 19 novembre 2025) ha stabilito che il licenziamento per giustificato motivo oggettivo (GMO come novellato dal Job Act) è pienamente legittimo quando le mansioni di un dipendente vengono eliminate a causa di una riorganizzazione aziendale dovuta a una crisi economico-finanziaria, anche se le funzioni residue vengono assorbite da sistemi di intelligenza artificiale. Questa sentenza rappresenta un passo significativo nell'evoluzione delle dinamiche lavorative, evidenziando come l'automazione e l'adozione di tecnologie avanzate come l'IA stiano cambiando il modo in cui gestiamo il personale e le condizioni per eventuali licenziamenti, in un contesto in cui l'automazione sostituisce alcune funzioni precedentemente svolte dai dipendenti.

Rischi emergenti: tra tecnologia, organizzazione e responsabilità.

I rischi che l’IA porta con se toccano anche la sfera psicologica e organizzativa. L'iper-digitalizzazione può causare un aumento del carico cognitivo, la necessità di monitorare costantemente indicatori e dashboard, una sensazione di sorveglianza continua e ansia da prestazione nei confronti delle macchine. Tutti questi fattori rientrano nei cosiddetti "rischi psicosociali", che stanno diventando sempre più comuni in ambienti altamente automatizzati.

Nonostante i progressi, gli algoritmi non sono infallibili: possono verificarsi vari errori (classificazione, interpretazioni, malfunzionamenti) ed in un contesto lavorativo, un errore predittivo può avere conseguenze significative se utilizzato come base per decisioni operative o di sicurezza. E da qui l’interrogativo chiave su chi sia il responsabile: il datore di lavoro, i programmatori, il fornitore del software, e quale sia il livello di supervisione umana necessario. La normativa dovrà adattarsi per definire chiaramente i confini della responsabilità in caso di incidenti legati all'uso dell'AI.

Perché l'AI diventi un alleato della sicurezza, è fondamentale adottare un approccio integrato che coinvolga: governance aziendale, formazione continua, dialogo tra ingegneri, RSPP, lavoratori e sindacati, e una cultura della prevenzione che si basi su etica e sostenibilità.

Da considerare a questo punto, però, un aspetto peculiare in quanto l’entusiasmo per l’IA ha creato terreno fertile per sofisticate truffe che già nel 2024 hanno causato perdite enormi. Le truffe nell’educazione AI rappresentano una minaccia multimiliardaria che evolve rapidamente insieme alla tecnologia. La chiave per la protezione risiede nel mantenere scetticismo, condurre ricerche approfondite e riconoscere che l’educazione AI legittima richiede tempo, sforzo e istruzione qualificata.

Con l’avanzare della tecnologia AI, devono evolversi anche i metodi per rilevare e prevenire il suo uso improprio nelle frodi educative. La vigilanza costante e l’educazione del consumatore rimangono la prima linea di difesa contro queste sofisticate truffe che minacciano l’integrità dell’educazione tecnologica.

*Ispettore del lavoro in servizio presso INL