Uno dei settori sui quali si concentra l’AI Act è quello dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo, nel quale è sempre più diffuso l’utilizzo di sistemi di workforce analytics e di algorithmmic management. Vediamo quali sono i riferimenti dell’AI Act al mondo del diritto del lavoro.  

Un primo riferimento all’ambito della gestione dei lavoratori si trova già tra i sistemi vietati. Rientrano infatti tra i sistemi a rischio inaccettabile, e sono quindi vietati a decorrere dal 2 febbraio 2025, i sistemi di riconoscimento delle emozioni sui luoghi di lavoro (ad eccezione dei sistemi che riconosco il dolore o la fatica per motivi medici o di sicurezza, come quelli che rilevano il livello di stanchezza dei piloti o dei guidatori per prevenire incidenti), oltre ai sistemi di categorizzazione biometrica che deducono caratteristiche come razza, opinioni politiche, appartenenza sindacale.


Sono invece individuati nell’Allegato III come sistemi ad alto rischio – e quindi soggetti alla valutazione di conformità e agli stringenti obblighi previsti per questa categoria – i sistemi di AI usati nel settore dell’occupazione, gestione dei lavoratori e accesso al lavoro autonomo e nello specifico i sistemi di AI usati per l’assunzione o la selezione di persone fisiche (per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati) e i sistemi di AI usati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione e cessazione dei rapporti, per assegnare compiti e per monitorare e valutare le prestazioni.


Come riportato nei considerando dell’AI Act si tratta di sistemi che possono avere un impatto significativo sui diritti e sulle prospettive di carriera dei lavoratori e con riferimento ai quali sussistono rischi di discriminazione, derivanti da modelli storici (ad esempio nei confronti di donne, persone con disabilità, alcune fasce di età…). Tali sistemi sono quindi soggetti ad obblighi non solo in capo al fornitore, ma anche in capo al datore di lavoro che agisce quale deployer.


In qualità di deployer, il datore di lavoro deve cioè adottare misure tecniche e organizzative per garantire di utilizzare i sistemi conformemente alle istruzioni per l’uso ricevute dal fornitore e per garantire la trasparenza del sistema e attuare la sorveglianza umana attraverso una persona dotata di competenza, preparazione e poteri necessari (e quindi sospendere l’uso del sistema in caso di accertato rischio). Il datore di lavoro-deployer deve inoltre informare i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di AI ad alto rischio.


La disciplina di cui sopra si integra ovviamente con la già vigente disciplina in materia di protezione dei dati personali di cui al Regolamento 679/2016 (GDPR) nel caso in cui il software utilizzi dati personali dei dipendenti, oltre che con la normativa nazionale applicabile. Rilevano in particolare in questo ambito le previsioni di cui all’art. 1 bis del d.lgs 152/1997 in materia di obblighi di trasparenza nell’utilizzo di sistemi decisionali o di monitoraggio automatizzati.