Come cambia l’organizzazione del lavoro con l’intelligenza artificiale

organizzazione del lavoro e intelligenza artificiale
foto shutterstock

Quali sono le implicazioni etiche dell’uso dell’Intelligenza Artificiale nell’organizzazione del lavoro? È solo una questione giuridica oppure coinvolge aspetti più complessi?

Una materia in continua evoluzione

L’attenzione verso le implicazioni etiche dell’Intelligenza Artificiale è recente: i primi studi approfonditi risalgono solo al 2017, con i principi di Asilomar. Fino a poco tempo fa, le principali preoccupazioni riguardavano la discriminazione nella gestione del rapporto di lavoro, la tutela dei dati e i limiti del controllo dei lavoratori attraverso algoritmi.

Oggi, con l’uso sempre più diffuso dell’intelligenza artificiale e con una maggiore consapevolezza dei suoi possibili effetti, emergono nuove perplessità. Le sfide non sono solo giuridiche, ma riguardano anche l’organizzazione del lavoro, i comportamenti delle persone e il ruolo che l’AI sta assumendo in azienda (e non solo).

Intelligenza artificiale e Bias: quando i pregiudizi sono all’interno dei dati

Facciamo un esempio concreto: se un sistema di Intelligenza Artificiale viene addestrato con dati influenzati da pregiudizi umani, anche i risultati saranno distorti da questa visione. Si parla tecnicamente di bias coinvolgenti, ad esempio, dati che mettono in evidenza disuguaglianze sociali, etniche e di genere

Un esempio noto è quello della sperimentazione di un sistema di selezione del personale di qualche anno fa che discriminava determinate categorie di soggetti. 

Proprio per questo, il primo principio guida nell’addestramento di un sistema di AI è quello di  selezionare con cura i dati e le informazioni. Tanto che si inizia a parlare anche di “equità algoritmica”, data l’importanza che le decisioni algoritmiche hanno sulla vita delle persone e nel contesto sociale. 

Come l’Intelligenza artificiale può migliorare la sicurezza sul lavoro

Non tutto ha un risvolto negativo.

Se alcuni usi dell’AI sollevano dubbi etici, in altri casi le nuove tecnologie possono portare a miglioramenti concreti, soprattutto nella prevenzione degli infortuni sul lavoro.
Attualmente nel campo della robotica, stanno nascendo nuove soluzioni tecnologiche in grado di prevenire gli infortuni: robot collaborativi, realtà virtuale e dispositivi wearable che monitorano in tempo reale lo stato fisico dei lavoratori e segnalano potenziali pericoli

Secondo l’OIL (Revolutionizing health and safety: the role of AI and digitalization at work), queste innovazioni potrebbero davvero rivoluzionare la prevenzione nei luoghi di lavoro

Gestione del personale con l’AI: quando il controllo diventa occulto

Tuttavia, quando si fa riferimento alla raccolta dei dati ed al monitoraggio dell’attività lavorativa interviene un fattore  di grande rilevanza pratica e soprattutto etica: il possibile controllo occulto sull’attività lavorativa

Parliamo di sistemi utilizzati per la gestione del personale e, in particolare, per assegnare obiettivi, controllare tempi e performance.

Un rapporto dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) – Algorithimic Management in the workplace – mette in luce alcune differenze significative tra Europa e Stati Uniti nell’uso dei sistemi di management algoritmici:

  • in Europa: l’uso dell’AI nella gestione del personale è più regolato, grazie al GDPR e al confronto con le parti sociali. 
  • negli Stati Uniti: invece, questi strumenti si stanno diffondendo con meno vincoli e tutele per i lavoratori.

Tecnologie e lavoro: come trovare il giusto equilibrio

Le differenze mettono in luce le implicazioni dirette sulla raccolta dei dati dei lavoratori e sulle loro condizioni di lavoro. Questo mostra quanto sia urgente trovare un equilibrio tra innovazione tecnologica e tutela dei diritti delle persone

La necessità di identificare principi guida fondamentali non riguarda solo l’organizzazione del lavoro e sta guidando da tempo lo sviluppo della legislazione europea, che si riflette poi sulle regole interne ad ogni Stato.

Le nuove tecnologie coinvolgono aspetti tecnici, aspetti giuridici e aspetti sociali che si intrecciano tra loro – secondo un approccio risk based – del quali è necessario tenere conto in quella fondamentale operazione di adeguamento della struttura delle organizzazioni ai mutamenti imposti dall’evoluzione tecnologica. 

L’Intelligenza artificiale spinge l’Europa a creare nuove regole

L’AI Act (Regolamento UE n. 2024/1689) è stato tra i provvedimenti europei più discussi degli ultimi mesi. Si tratta infatti di uno dei primi quadri normativi sull’uso dell’intelligenza artificiale in Europa.

Ma non è l’unico. L’AI Act fa parte di un sistema di regole più ampio che l’Unione Europea sta costruendo per rendere le attività economiche e sociali più responsabili in tutti gli Stati membri.

Le regole europee riguardano temi molto diversi, ma collegati tra loro: 

  • la protezione dei dati 
  • tutela dei consumatori
  • diritti fondamentali disciplinati dal Trattato UE
  • l’occupazione e protezione dei lavoratori
  • la sicurezza dei prodotti e il rispetto della vita privata e familiare

Le nuove regole europee per proteggere il lavoro e i lavoratori

In questo contesto, con l’obiettivo di tutelare l’organizzazione del lavoro, l’Unione Europea ha introdotto regole sempre più specifiche. Tra queste troviamo:

  • la Direttiva sul lavoro attraverso piattaforma – Direttiva 2024/2831 UE 
  • la normativa in materia di trasparenza nell’ambito del rapporto di lavoro – Direttiva 2022/1152 UE (attuata in Italia con il D.Lgs. n. 104/2022) 
  • la Direttiva 2019/1158 (attuata in Italia con il D.Lgs. n. 105/2022), relativa all’equilibrio tra attività professionale e vita familiare
  • la Direttiva 2023/970 sulla parità salariale che punta a colmare il divario retributivo tra uomini e donne, attraverso trasparenza degli stipendi e strumenti di verifica efficaci.

 Per non parlare della Corporate Sustainability Due Diligence Directive (CSDDD) che, con un focus sui diritti umani, introduce obblighi di adeguamento dei codici etici.

I 7 principi etici per un’intelligenza artificiale affidabile

Tutte queste norme si ispirano a un quadro di riferimento comune: i principi etici sull’Intelligenza Artificiale, elaborati nel 2019 dal gruppo di esperti europei AI HLEG (High-Level Expert Group on AI). L’AI HLEG è un organismo indipendente nominato dalla Commissione europea con l’incarico di fornire consulenza sulla strategia europea in materia di Intelligenza Artificiale. 

Questo organismo ha elaborato sette principi etici non vincolanti con lo scopo di costruire e utilizzare l’AI in modo affidabile ed etico.

Essi comprendono: 

  1. intervento e sorveglianza umani; 
  2. robustezza tecnica e sicurezza; 
  3. vita privata e governance dei dati; 
  4. trasparenza, 
  5. diversità̀, non discriminazione ed equità; 
  6. benessere sociale e ambientale; 
  7. responsabilità̀. 

Etica e AI: un punto di partenza, non di arrivo

I principi etici sono un importante punto di partenza per l’adozione e l’implementazione degli strumenti di IA.Ma servono azioni concrete per colmare il divario tra la teoria e la realtà: il mondo degli algoritmi evolve in fretta e comporta rischi sociali e giuridici.

Serve consapevolezza, responsabilità e un lavoro costante per far sì che l’AI sia uno strumento al servizio delle persone e non un fattore di esclusione o ingiustizia.

Leggi anche:

In che modo la tecnologia influisce sul lavoro?

Il ruolo del digital mindset nell’innovazione tecnologica e nell’inclusione

Editoriali di approfondimento sui tanti temi che riguardano il lavoro di domani, scritti in esclusiva per noi da grandi professionisti, manager, AD, influencer e Linkedin top voice.

Scopri di più