Quali sono le implicazioni etiche dell’uso dell’Intelligenza Artificiale nell’organizzazione del lavoro? È solo una questione giuridica oppure coinvolge aspetti più complessi?
L’attenzione verso le implicazioni etiche dell’Intelligenza Artificiale è recente: i primi studi approfonditi risalgono solo al 2017, con i principi di Asilomar. Fino a poco tempo fa, le principali preoccupazioni riguardavano la discriminazione nella gestione del rapporto di lavoro, la tutela dei dati e i limiti del controllo dei lavoratori attraverso algoritmi.
Oggi, con l’uso sempre più diffuso dell’intelligenza artificiale e con una maggiore consapevolezza dei suoi possibili effetti, emergono nuove perplessità. Le sfide non sono solo giuridiche, ma riguardano anche l’organizzazione del lavoro, i comportamenti delle persone e il ruolo che l’AI sta assumendo in azienda (e non solo).
Facciamo un esempio concreto: se un sistema di Intelligenza Artificiale viene addestrato con dati influenzati da pregiudizi umani, anche i risultati saranno distorti da questa visione. Si parla tecnicamente di bias coinvolgenti, ad esempio, dati che mettono in evidenza disuguaglianze sociali, etniche e di genere.
Un esempio noto è quello della sperimentazione di un sistema di selezione del personale di qualche anno fa che discriminava determinate categorie di soggetti.
Proprio per questo, il primo principio guida nell’addestramento di un sistema di AI è quello di selezionare con cura i dati e le informazioni. Tanto che si inizia a parlare anche di “equità algoritmica”, data l’importanza che le decisioni algoritmiche hanno sulla vita delle persone e nel contesto sociale.
Non tutto ha un risvolto negativo.
Se alcuni usi dell’AI sollevano dubbi etici, in altri casi le nuove tecnologie possono portare a miglioramenti concreti, soprattutto nella prevenzione degli infortuni sul lavoro.
Attualmente nel campo della robotica, stanno nascendo nuove soluzioni tecnologiche in grado di prevenire gli infortuni: robot collaborativi, realtà virtuale e dispositivi wearable che monitorano in tempo reale lo stato fisico dei lavoratori e segnalano potenziali pericoli
Secondo l’OIL (Revolutionizing health and safety: the role of AI and digitalization at work), queste innovazioni potrebbero davvero rivoluzionare la prevenzione nei luoghi di lavoro
Tuttavia, quando si fa riferimento alla raccolta dei dati ed al monitoraggio dell’attività lavorativa interviene un fattore di grande rilevanza pratica e soprattutto etica: il possibile controllo occulto sull’attività lavorativa.
Parliamo di sistemi utilizzati per la gestione del personale e, in particolare, per assegnare obiettivi, controllare tempi e performance.
Un rapporto dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) – Algorithimic Management in the workplace – mette in luce alcune differenze significative tra Europa e Stati Uniti nell’uso dei sistemi di management algoritmici:
Le differenze mettono in luce le implicazioni dirette sulla raccolta dei dati dei lavoratori e sulle loro condizioni di lavoro. Questo mostra quanto sia urgente trovare un equilibrio tra innovazione tecnologica e tutela dei diritti delle persone.
La necessità di identificare principi guida fondamentali non riguarda solo l’organizzazione del lavoro e sta guidando da tempo lo sviluppo della legislazione europea, che si riflette poi sulle regole interne ad ogni Stato.
Le nuove tecnologie coinvolgono aspetti tecnici, aspetti giuridici e aspetti sociali che si intrecciano tra loro – secondo un approccio risk based – del quali è necessario tenere conto in quella fondamentale operazione di adeguamento della struttura delle organizzazioni ai mutamenti imposti dall’evoluzione tecnologica.
L’AI Act (Regolamento UE n. 2024/1689) è stato tra i provvedimenti europei più discussi degli ultimi mesi. Si tratta infatti di uno dei primi quadri normativi sull’uso dell’intelligenza artificiale in Europa.
Ma non è l’unico. L’AI Act fa parte di un sistema di regole più ampio che l’Unione Europea sta costruendo per rendere le attività economiche e sociali più responsabili in tutti gli Stati membri.
Le regole europee riguardano temi molto diversi, ma collegati tra loro:
In questo contesto, con l’obiettivo di tutelare l’organizzazione del lavoro, l’Unione Europea ha introdotto regole sempre più specifiche. Tra queste troviamo:
Per non parlare della Corporate Sustainability Due Diligence Directive (CSDDD) che, con un focus sui diritti umani, introduce obblighi di adeguamento dei codici etici.
Tutte queste norme si ispirano a un quadro di riferimento comune: i principi etici sull’Intelligenza Artificiale, elaborati nel 2019 dal gruppo di esperti europei AI HLEG (High-Level Expert Group on AI). L’AI HLEG è un organismo indipendente nominato dalla Commissione europea con l’incarico di fornire consulenza sulla strategia europea in materia di Intelligenza Artificiale.
Questo organismo ha elaborato sette principi etici non vincolanti con lo scopo di costruire e utilizzare l’AI in modo affidabile ed etico.
Essi comprendono:
I principi etici sono un importante punto di partenza per l’adozione e l’implementazione degli strumenti di IA.Ma servono azioni concrete per colmare il divario tra la teoria e la realtà: il mondo degli algoritmi evolve in fretta e comporta rischi sociali e giuridici.
Serve consapevolezza, responsabilità e un lavoro costante per far sì che l’AI sia uno strumento al servizio delle persone e non un fattore di esclusione o ingiustizia.
Leggi anche:
In che modo la tecnologia influisce sul lavoro?
Il ruolo del digital mindset nell’innovazione tecnologica e nell’inclusione
Editoriali di approfondimento sui tanti temi che riguardano il lavoro di domani, scritti in esclusiva per noi da grandi professionisti, manager, AD, influencer e Linkedin top voice.
Scopri di più