Per un’etica dell’intelligenza artificiale: quali principi guida?

etica dell'intelligenza artificiale
(foto Shutterstock)

Per poter parlare di etica dell’intelligenza artificiale è necessario considerare che il nuovo AI Act è solo il punto di partenza e non il punto di arrivo

Affrontare i problemi etici dell’intelligenza artificiale è un compito particolarmente complesso che studiosi, organizzazioni e istituzioni hanno già iniziato ad affrontare da molti anni, già dagli albori di questa tecnologia (Floridi, 2022).

L’esigenza di definire alcuni fondamentali principi etici ha iniziato a farsi più pressante a partire dal 2017, considerata anche l’estensione e la pervasività delle tecnologie che sfruttano l’intelligenza artificiale nell’ambito di sempre più ampie attività, anche della quotidianità: nell’industria, nel commercio, nella logistica, nella comunicazione, nell’istruzione e nella formazione professionale, nelle attività professionali, nell’intrattenimento. 

Negli ultimi anni hanno iniziato a emergere alcuni rischi etici derivanti dall’uso di tecnologie che integrano sistemi fondati sull’intelligenza artificiale. 

Etica dell’intelligenza artificiale: complessità funzionali e implicazioni giuridiche

Da un punto di vista prettamente giuridico sono emersi ad esempio alcuni rischi connessi al sorgere di forme di discriminazione o di pregiudizio involontario (come l’esclusione di alcuni gruppi, generi o categorie di soggetti dagli output e feedback derivanti dall’uso di tecnologie avanzate in campo sanitario, di selezione del personale, di consumo), così come rischi di violazione della privacy e della tutela dei dati

La diffusione, poi, dei sistemi di intelligenza artificiale di tipo generativo (come ad esempio Chat-GPT di Open AI) sta contribuendo ad alimentare il dibattito sulla tutela del diritto d’autore con complessità di non facile soluzione al momento, considerate anche le differenti conclusioni cui possono arrivare i diversi ordinamenti (di civil law e di common law) a seconda del più o meno ampio coinvolgimento dell’apporto umano (in termini di creatività e di inventiva) nella produzione di contenuti, che siano disegni, fumetti, video, testi. 

Problemi etici dell’intelligenza artificiale: gli obblighi di trasparenza

Per non parlare dei rischi connessi alla gestione algoritmica delle attività umane collegate al lavoro attraverso piattaforma

Si tratta di un ambito che beneficia oggi di diverse forme di regolazione sia a livello comunitario (con la Direttiva approvata ad aprile 2024) sia a livello nazionale e che non può non essere preso in considerazione anche dal punto di vista etico. 

Emblematico in questo contesto è lo stesso Decreto Trasparenza del 2022 (D.Lgs. n. 104/2022) in base al quale sono stati introdotti più stringenti obblighi di informativa nei confronti del lavoratore – ai sensi dell’art. 13 del Regolamento sulla Privacy n. 679/2016 GDPR – quando siano adottati sistemi di monitoraggio (integralmente) automatizzati ai fini della assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni, anche quando tali sistemi incidano sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali da parte dei lavoratori (art. 1bis D.Lgs. n. 152/1997 aggiunto dal D.Lgs. n. 104/2022).

Sfide etiche dell’intelligenza artificiale: quali sono le implicazioni?

È evidente come siano più d’uno gli ambiti entro i quali stanno sorgendo le sfide etiche, giuridiche, e comportamentali imposte dalla crescita e dal perfezionamento dei sistemi di intelligenza artificiale

In questo contesto, come già messo in evidenza in questa rubrica, se è sicuramente fondamentale la crescita di una nuova consapevolezza sul modo con cui queste sfide vanno affrontate e sull’importanza di un cambio di prospettiva – anche da parte degli attori delle relazioni industriali – in merito al mutamento del ruolo e dell’importanza che hanno il lavoro e le modalità con cui viene gestito, è altrettanto fondamentale identificare quali sono (o saranno) i principi etici attraverso i quali sarà possibile governare (e interpretare) questa rivoluzione.

Compito non facile, considerata la proliferazione di linee guida, principi e dichiarazioni che a partire dal 2017 si sono in questi anni diffuse. Da questo punto di vista, un utile strumento per riportare a unità in un documento ufficiale – il primo testo normativo – questa complessa materia è il nuovo AI Act (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, pubblicato in GUUE il 12 luglio 2024) scaturito dopo ampia e accesa discussione anche dal documento elaborato dal Gruppo di studio incaricato dalla Commissione europea.

E quali principi etici?

Significativi da questo punto di vista sono i principi elaborati nel 2019 dall’AI HLEG (High-Level Expert Group on AI) l’organismo indipendente nominato appunto dalla Commissione europea con l’incarico di fornire consulenza sulla strategia europea in materia di intelligenza artificiale. 

Tale organismo ha elaborato sette principi etici non vincolanti per l’IA che sono intesi a contribuire a garantire che l’IA sia affidabile ed eticamente valida

Essi comprendono: 

  1. intervento e sorveglianza umani;
  2. robustezza tecnica e sicurezza;
  3. vita privata e governance dei dati;
  4. trasparenza;
  5. diversità, non discriminazione ed equità;
  6. benessere sociale e ambientale;
  7. responsabilità.

In particolare, secondo gli orientamenti dell’AI HLEG  con “intervento e sorveglianza umani” si intende che i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell’autonomia personale e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani. 

L’AI ACT nel contesto normativo della UE

Sulla scorta di tali principi richiamati dal nuovo Regolamento, l’AI Act trova collocazione entro il quadro del più ampio sistema di regole che l’Unione Europea sta da tempo implementando ai fini di una gestione più responsabile delle attività economiche e sociali all’interno del territorio degli Stati membri e nel Mercato Comune. 

Regole che coinvolgono diversi ambiti, tra cui significativamente la protezione dei dati, la tutela dei consumatori, i diritti fondamentali, l’occupazione e protezione dei lavoratori, la sicurezza dei prodotti e il rispetto della vita privata e familiare

Regole rispetto alle quali il recente AI Act si pone in rapporto di complementarità, contribuendo alla definizione di un vero e proprio scudo normativo per tutti gli operatori interni al mercato comune e per quelli transfrontalieri con sede al di fuori del territorio dell’Unione. Un importante quadro normativo. Non certo un punto di arrivo, ma un importante punto di partenza in questo ambito giuridico così complesso e così delicato.

 

Leggi anche:

Intelligenza Artificiale: come gli HR possono guidare la trasformazione in azienda

Intelligenza artificiale e lavoro: da sfida a opportunità

Altro in “Valore Aggiunto”