L’Italia è il primo Paese europeo a dotarsi di una normativa sull'intelligenza artificiale
Il Governo italiano è stato il primo in Europa ad avviare l’iter per l’adozione di una normativa sull’intelligenza artificiale. Lo scorso 23 aprile 2023, ha anticipato tutti i parlamenti europei e ha avviato l’iter di approvazione di una propria normativa nazionale che integra e completa quella comunitaria.
Lo scorso 13 marzo 2024, infatti, è stato approvato dal Parlamento Europeo il Regolamento 2024/1689, denominato Artificial Intelligence Act, il primo vero intervento normativo in questo ambito. Il Regolamento disciplina alcuni aspetti della materia e lascia alcuni ambiti di competenza agli Stati membri, che possono così adottare una propria normativa specifica.
Come anticipato, il Governo italiano è stato il primo a presentare una propria normativa nazionale. Il testo del disegno di legge è in fase di approvazione al Senato e dopo dovrà passare al vaglio della Camera dei Deputati.
L’Artificial Intelligent Act interviene in tutti i settori sociali ed economici, con disposizioni immediatamente efficaci.
La normativa ha innanzitutto il merito di offrire una definizione unica di sistema di “intelligenza artificiale”, quale
“sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare ambienti fisici o virtuali”
Il regolamento comunitario poi disciplina la tutela dei diritti in base al livello di rischio cui sono esposti i diritti fondamentali, la sicurezza e il buon andamento del mercato unico: più alto è il rischio, più forte è l’attenzione e stringente la normativa.
Questi sono i tre livelli di rischio:
Il “rischio inaccettabile” si verifica ogni volta che un sistema di intelligenza artificiale determini un rischio per la sicurezza e i diritti delle persone. Questi sistemi sono vietati e dovranno essere eliminati entro sei mesi dall’entrata in vigore del Regolamento.
Comportano un “rischio inaccettabile”, ad esempio:
Salvo alcune eccezioni, sono vietati anche i sistemi di riconoscimento facciale mediante telecamere a circuito chiuso da parte delle forze di polizia.
Il “rischio alto”, invece, riguarda quei sistemi di IA che possono “avere un impatto significativo sulla sicurezza delle persone o sui diritti fondamentali. In questa ipotesi, prima di immettere sul mercato un simile prodotto, i fornitori devono dimostrare che il loro sistema è conforme ai requisiti obbligatori. Con specifico riguardo all’utilizzo dei c.d. “chatbot”, il Regolamento prevede “specifici obblighi di trasparenza”.
Inoltre, per i sistemi a “rischio alto” è prescritto l’utilizzo di contrassegni che permettano di riconoscere l’utilizzo di sistemi di intelligenza artificiale.
Il “rischio minimo”, infine, si ricava per difetto e vi rientrano tutti i sistemi di intelligenza artificiale che non sono compresi nel “rischio inaccettabile” e nel “rischio alto”. Sul punto, il Regolamento auspica l’adozione di codici di buona condotta da parte degli sviluppatori.
Che cosa prevede il testo del ddl intelligenza artificiale proposto dal Governo al Parlamento? Il testo riprende alcuni principi fondamentali già indicati dal Regolamento europeo e li applica a tutti i contesti della vita sociale e professionale: dall’ordine pubblico alla sanità, dal lavoro alla creazione artistica.
Per primo va citato quello che probabilmente è il più importante principio delle regolamentazione sull’utilizzo della intelligenza artificiale: i sistemi di intelligenza artificiale devono avere un approccio “antropocentrico”.
Significa che questi sistemi di IA devono sempre garantire il rispetto della dignità e dell’autonomia umana. Non solo. L’AI e tutte le opportunità che può offrire devono essere considerate quali strumenti al servizio della persona e non quale strumento sostitutivo. Ecco perchè i processi di devono mettere al centro “la persona” e non “la macchina” o “il risultato”.
Ci sono poi ulteriori principi complementari che devono governare la creazione e l’utilizzo dei sistemi di AI:
La normativa italiana sull’intelligenza artificiale contiene alcune previsioni molto interessanti anche in tema di riconoscibilità dell’IA e di tutela delle opere e creazioni artistiche e culturali prodotte con sistemi di artificial intelligence.
Innanzitutto, c’è una previsione a favore dell’utente/consumatore: è necessario avvertire e segnalare che il contenuto è stato prodotto attraverso sistemi di intelligenza artificiale. Con specifico riferimento al settore dei prodotti e servizi di media audiovisivi – ossia uno dei campi in cui è più frequente l’utilizzo di tali sistemi – è stato inserito un “obbligo di riconoscibilità”: qualsiasi prodotto generato o modificato dall’IA deve presentare un “elemento o un segno identificativo” proprio con l’acronimo “IA”. Viene poi introdotta una disciplina ad hoc per la tutela del diritto d’autore delle opere create con l’utilizzo di sistemi di intelligenza artificiale.
Di primario interesse sono le previsioni contenute nel ddl intelligenza artificiale che intervengono in diversi ambiti della vita delle persone.
Ad esempio, il settore sanitario e la tutela della salute. In questo ambito, il testo del disegno di legge afferma che l’IA “deve contribuire al miglioramento dei processi di diagnosi e cura”, ma la decisione sul trattamento terapeutico deve essere sempre a carico del medico. E’ un’altra declinazione, questa volta in ambito sanitario, del principio della “persona al centro”: non è la macchina a decidere, ma è sempre il professionista.
Inoltre, il paziente e l’interessato hanno “diritto di essere informati circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale utilizzata”.
In ogni caso, l’AI “deve contribuire al miglioramento della vita e al processo di inclusione sociale delle persone con disabilità” e “non può determinare criteri discriminatori di accesso alle prestazioni sanitarie”.
Quello del lavoro e della tutela dei lavoratori è uno degli argomenti più sensibili. Il rischio è che l’introduzione di sistemi automatizzati e processati tramite IA possa comportare l’eliminazione di posti di lavoro in determinati settori.
D’altra parte si fa notare come lo sviluppo e l’aggiornamento di tali sistemi richieda un altrettanto elevato numero di risorse altamente qualificate. Il ddl IA interviene anche in questa materia, indicando alcuni principi fondamentali.
In particolare, l’AI deve essere funzionale al miglioramento delle condizioni di lavoro, alla tutela dell’integrità psico-fisica del lavoratore e al miglioramento della produttività e deve garantire il rispetto dei diritti fondamentali del lavoratore e non determinare trattamenti discriminatori.
In caso di utilizzo di intelligenza artificiale, il datore di lavoro o il committente è tenuto a informare il lavoratore di tale utilizzo nelle ipotesi in cui abbia adottato “sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini della assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavoratori.”
Sempre in tema di lavoro subordinato, viene istituito l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro “con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo” e con l’obiettivo di “massimizzare i benefici e contenere i rischi derivanti dall’impiego di sistemi di intelligenza artificiale in ambito lavorativo”.
Il DDL IA contiene delle previsioni anche in tema di lavoro autonomo, in particolar modo per le professioni intellettuali e creative. A tal fine, il testo normativo stabilisce che:
Ci sono infine delle misure strutturali che inaugurano la nuova politica in tema di intelligenza artificiale. L’Agenzia per l’Italia Digitale e l’Agenzia per la cybersicurezza nazionale sono individuate quali autorità nazionali per l’IA.
Viene poi istituito un fondo con una dote di 1 miliardo di euro per investimenti che devono riguardare la creazione di poli specializzati, lo sviluppo di start up e iniziative relative alla creazione e sviluppo di imprese nazionali.
Leggi anche:
Per un’etica dell’intelligenza artificiale: quali principi guida?
Intelligenza artificiale e welfare: potenzialità e soluzioni all’avanguardia