
Intelligenza artificiale: prime osservazioni sui profili lavoristici
nel disegno di legge approvato dal Governo.
Premessa
L’Italia, sulla tormentata materia dell’intelligenza artificiale (Sul tema si v. R. COSIO,
L’intelligenza artificiale nel labirinto normativa, in Vita Forense, gennaio-aprile 2024), batte
un colpo.
Il Consiglio dei Ministri, nella seduta del 23 aprile 2024, ha approvato un disegno di legge
per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza
artificiale.
Il disegno di legge individua criteri regolatori capaci di riequilibrare il rapporto tra le
opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio,
introducendo norme di principio e disposizioni di settore che, da un lato, promuovano
l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e,
dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione
antropocentrica.
Le norme intervengono in cinque ambiti: la strategia nazionale, le autorità nazionali, le
azioni di promozione, la tutela del diritto di autore, le sanzioni penali.
Importanti le disposizioni in materia di lavoro che intendono migliorare le condizioni di
lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle
prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione
Il disegno di legge approvato dal Consiglio dei Ministri nella seduta del 23 aprile 2024
per l’introduzione di disposizioni e delega al Governo in materia di intelligenza artificiale
interviene con norme che riguardano settori quali la strategia nazionale, le autorità
nazionali, le azioni di promozione, la tutela del diritto di autore, le sanzioni penali. Il
focus prende in esame i principi generali e le disposizioni sull’utilizzo dell’intelligenza
artificiale in materia di lavoro contenute nel disegno di legge in attesa di pubblicazione
sulla Gazzetta Ufficiale europea. Grande attenzione viene prestata al principio di non
discriminazione in totale assonanza con quanto previsto nel Regolamento europeo.
Il disegno di legge, in attesa della sua pubblicazione nella Gazzetta Ufficiale, viene
esaminato limitatamente ai principi generali e alle disposizioni in materia di lavoro.
I principi generali
I principi generali sono enunciati nell’art. 3.
Che si tratti di principi generali “espressi” non vi è dubbio per l’espressa qualificazione del
Legislatore italiano e il loro carattere “indeterminato” (v. R. GUASTINI, Interpretare e
argomentare, Milano, 2011, 177).
L’art. 3 si apre con una disposizione di “cornice”: “l’applicazione e l’utilizzo di sistemi e
modelli di intelligenza artificiale avvengono nel rispetto dei diritti fondamentali e delle
libertà previste dalla Costituzione, del diritto dell’Unione Europea e dei principi di
trasparenza, proporzionalità, sicurezza, protezione dei dati personali,
riservatezza, accuratezza, non discriminazione, parità di sessi e sostenibilità”.
È questa la rete normativa che, in armonia con il Regolamento, si deve osservare
nell’applicazione e utilizzo di sistemi di intelligenza artificiale.
Nello sviluppo di questi sistemi “deve essere garantita e vigilata la correttezza,
l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il
principio di proporzionalità in relazione ai settori nei quali sono utilizzati”.
Affermazioni che richiamano, non solo quanto enunciato nel Regolamento europeo, ma
anche alcuni dei principi, più volte, enunciati dalla Corte di giustizia.
I sistemi e i modelli di intelligenza artificiale, prosegue il terzo comma, “devono essere
sviluppati ed applicati nel rispetto della autonomia e del potere decisionale, della
prevenzione del danno, della conoscibilità, della spiegabilità e dei principi di cui al comma
1”.
Viene, quindi ribadita la visione antropocentrica fatta propria dal Regolamento europeo
con un rinvio, sul piano sistematico, ai principi contenuti nel primo comma della
deposizione.
Molto importante il quarto comma che stabilisce che “l’utilizzo di sistemi di intelligenza
artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita
istituzionale politica”.
Il quinto comma ribadisce l’approccio basato sul rischio (in armonia con le scelte del
Legislatore europeo) ribadendo la necessità dell’adozione di specifici controlli di sicurezza,
anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il
comportamento previsto, le prestazioni o le impostazioni di sicurezza”
Il sesto comma garantisce “alle persone con disabilità il pieno accesso ai sistemi di
intelligenza artificiale” in conformità alle disposizioni della Convenzione delle Nazioni Unite
sui diritti delle persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e
resa esecutiva ai sensi della legge 3 marzo 2009, n. 18.
Interessante, in questo contesto, sarà la lettura sistematica di questo comma con la
risoluzione approvata dall’assemblea generale delle Nazioni Unite, in data 21 marzo 2024,
sponsorizzata dagli Stati Uniti e approvata da 123 Paesi (compresa la Cina) che ha
elaborato delle linee guida per “cogliere le opportunità dei sistemi di intelligenza
artificiale sicuri, potetti e affidabili per lo sviluppo sostenibile”.
L’esame complessivo dell’art. 3 del disegno di legge consente di formulare alcune
osservazioni.
La prima attiene alla scelta tra principi e regole.
Il Legislatore italiano ha scelto di fissare norme di principio, prive di fattispecie, attraverso
concetti “aperti” (sul tema si v. R. GUASTINI, Interpretare e argomentare, cit., 177-179)
che consentono a chi dovrà applicarli un notevole margine di manovra, non solo sul piano
interpretativo ma, anche su quello dell’integrazione delle lacune del testo.
In sintesi, ha scelto la via dei “principi” (ai quali si aderisce) anziché quello delle regole
(alle quali si ubbidisce) (v. G. Zagrebelsky, Diritto allo specchio Torino, 2018, 233).
Si tratta di una impostazione diversa dal Regolamento europeo che, nell’ultima stesura, ha
scelto la via della fissazione di regole (ancorché integrata dall’esistenza di principi
inespressi).
La seconda osservazione attiene alla fissazione dell’obiettivo che si basa (come nel
regolamento europeo) su una visione antropocentrica, senza, però, i riferimenti alla
“tutela dell’ambiente” che risulta un obiettivo centrale nel testo del regolamento.
Resta, però, il fatto che la lettura dei principi nazionale deve essere effettuata nel rispetto
della nostra Costituzione che, con la novella del 2022, ha posto al centro del sistema
costituzionale la tutela dell’ambiente.
Le norme in materia di lavoro
Le disposizioni in materia di lavoro contenute nel disegno di legge
meritano particolare attenzione.
Il primo comma dell’art. 10 sancisce che:
“L’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare
l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la
produttività delle persone in conformità al diritto dell’Unione europea”.
La disposizione non contiene né regole né principi ma solo “programmi” (sulla distinzione
tra regole, principi e programmi si v. G. Zagrebelsky, Diritto allo specchio, cit., 230) che
indicano delle mete da raggiungere attraverso attività teleologicamente orientate (cfr. J.
HABERMAS, Fatti e norme, Milano, 2013, 302 ss.).
La genericità delle nozioni utilizzate (miglioramento delle condizioni di lavoro,
accrescimento della produttività) lascia grande discrezionalità all’interprete (lo sottolinea E.
DAGNINO, Verso una regolazione dell’intelligenza artificiale: prime note sui profili lavoristici
del disegno di legge di iniziativa governativa, in Bollettino Adapt, 13 maggio 2024, n. 19).
Discrezionalità che può essere (almeno in parte) colmata con l’utilizzo dei principi generali
esaminati nel paragrafo precedente.
Il secondo comma dell’art. 10 prevede:
L’utilizzo dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile,
trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza
dei dati personali. Il datore di lavoro o il committente è tenuto ad informare il lavoratore
dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’ 1-bis del decreto
legislativo 26 maggio 1997, n. 152”.
La disposizione esprime due norme (Sul tema si v. R. GUASTINI, Interpretare e
argomentare, cit., 65-67).
La prima, contenuta nella prima parte della disposizione, richiama concetti e nozioni già
contenute nel Regolamento europeo.
La seconda, contenuta nella seconda parte della disposizione, richiama i doveri di
informazione contenuti nel Decreto trasparenza che si riferisce a “sistemi decisionali o di
monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini della
assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto
di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla
sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni
contrattuali dei lavoratori” (art. 1-bis, comma 1, come modificato dal d.l. n. 48/2023,
conv., con modif., in l. n. 85/2023).
Il richiamo al Decreto trasparenza richiede due precisazioni.
La prima attiene al fatto che il richiamo esplicito a tale fonte non può certo escludere
l’applicazione di altre fonti quali:
– il GDPR che si riferisce a sistemi decisionali automatizzati che sottopongono l’interessato
“a una decisione basata unicamente sul trattamento automatizzato, compresa la
profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo
significativamente sulla persona” (art. 22 Regolamento n. 679/2016);
– la normativa sul lavoro tramite piattaforma dei rider che definisce le piattaforme digitali
con riferimento (a) “i programmi e le procedure informatiche utilizzati dal committente che,
indipendentemente dal luogo dello stabilimento, sono strumentali alle attività di consegna
dei beni, fissandone il compenso e determinando le modalità di esecuzione della
prestazione” (art. 47-bis, comma 2, del d.lgs. n. 81/2015);
– l’art. 4 dello Statuto dei lavoratori che regola i controlli effettuati mediante “impianti
audiovisivi” e “altri strumenti dai quali derivi anche la possibilità di controllo a distanza
dell’attività dei lavoratori” (comma 1), esclusi gli strumenti utilizzati dal lavoratore per
rendere la prestazione lavorativa e gli strumenti di registrazione degli accessi e delle
presenze” (comma 2).
La seconda precisazione attiene al fatto che non tutti i “sistemi automatizzati” rientrano nel
raggio di azione della norma, dovendosi escludere i sistemi informatici che “utilizzano
regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico”
senza spingersi sul terreno più complesso dei sistemi di intelligenza artificiale che invece
implicano “elementi di autonomia” (sul tema si v. S. CIUCCIOVINO, La disciplina
nazionale sulla utilizzazione della intelligenza artificiale nel rapporto di lavoro, in
lavorodirittieuropa.it, 2024, n. 1, 9-15).
Il terzo comma dell’art. 10 prevede che:
L’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro garantisce
l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione di sesso,
dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni
politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto
dell’Unione europea”.
Il terzo comma ribadisce la centralità della tutela antidiscriminatoria nell’utilizzo degli
algoritmi.
Basti pensare al famoso caso Amazon dove emerse che l’algoritmo utilizzato per
automatizzare il processo di reclutamento del personale discriminava le donne (J. DASTIN,
Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, 2018).
Più di recente, si pensi all’uso dell’algoritmo Frank nel caso Deliveroo portato all’attenzione
del Tribunale di Bologna (Trib. Bologna 31 dicembre 2020, in Riv. it. dir. lav., 2021, n. 2,
II, 175 con nota di G. GAUDIO).
L’algoritmo Frank, in questo caso, era stato programmato per incentivare la partecipazione
e premiare l’affidabilità dei riders, penalizzando, in termini di future occasioni di lavoro, chi
si astenesse dal lavoro senza preavviso; circostanza che aveva prodotto l’effetto collaterale
di renderlo indirettamente discriminatorio per ragioni sindacali poiché “nel trattare allo
stesso modo chi non partecipa alla sessione prenotata per futili motivi e chi non partecipa
perché stata scioperando (…) in concreto discrimina quest’ultimo” (Trib. Bologna, 31
dicembre 2020, cit.).
In sostanza, il Tribunale di Bologna ha ritenuto che tale sistema desse luogo a una
“discriminazione indiretta, dando applicazione ad una disposizione apparentemente neutra
(la normativa contrattuale sulla cancellazione anticipata delle sessioni prenotate) che però
metteva “una determinata categoria di lavoratori (quelli partecipanti ad iniziative sindacali
di astensione dal lavoro) in una posizione di potenziale particolare svantaggio” (Trib.
Bologna, 31 dicembre 2020, cit. Sul tema si v., ampiamente, G. GAUDIO, Le
discriminazioni algoritmiche, in lavorodirittieuropa.it, 2024, n. 1).
Sul tema è fin troppo agevole prevedere un contenzioso complesso.
Roberto Cosio
13 Giugno 2024