L’Artificial Intelligence Act e il suo ruolo all’interno della “cultura della sicurezza”

Il 13 marzo 2024 è stato approvato della Commissione Europea l’Artificial Intelligence Act, la prima norma al mondo che fornisce una base giuridica complessiva sulle attività di produzione, sfruttamento e utilizzo dell’Intelligenza Artificiale (clicca qui per il sito di riferimento). Il voto è stato trasversale e ha coinvolto tutti gli schieramenti con poche eccezioni.

La regolamentazione dell’Intelligenza Artificiale avviene in Europa perché, probabilmente, nel nostro continente se ne avvertiva una maggior necessità e ciò per varie ragioni:

– da un lato per via dei noti ritardi europei nello sviluppo delle filiere del digitale e dei semiconduttori (che sono alla base dell’IA).  Gli ingenti finanziamenti pubblici e privati erogati per stimolare i mercati e, con ciò, una rapida crescita di tali settori, rischiano infatti di agire disordinatamente. Obiettivo dichiarato dell’AI Act è, non per caso, quello di «prevenire la frammentazione del mercato»;

– d’altro lato la frammentazione è anche politica e, con questo Atto unico, il legislatore europeo vorrebbe prevenire lo sviluppo di legislazioni nazionali differenti ed eccessivamente contrastanti;

– infine, l’orientamento iper-liberista dell’UE fa temere la possibilità che le imprese cerchino di utilizzare le nuove tecnologie in maniere eticamente scorrette, al fine di aumentare la vendibilità dei prodotti e far crescere i profitti. Con l’AI Act, difatti, vengono vietati la manipolazione cognitiva e il riconoscimento delle emozioni sul luogo di lavoro, in una certa misura viene rispettata la privacy, si assicurano la tracciabilità dei dati, la presunzione di innocenza e il diritto alla difesa in caso di controversie legali, e via dicendo. Tutte cose, queste ultime, che avrebbero dovuto essere già scontate. Si invece è parlato meno di ciò che viene concesso alle imprese ed è proprio questo il senso del nostro intervento.

La prima cosa da sapere è che le applicazioni dei sistemi di IA vengono classificate in base a una stima del rischio che comportano «per la salute e la sicurezza o per i diritti fondamentali delle persone». Qualora il rischio stimato sia “alto”, l’Atto prescrive un codice di condotta per le imprese che le obbliga a rispettare parametri predefiniti su «[la produzione dei] dati, la documentazione e la tracciabilità, la fornitura di informazioni e la trasparenza, la sorveglianza umana» e via dicendo.

Questo codice di condotta comporta però dei costi, per la verità piuttosto ingenti, ragion per cui la Commissione Europea ha pensato di concedere degli “spazi di sperimentazione normativa”, sia a livello comunitario che nazionale. Ciò sta lasciando adito a tentativi di allentare i vincoli normativi, come quello che punta a sostituire parzialmente l’auto-certificazione del rischio – condotta da parte delle aziende stesse in evidente conflitto d’interessi – ai controlli esterni, oppure come i progetti per arrivare a scaricare sugli utilizzatori finali dei prodotti (persone fisiche o aziende compratrici) la responsabilità di un utilizzo corretto degli stessi, anziché sui produttori. Un’opzione, quest’ultima, sostenuta da Francia, Germania e Italia e che probabilmente, almeno per parte nostra, viene portata avanti soprattutto per l’interesse di ridurre i costi per le PMI digitali.

Secondo la Commissione l’AI Act inciderà «positivamente, secondo quanto applicabile in determinati settori, sui diritti di una serie di gruppi speciali, quali i diritti dei lavoratori a condizioni di lavoro giuste ed eque». Ciononostante, all’interno del documento il tema del lavoro viene trattato parzialmente e solo al fine di limitare i rischi dovuti all’applicazione dell’IA: non vi è intenzione alcuna di orientare il comportamento delle aziende a un utilizzo benefico e vantaggioso delle nuove tecnologie per il grosso dei lavoratori dipendenti. Difatti, al di là delle applicazioni ad alto rischio dell’IA sul posto di lavoro (come ad esempio il selezionare le candidature per le posizioni lavorative aperte, monitorare e valutare i dipendenti in servizio, stabilire l’assegnazione di compiti, ruoli e mansioni o perfino il determinare la possibilità del licenziamento), le nuove tecnologie hanno un impatto prorompente sulle condizioni di lavoro e ciò non viene minimamente considerato dall’AI Act. Vediamo di cosa stiamo parlando.

L’utilizzo della tecnologia avanzata per la profilazione, il monitoraggio e la valutazione del lavoratore da parte di un’impresa capitalistica comporta un’implementazione dell’organizzazione aziendale in grado di produrre, a sua volta:

  • un’ulteriore diminuzione del supporto umano fra colleghi,
  • l’aumento dell’alienazione e dell’individualizzazione del lavoro,
  • la creazione di ambienti malsani e competitivi,
  • un nuovo indebolimento dei confini tra vita privata e lavorativa,
  • la compromissione delle logiche di rappresentanza sindacale (nei termini del rafforzamento di un clima di sfiducia e di mancata partecipazione),
  • la perdita di un certo quantitativo di posti di lavoro (specie di quelli che richiedono minori specializzazione ed istruzione).

La diffusione dell’IA in azienda condurrà, inoltre, alla diffusione trasversale di nuove problematiche lavorative. Fra le categorie interessate citiamo quelle più numerose: gli operai di fabbrica, gli operai magazzinieri (facchini), drivers e riders (corrieri), gli operai dei servizi (ad esempio l’operatore del fast food), gli impiegati d’ufficio (dall’operatore del call center al dipendente aziendale medio). Per tutti costoro l’IA rappresenta un generale aumento dei ritmi di lavoro, l’aumento del controllo e un sensibile deterioramento del livello di tutela della salute personale in azienda, che in particolare conduce al diffondersi di disturbi muscolo-scheletrici da usura prolungata (in genere agli arti superiori o, per i corrieri, a schiena e ginocchia) e all’aumento statistico di stress, depressioni, ansia e altre problematiche psicologiche.

Tutto ciò determina la potenzialità di un processo ricompositivo della classe lavoratrice, proprio per la trasversalità delle nuove problematiche rispetto alle varie categorie lavorative. Volendo fare un esempio pratico, muovere le braccia a ritmi elevati lungo la catena di montaggio, o in cucina al fast food (dove vengono assegnati pochi minuti di tempo per la preparazione di un panino), in ufficio davanti al computer o in magazzino, conduce in tutti questi casi a un sovraccarico degli arti superiori, provocato nello specifico dall’aumento dei ritmi di lavoro.

A tal proposito segnaliamo una possibile tendenza alla diffusione dell’infortunio da usura in luogo del vecchio infortunio da trauma (tuttora comunque diffusissimo, fino alle morti sul lavoro). La problematica da usura è meno facilmente riconducibile all’attività lavorativa perché si sviluppa nel tempo (mesi, anni o anche decenni) e, pertanto, risulta meno identificabile dall’Inail.

In conclusione: un AI Act democratico avrebbe dato indicazioni per prevedere perlomeno un coefficiente massimo di intensificazione del lavoro. L’identificazione delle fasce di rischio si mostra quindi del tutto inconsistente. Non che si tratti dell’unico vuoto: potremmo ad esempio segnalare l’assenza completa di regolamentazione dell’IA in ambito militare.

Emiliano Gentili e Federco Giusti – Osservatorio contro la militarizzazione delle scuole e delle università

Rispondi