Els riscos laborals dels algoritmes, la principal mancança de la nova regulació europea sobre Intel·ligència Artificial

  • Unitat de Cultura Científica i de la Innovació
  • 17 de gener de 2022
 
Adrián Todolí, professor de Dret del Treball de la UV.
Adrián Todolí, professor de Dret del Treball de la UV.

Una investigació d’Adrián Todolí, professor de Dret del Treball de la Universitat de València (UV), analitza els perills específics per a la salut de les treballadores i els treballadors causats pels algoritmes a l’àmbit laboral. Entre ells, la monitorització i sentir-se observat, la intensificació del treball causada per les decisions preses per software, la discriminació tot i l’aparent neutralitat algorítmica o possibles errors de funcionament. Todolí proposa una normativa específica europea en protecció d’aquests riscos laborals, en un sistema cada vegada més impregnat per la intel·ligència artificial (IA).

L’estudi, publicat en la revista internacional d’Economia i Dret Transfer, assenyala els riscos específics per a la salut de les plantilles ja que, com especifica el docent, els nous mètodes d’IA no tenen “empatia ni coneixement dels límits de l’ésser humà”. Tal com assenyala el seu autor, aquesta és una de les carències principals de la proposta de Reglament per la Comissió Europea sobre IA, que va eixir a la llum l’abril de l’any passat i que ara s’està negociant amb la resta d’autoritats europees per a la seua aprovació definitiva.

En aquesta línia, en la investigació s’enumeren fins a sis grups de riscos amb les possibles conseqüències. Un exemple és la constant monitorització, cosa que pot causar efectes negatius psicològicament com sentir-se sempre observat o envaït per la tecnologia. Però també ressalta que els possibles errors de funcionament dels algorismes són un dels factors que provoquen problemes quant a estrès i ansietat.

A més, altres riscos que l’article posa de manifest són la reducció de l’autonomia de la persona o la intensificació del treball davant la falta d’empatia humana. A això s’hi afegeixen els biaixos causats pels algoritmes que, encara que a priori passen el filtre de la neutralitat, l’estudi demostra que no el superen. Tal com exemplifica Todolí: “per seleccionar un candidat d’un grup minoritari, un algoritme de contractació exigirà per defecte més qualitats, aptituds o coneixements que els requerits a un integrant d’un grup majoritari, simplement perquè és més fàcil predir estadísticament el comportament d’un candidat que pertany a aquest últim grup”.

És per això que el professor de la UV defensa la necessitat d’una regulació específica a nivell europeu per protegir la salut del personal gestionat per IA, ja que “molts es poden reduir o evitar si es tenen en compte a l’hora de programar un algoritme”. “Una nova normativa d’aquest tipus ha d’estipular que aquesta programació tinga en compte aquests riscos laborals i de salut, com ara el dret a la intimitat. De la mateixa manera que els supervisors han de rebre formació en matèria de prevenció de riscos per poder realitzar la feina, l’algoritme també ha d’estar programat per sospesar-los”, concreta Todolí.

Encara més, la investigació explicita que la IA ha d’estar sota el control humà i advoca per una normativa concreta sobre la seguretat dels algoritmes. “Això enviaria un missatge sobre la importància dels riscos específics. Per contra, si la Unió Europea no considera oportú adoptar una nova normativa en aquest àmbit concret, es podria traslladar el missatge contrari i plasmar que els algoritmes no provoquen riscos per a la salut quan no és així”, sentencia l’expert. En aquesta línia, el docent també fa esment a la relació de l’article amb la recent aprovació de l’Agència Estatal de Supervisió de la Intel·ligència Artificial i control dels algoritmes a Espanya, inclosa als Pressupostos Estatals per al 2022.

 

Article: Todolí-Signes, Adrian, Making Algorithms Safe for Workers: Occupational Risks Associated with Work Managed by Artificial Intelligence (September 1, 2021). Transfer: European Review of Labour and Research, 2021, Available at SSRN: https://ssrn.com/abstract=3915718