Yolanda Díaz presenta la herramienta pionera que permitirá conocer el impacto de los algoritmos en las condiciones de trabajo
Trabajo y Economía Social - 10.6.2022
La Comisión de personas expertas sobre algoritmos en el ámbito laboral ha estado coordinada por Gemma Galdón y la integran Anna Ginès, Ana Belén Muñoz, Javier Sánchez y Adrián Todolí.
En el acto también han participado Virginia Eubanks, experta en el estudio de la relación entre tecnología y justicia social y Nick Srnicek, profesor de Economía digital en el King's College de Londres.
Herramienta pionera
La herramienta que se pone a disposición de personas trabajadoras y empresas permite cumplir con la obligación de información algorítmica de todas las empresas.
Concreta y sistematiza las obligaciones empresariales de información y permite garantizar el derecho fundamental a la no discriminación.
Se concreta en 4 epígrafes de cuestiones: información general, información sobre la lógica y funcionamiento, información sobre las consecuencias, otra información relevante.
Cada epígrafe consta de una serie de preguntas como qué tipo de tecnología utiliza el algoritmo (Caja negra, aprendizaje continuo) quién lo ha desarrollado, con qué decisiones, si hay personas en este proceso de decisión y en qué medida participan, qué datos de entrenamiento se han utilizado, si se han verificado los extremos, qué consecuencias pueden derivarse para las personas la decisión adoptada, si se ha informado a la persona candidata del uso de algoritmos...por mencionar algunos ejemplos.
Para Virginia Banks la guía supone "un gran paso adelante para asegurar decisiones más justas y dignidad en el entorno laboral".
En un contexto en el que el uso de algoritmos es cada vez más habitual en el ámbito empresarial para tomar decisiones de forma automatizada y que este hecho puede poner en riesgo los derechos fundamentales de las personas trabajadoras, Yolanda Díaz ha asegurado que "hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad".
En este sentido, la responsable de Trabajo ha avanzado que la Inspección de Trabajo y Seguridad Social está perfilando el algoritmo Max para combatir el tanto el exceso de horas extras como las horas extra realizadas y no remuneradas.
Los algoritmos no son inocuos
El proceso de diseño y construcción de un sistema de decisión automatizada está sujeto a muchas decisiones de diseño y de cada una de ellas dependerá el sistema final resultante.
Se trata, por tanto, de combatir la denominada "discriminación algorítmica" que reproduce patrones clásicos de discriminación.
Como explica el profesor Nick Srnicek, los algoritmos no solo se emplean en las plataformas digitales, sino que cada vez más se utilizan en entornos laborales tradicionales. En este sentido, ha reclamado "una nueva legislación que regule y restrinja el uso de algoritmos".
Cualquier cambio en la selección de datos de entrenamiento, del método de ajuste o de su ponderación relativa en el algoritmo generará un modelo diferente y, por tanto, con posibilidad de estar sujeto a determinados sesgos.
El documento presentado incide en la importancia de la existencia de la intervención humana en cada una de las decisiones parceladas y no solamente en alguna parte del proceso. Por ejemplo, en un proceso de selección si las y los candidatos finalistas se seleccionan mediante un algoritmo, la decisión final dependería de una decisión humana.
Tal y como recordó Yolanda Díaz "los modelos y prejuicios que se usan en el diseño de los algoritmos tienen consecuencias de carne y hueso. El algoritmo no es ciego", como dictaminó la pionera Sentencia del Tribunal de Bolonia de 31 de diciembre de 2020 a propósito del algoritmo Frank".
En este marco, "es nuestra responsabilidad poner los avances tecnológicos al servicio de las mayorías sociales y de la justicia social. Es la responsabilidad del Estado, por un lado, innovar, y por el otro, ofrecer protección y estabilidad" ha subrayado la titular de Trabajo.
Ley rider, punto de inflexión
El Real Decreto-Ley 9/ 2021 , para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales consagra el derecho de las personas trabajadoras de cualquier empresa a "ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles".
Esta norma pionera que inspira el proyecto de Directiva sobre condiciones de trabajo en plataformas digitales que está ahora siendo debatida en la UE.
La Ley rider se refiere a concretos deberes de información de las plataformas digitales respecto de los sistemas automatizados de supervisión y de toma de decisiones empleado y garantiza el derecho a conocer y a comprender el algoritmo.
El objetivo es, por tanto, caminar hacia una empresa "algorítmicamente responsable" con trabajo decente y socialmente responsable.
Los algoritmos también deben ser materia de negociación por parte de la representación legal de los trabajadores.
Guía sobre uso de algoritmos
La guía práctica reúne en un único documento obligaciones y derechos en materia de información algorítmica en el ámbito laboral: señala las obligaciones de la empresa respecto a la información que debe facilitar a la representación legal de la plantilla y a las propias personas trabajadoras.
Además, indica qué información pueden solicitar la representación legal de la plantilla y las propias personas trabajadoras de acuerdo con la normativa vigente.
Por otra parte, analiza las obligaciones empresariales de negociación del algoritmo, la auditoría y la evaluación de impacto.
Para Yolanda Díaz, se trata, por tanto, de avanzar en un uso adecuado de los avances tecnológicos. "Si usamos la tecnología a favor de las trabajadoras y trabajadores podemos incorporar elementos positivos", ha sentenciado.