CCOO de Industria | 29 marzo 2024.

Publicada una guía sobre obligaciones y derechos en materia de información algorítmica en el ordenamiento jurídico-laboral español

  • La guía incluye una herramienta que concreta y sistematiza las obligaciones de información

El Ministerio de Trabajo y Economía Social acaba de publicar la guía que versa sobre “información algorítmica en el ámbito laboral”, un fenómeno creciente que afecta a parte del mercado de trabajo.

14/06/2022.
Laptop

Laptop

Entre otros aspectos, la guía indica cuáles son las obligaciones empresariales sobre negociación del algoritmo, auditoría y evaluación de impacto, qué derechos nos asiste como RLPT o como individuos o qué debe abarcar una evaluación de impacto ante la introducción de algoritmos o sistemas de decisión automatizada.

En primer lugar, la guía define como un algoritmo un “conjunto ordenado y finito de operaciones o reglas”, y el sistema de decisión automatizada como “un proceso automatizado mediante el uso de datos y algoritmos para optimizar la toma de una decisión”.

El problema estriba en el fenómeno conocido como caja negra; cuando procedimientos, lógicas y variables no son evidentes o conocibles.

¿En qué ámbitos se utilizan los algoritmos?

  • Selección y contratación.
  • Monitorización y vigilancia en el ámbito laboral.
  • Dirección y gestión del trabajo.

La guía hace hincapié en dos canales en cuanto a derechos: a) derechos individuales, a través del RGPD y su artículo 22, y b) y derechos emanados del Estatuto de Trabajadores, concretamente, en el artículo 64.

Al amparo de lo anterior, es importante remarcar que el uso de la tecnología en las decisiones empresariales debe realizarse de forma transparente, informando de los métodos usados y de las finalidades de la misma (artículo 6 RGPD).

El artículo 64.4.d) del ET incorpora obligaciones de información en favor de la RLPT en materia del uso de algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles. Aquí estriba la obligación de informar.

¿Qué empresas tienen la obligación de informar?

Todas las empresas que tengan personas asalariadas a su cargo y utilicen algoritmos o sistemas de decisión automatizada para la gestión de personas (asignación de horarios, tareas, productividad, promociones, salarios, despidos, etc.).

¿Qué información debe suministrar?

En base al artículo 64, informar a la RLPT sobre parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que puedan incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles. La empresa debe informar sobre el uso de algoritmos o sistemas de inteligencia artificial para tomar decisiones automatizadas, incluyendo la elaboración de perfiles, la tecnología utilizadas y as decisiones de gestión. Es decir, todas las decisiones en materia de gestión de personas.

Además, debe informar, de modo claro, sobre la lógica y el funcionamiento del algoritmo, incluyendo variables y parámetros, así como las reglas e instrucciones utilizadas por el algoritmo y las auditorías realizadas o la evaluación de impacto por parte de la empresa o tercera respecto del algoritmo utilizado.

Por último, la empresa debe informar sobre las consecuencias que pueden derivarse de la decisión adoptada mediante el uso de algoritmos o sistemas de decisión automatizada sobre la persona en términos de acceso, mantenimiento o determinación de condiciones del empleo. Es importante analizar el impacto que pueda existir en materia de igualdad y no discriminación entre hombres y mujeres. Cabe citar aquí el artículo 7 del RD 901/2020 referente al diagnóstico en un contexto de elaboración de un Plan de Igualdad.

En definitiva, basta saber que cualquier algoritmo utilizado en el ámbito laboral para la toma de decisiones automatizadas, incluyendo la elaboración de perfiles, está sujeto a la obligación empresarial de información, aunque haya matices relevantes en cuanto al tratamiento del plano individual o colectivo concernido en la guía, siendo, en todo caso, mucho más garantista cuando hablamos del plano colectivo.    

Como norma general, no existe obligación de negociar el algoritmo con la RLPT, a menos que haya alguna mejora en el convenio colectivo que desde CCOO promovemos. Con todo, sí es obligatorio informar y consultar en cuanto a cambios relevantes en la organización del trabajo.

Pese a lo anterior, la consulta y participación Esto es obligatorio cuando el algoritmo es utilizado está en el marco de un despido colectivo. En nuestra opinión, también debe ser materia de negociación otras medidas que afecten a la modificación o suspensión del contrato de trabajo.

¿Es obligatorio hacer una evaluación de impacto?

Sí. Máxime cuando el tratamiento de datos de la empresa suponga un alto riesgo debido al uso de NNTT para los derechos de las personas trabajadoras. Entre otros, esta evaluación de impacto debe contener: a) una descripción de las operaciones de tratamiento y sus fines, así como su proporcionalidad; b) evaluación e los riesgos para los derechos de las personas trabajadoras o las medidas para afrontar riesgos, incluidas garantías, seguridad y mecanismos que garanticen la protección de datos personales. 

Como norma general, no es obligatorio hacer una auditoría algorítmica; en todo caso, desde CCOO insistimos en que las auditorias de PRL abarque estos nuevos sistemas, así como dar cobertura en el marco del Plan de Igualdad.

La guía, al cierre, incluye un anexo con la herramienta para cumplir con la obligación de información algorítmica.