957 47 41 41 - 957 47 17 18 administracion@galamica.com

NOTICIAS

2 de abril de 2025
La Utilización de Sistemas de Inteligencia Artificial en el Ámbito Laboral

 

La Utilización de Sistemas de Inteligencia Artificial en el Ámbito Laboral: Implicaciones Jurídicas y el Marco Regulatorio del Reglamento (UE) 2024/1689

Actualmente, en el entorno laboral, los procesos de toma de decisiones en cuestiones tales como la contratación, evaluación de las funciones de los trabajadores, productividad y rentabilidad, así como la determinación del puesto del trabajador, su ascenso o despido, se han visto afectados significativamente debido a la llegada de los sistemas de inteligencia artificial. Sin embargo, la aplicación de los mismos también supone riesgos potenciales para los derechos de los trabajadores, que pueden traducirse en la privacidad, protección de datos, igualdad y no discriminación o incluso seguridad y salud laboral. Es en este sentido, y con motivo de lo antedicho, por lo que se desarrolla el Reglamento (UE) 2024/1689 sobre inteligencia artificial (RIA), que entró en vigor el 1 de agosto de 2024 y será plenamente aplicable a partir del 2 de agosto de 2026, establece un marco normativo con el fin de regular estos sistemas y mitigar los riesgos inherentes a su uso, particularmente en el ámbito laboral.

 

El Principio de Alfabetización en Materia de IA (art. 3.56 y 4 del RIA).

Llama poderosamente la atención, en el sentido positivo, que se haya implementado a través de este Reglamento, el principio de alfabetización en este ámbito, el cual implica que los responsables de la aplicación de dichos sistemas de IA, en este caso, al aludir al ámbito laboral, estaríamos refiriéndonos a los empleadores, estos deben garantizar la aplicación de medidas destinadas a que el personal a su cargo, así como las personas encargadas del funcionamiento de estos sistemas, mantengan un nivel adecuado de conocimientos técnicos y experiencia en IA debido al posible impacto que puede derivarse de la aplicación de los mismos.

 

La Salvaguardia de los Derechos de los Trabajadores (art. 2.11 del RIA).

La regla de salvaguardia actúa como instrumento de protección y es implantada de igual forma por el Reglamento, asegurando que los Estados miembros o la Unión Europea pueden mantener o introducir disposiciones legales que sean más favorables a los derechos de los trabajadores en relación con el uso de IA por parte de los empleadores. Asimismo, se fomenta la aplicación de convenios colectivos que refuercen la protección de los derechos laborales frente a la automatización de decisiones laborales.

 

Sistemas de IA y Riesgos en el Ámbito Laboral

Como nos hemos estado refiriendo, al mismo tiempo que la aplicación de los sistemas de IA produce beneficios tanto al empleador como a los trabajadores, también puede producir riesgos para los mismos. En este sentido se pronuncia el Reglamento, clasificando los sistemas de IA en diferentes categorías según el riesgo que presentan, y estableciendo consecuentemente las medidas específicas para su evitación, regulación y supervisión. Para ello, se tiene en cuenta la proporcionalidad entre la posibilidad de que se produzca un daño y la gravedad del mismo.

Es por ello por lo que se califican mediante el artículo 5.1 en sus apartados f y g del Reglamento algunos de los sistemas de IA como prohibidos, entre los que encontramos aquellos que intentan inferir emociones de los trabajadores en los lugares de trabajo o utilizar tecnologías de categorización biométrica para deducir datos sensibles como la raza, afiliación sindical o vida sexual.

De igual modo, se implanta mediante su artículo 6 apartado 1 y 2, así como en su anexo III, la obligación de informar a los trabajadores y sus representantes sobre el uso de estos sistemas. Todo ello, derivado de los sistemas de IA clasificados como de “alto riesgo”, los cuales se utilizan en aspectos laborales tan cruciales como la contratación, la selección de personal, la asignación de tareas y la evaluación del rendimiento.

Consecuentemente, estos sistemas denominados de alto riesgo deben cumplimentar una serie de rigurosos requisitos relacionados con la gestión del riesgo, gobernanza de datos, transparencia, supervisión humana, precisión y ciberseguridad, previstos en los artículos 9 – 15 del RIA e incluyen:

  1. La implementación de un sistema de gestión de riesgos durante todo el ciclo de vida del sistema de IA.
  2. La gobernanza adecuada de los datos utilizados en el sistema.
  3. La necesidad de documentación técnica precisa y actualizada.
  4. La trazabilidad del funcionamiento del sistema.
  5. La transparencia suficiente para que los responsables interpreten correctamente los resultados generados por el sistema.
  6. La obligación de garantizar que el diseño y desarrollo del sistema permita la supervisión humana en todo momento.

 

Información y Derecho a la Explicación

Relacionado con lo anterior, el Reglamento también instaura al empleador la obligación de informar a los trabajadores, así como sus representantes, sobre la utilización de los sistemas de IA que pretenda poner en marcha y se consideren de alto riesgo, y los posibles impactos en sus condiciones laborales.

Asimismo, esta obligación incluye el derecho de los trabajadores a recibir una explicación individualizada sobre las decisiones que les afecten en cuanto al contrato suscrito entre las partes, el desempeño de sus funciones y la evaluación de las mismas. Además, se reconoce la importancia de promover el uso de una inteligencia artificial ética y respetuosa con los derechos fundamentales, alineada con las recomendaciones de la UE (art. 86 del RIA; art. 64.4.d del ET).

 

Responsabilidades y Sanciones

Como último punto destacable del Reglamento expuesto, se ha de hacer mención al establecimiento de un régimen de sanciones en aras de penalizar a aquellas empresas que incumplan las disposiciones relativas al uso de sistema de IA en este ámbito regulado por el artículo 99 del mismo. En su virtud, a partir del 2 de agosto de 2025, los Estados miembros deberán contar con un régimen de sanciones que incluya multas significativas en caso de infracción. Las sanciones podrán llegar hasta los 35 millones de euros o el 7 % del volumen de negocios mundial de la empresa infractora, dependiendo de cuál sea mayor. Además, se establece un sistema de sanciones para los responsables del despliegue de sistemas de IA de alto riesgo que no cumplan con sus obligaciones.

🖊️: Marta Rodríguez Carmona