Los algoritmos que rigen las relaciones laborales: así son y así se regulan | Compañías

Una conocida empresa de ascensores trabaja en España con una app que distribuye las tareas diarias de sus empleados en función de las incidencias que dejan los usuarios y de la cantidad de aparatos que hay que arreglar, así como de sus ubicaciones y el orden a seguir. Hasta aquí todo normal. El problema llega, explica el secretario de Juventud y Nuevas Realidades del Trabajo de CC OO, Carlos Gutiérrez, “cuando el algoritmo que esconde esa app se utiliza para medir la supuesta eficiencia o productividad de los trabajadores sin que ellos lo sepan”. Es algo, añade, que puede repercutir en las evaluaciones internas, en la clasificación por perfiles en base a sesgos, en la salud laboral o en la promoción.

El objetivo del Real Decreto-Ley aprobado esta semana por el Gobierno, además de la regularización de los riders, persigue precisamente acabar con la opacidad de los algoritmos obligando a todas las empresas que hacen uso de esta tecnología a informar a los empleados sobre los sistemas de inteligencia artificial que incidan en las condiciones de laborales. “Multitud de cuestiones que se deciden en los centros de trabajo están mediadas por estos algoritmos, que pueden tener sesgos raciales, de clase y de género, y tenemos que proteger a los empleados”, añade Gutiérrez, presente en las negociaciones de la ley rider consensuada por el Ministerio de Trabajo, las patronales CEOE y Cepyme, y los sindicatos CC OO y UGT.

Jorge Monclús y José María Martínez, consejero y asociado de Cuatrecasas, respectivamente, señalan que hoy en día son ya numerosas las empresas que se apoyan en sistemas de inteligencia artificial y programas algorítmicos para decidir cuestiones tan comunes como la contratación de personal, la asignación de tareas, la distribución de tiempos y lugares de trabajo, la evaluación y promoción profesional o la verificación de la consecuención de objetivos para, por ejemplo, el devengo de un bonus. Y todas esas compañías, no solo las empresas tecnológicas o de la gig economy, se van a ver afectadas por esta nueva ley, que entrará en vigor el próximo 12 de agosto.

Hay casos de compañías de reparto, ajenas al mundo del delivery, que penalizan al empleado si no sigue la ruta que tiene marcada, “obviando que un desvío puede estar justificado por una obra o un accidente”. También otros que se utilizan por la empresa para crear clasificaciones por perfiles en base a los niveles de disponibilidad del trabajador, por ejemplo en auditoras o consultoras, «o que no distinguen entre ausencias injustificadas o bajas por enfermedad», continúa Gutiérrez. Según un estudio de EY para Microsoft en 2019, el 15% de las empresas españolas consultadas estarían utilizando inteligencia artificial en recursos humanos, el doble de la media europea.

El Real Decreto-Ley reconoce por primera vez en el ordenamiento jurídico-laboral español la figura de los algoritmos como gestores de la prestación laboral. “Pero mas trascendente aún”, como explican los abogados de Cuatrecasas, confiere a la representación legal de los trabajadores el derecho a ser informada por la empresa “de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Una información que puede ser considerada por las compañías como secreto empresarial y podría dar lugar a una “lógica resistencia de las empresas a destripar sus sistemas”, según advierten Monclús y Martínez. Aunque como apunta Jesús Lahera, catedrático de Derecho del Trabajo en la Universidad Complutense, este derecho se debe ajustar a la normativa vigente de secreto profesional así como de propiedad intelectual e industrial, que no ha sido modificada. Y por esa vía pueden aparecer límites significativos.

“Va a ser esencial el respeto del deber de sigilo y conficencialidad de los representantes de los trabajadores, tanto general del artículo 65 del Estatuto de los Trabajadores como específico en secretos profesionales”, resalta Lahera, que advierte que los conflictos en la aplicación de esta nueva ley pueden venir de la posición de la empresa en hacer valer esta confidencialidad y secreto profesional, así como en la delimitación del alcance de la información. «Serán los jueces los que tendrán que ir elaborando criterios y límites en el contexto de toda la normativa aplicable».

Para Stella Solernou, profesora de Derecho Mercantil de la Facultad de Derecho de la Universidad de Deusto, esta nueva norma viene a concretar la ley de secretos empresariales de 2019, la cual ya tiene un precepto que habla de la posibilidad de obtener de manera lícita secretos empresariales cuando sean cuestiones relacionadas con el ejercicio de los derechos de los trabajadores y los representantes de estos.

“El tema está en que una cosa es poder acceder a esa información y, otra, la utilización que se haga de la misma. Y ahí es donde tiene que venir el límite para el comité de empresa, pero la ley no dice nada al respeto, lo cual puede generar conflicto, pues si se va más allá de utilizar la información para defender los derechos de los trabajadores y hay una revelación de cómo funcionan esos algoritmos supondría una violación de los derechos de las empresas”, señala.

Ante este escenario, Solernou da por hecho que lo primero que van a hacer las empresas es obligar a firmar acuerdos de confidencialidad a los comités de empresa y a los propios trabajadores. “Es lo que presumo que va a ocurrir, porque así las compañías se cubren las espaldas y los representantes de los trabajadores se cuidarán mucho de utilizar la información de una manera torticera y dañina para las empresas”.

La profesora de la Universidad de Deusto resalta el papel cada vez más importante de los algoritmos en las empresas, donde se están utilizando para múltiples fines. “Se están convirtiendo en el secreto empresarial por antonomasia, y regularlos demasiado cuando aún no sabemos cuáles pueden ser los escenarios puede ser hasta contraproducente”, continúa Solernou, que entiende que se quiera exigir más transparencia sobre estos sistemas, pero advierte de la necesidad de hacer mucho más trabajo de campo: auditorias, informes y estudios de mercado para conocer más sobre cómo funcionan estos algoritmos, hasta dónde pueden ser dañinos y hasta qué punto podemos controlarlos técnicamente “porque los algoritmos de autoaprendizaje pueden tener vida propia”.

Fuentes patronales explican a este respecto que las empresas no tendrán ningún problema en revelar la información relativa a la toma de decisiones que afecta a los empleados, pero que el acuerdo alcanzado deja claro que hay ciertos datos, “relacionados con la propiedad intelectual”, que no tienen que ser hechos públicos. “Se deja en manos de las empresas la decisión de qué información proporcionar para no poner en riesgo el negocio ni los secretos empresariales”, explican.

Sergio de Juan-Creix, profesor colaborador de la UOC y experto en derecho digital, cree que hay una vía para defender que con esta nueva ley no hay que revelar propiedad intelectual. Según explica, los algoritmos sí están protegidos por unos derechos de propiedad intelectual, «pero la ley no dice que se revele todo el algoritmo sino las bases del funcionamiento del mismo, porque la finalidad es que los comités de empresa conozcan qué impacto tienen esos sistemas en las condiciones laborales de los empleados y para eso no necesita conocer con exactitud el algoritmo, pero sí cuál es la lógica de ese algoritmo, saber cómo funciona».

Lo que parece claro es que el uso de los algoritmos ya se ha colado en la negociación colectiva y ha llevado a la representación de los trabajadores de ciertos sectores a tomar medidas. Uno de los ejemplos más recientes, del pasado marzo, se encuentra en el convenio colectivo de la banca, que señala que “el desarrollo creciente de la aportación de la tecnología requiere de una implantación cuidadosa cuando se aplica en el ámbito de las personas”. El texto añade que los empleados “tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas”, así como “derecho a la no discriminación en relación con las decisiones y procesos, cuando estén basados únicamente en algoritmos”.

Lee más: elpais.com


Comparte con sus amigos!