MADRID, 10 (EUROPA PRESS)
La vicepresidenta segunda y ministra de Trabajo, Yolanda Díaz, ha presentado este viernes la ‘Guía práctica y herramienta sobre el uso de algoritmos en el ámbito laboral’, un documento en el que ha encontrado “retos muy importantes” y que pretende impulsar la transparencia en la aplicación de estas fórmulas.
El documento permitirá a los trabajadores y a las empresas cumplir con la obligación de información algorítmica y garantizar el derecho fundamental a la no discriminación con el uso de los algoritmos.
La Guía presentada consta de cuatro epígrafes articulados en información general, información sobre la lógica y funcionamiento, información sobre las consecuencias y otra información relevante.
Díaz ha comentado durante el acto que la implantación de estas nuevas formas de trabajo exige modernización a los agentes sociales, para que puedan adaptar la negociación colectiva a estas situaciones.
“Si no estamos aquí sabiendo de qué hablamos, nos pueden hacer retroceder. El primer llamado es a las empresas, incluso a las que no saben cuáles son las fórmulas que se están empleando (…), es un elemento de formación básico para modernizar la negociación colectiva”, ha dicho Díaz durante el acto.
INCORPORAR LOS ALGORITMOS EN LAS NEGOCIACIONES
Díaz ha instado a los agentes sociales a incorporar los datos en sus negociaciones, ya que en la actualidad representan una “cuestión vital para el desarrollo de la preservación de las relaciones laborales”.
La ministra de Trabajo ha insistido en la necesidad de usar la tecnología al servicio de los trabajadores para que esta no entorpezca los derechos laborales ni la vida de las personas. “Siempre a favor de la tecnología, de los algoritmos y las fórmulas matemáticas. Siempre generando esperanza, el reto es mayúsculo”, ha expresado.
La ministra de Trabajo ha hecho un alegato a favor de poner las matemáticas al servicio de la ciudadanía y compatibilizar los algoritmos con los derechos de los trabajadores. Por eso, ha subrayado que es “clave conocer quién diseña esta fórmula, cómo y con qué objetivos y finalidades” para detectar si hay sesgos o estereotipos que puedan generar algún tipo de discriminación.
En este sentido, Díaz se ha referido al algoritmo Frank, “que resultó no ser ciego”, como sentenció el Tribunal de Bolonia. En contraposición, Trabajo se está enfocando en el desarrollo de algoritmos en los que “la innovación y la tecnología sirvan para profundizar” en el Estado social y democrático de Derecho.
ALGORITMOS PARA RIESGOS LABORALES U HORAS EXTRA
Así, la cartera dirigida por Yolanda Díaz ha puesto en marcha algoritmos para la predicción de riesgos laborales o el algoritmo MAX, para el control de las horas extraordinarias. Además, Trabajo ha recordado la modificación del artículo 64 del Estatuto de los Trabajadores, que reconoce el derecho de los trabajadores a acceder a esta fórmula matemática para defenderse en caso de estar sufriendo alguna discriminación por el algoritmo y que se incluyó en la ‘ley rider’.
“Lo que estamos haciendo hoy es de máxima importancia, somos el primer país del mundo que ha regulado el trabajo en las plataformas digitales”, ha añadido.
TRANSPARENCIA ALGORÍTMICA
Díaz ha estado acompañada en el acto con los expertos encargados de elaborar la Guía, quienes al igual que la ministra han señalado la necesidad de combatir los “sesgos” de la tecnología para poder proteger a los trabajadores.
La experta Gemma Galdón, doctora en Políticas Tecnológicas por la Universidad Autónoma de Barcelona, ha explicado que el algoritmo pretende ser útil tanto para los trabajadores, de manera que puedan defender sus derechos, como para los empresarios, para que sepan qué tipo de algoritmo están comprando al proveedor.
Galdón también se ha referido a la “transparencia algorítmica”, para que los ciudadanos puedan conocer los parámetros y las variables con las que funciona el algoritmo.
“Si es algo plenamente legal se puede instalar sin ningún tipo de problema, si no, los sindicatos tienen un documento que les permite hacer más preguntas”, ha señalado.
De hecho, la experta ha alertado de que “se están tocando los algoritmos para que haya una opacidad en relación con el trabajador y sus representantes para ocultar lo que está ocurriendo”.
Al igual que Galdón, Anna Ginès, doctora en Derecho, ha aludido a la “opacidad” que a veces presentan los algoritmos y generan “un punto de precariedad” e “inseguridad” para el trabajador.
El experto Adrián Todolí, profesor de Derecho del Trabajo y de la Seguridad Social en la Universidad de Valencia, ha expuesto que el algoritmo tiene en cuenta tanto la regulación europea de protección de datos como el precedente de la Ley Rider.
“La europea es desde la perspectiva individual del trabajador concreto, no está pensando en el mundo del trabajo, mientras que la otra está pensando en el ámbito laboral desde el colectivo, no el individual”, ha apuntado.
En este sentido, la profesora titular de Derecho del Trabajo y la Seguridad Social de la Universidad Carlos III, Ana Belén Muñoz, también miembro del grupo de expertos, ha subrayado que España se adelanta a Europa al exigir este nivel de transparencia en los algoritmos.
No obstante, ha abogado por seguir avanzando, ya que países como Francia ya cuenta con regulación sobre sistemas de reconocimiento facial. “Parece algo muy lejano, pero se está haciendo”, ha dicho, al tiempo que ha alertado de los derechos de protección de datos e intimidad.
La elaboración de la guía también ha contado con la aportación del doctor en informática Javier Sánchez, que como sus compañeras ha recalcado la necesidad de que estas fórmulas sean transparentes.
“La primera dificultad es que compras un producto (algoritmo) a una empresa y no está claro que te vayan a contar cómo funciona”, ha dicho Sánchez, que ha recomendado identificar al vendedor y el uso del algoritmo.