La lógica informática se basa en sesgos humanos que, en ocasiones, son discriminatorios. La lógica informática (algoritmos) se basa en patrones y precedentes que no están exentos de sesgos humanos y su utilización a veces incurre en discriminaciones laborales. Algo que no exime de responsabilidad a las empresas.
UGT considera que los patrones sesgados y las decisiones deshumanizadas representan un auténtico peligro para los derechos de los trabajadores y que éstos deben primar sobre el interés comercial u organizativo de cualquier empresa.
El sindicato reclama acabar con la opacidad, muchas veces amparada bajo la excusa del secreto profesional, y constituir sistemas algorítmicos abiertos, accesibles y verificables por los trabajadores y trabajadoras, para evitar posibles discriminaciones.
Las empresas están extendiendo el uso de algoritmos para cuestiones íntimamente ligadas a las condiciones laborales de sus trabajadores y trabajadoras, como promociones, ascensos, reclutamiento y selección, cálculo de retribuciones, e incluso sobre procesos sancionadores y disciplinarios.
La opacidad con la que funcionan estos mecanismos, en la mayoría de las ocasiones bajo la excusa del secreto empresarial, protección de patentes o porque resultan “muy complejos de explicar”, pueden encubrir – como ya se ha demostrado- tratamientos laborales discriminatorios o, como mínimo, parciales.
Hay compañías que toman como dogma inmutable que el funcionamiento de un algoritmo es neutral porque se base en criterios matemáticos, cuando la experiencia evidencia que dichos procesos pueden atentar contra el principio fundamental de la igualdad de oportunidades.
Estos programas informáticos se desarrollan sobre patrones y precedentes, que no tienen que estar exentos de sesgos humanos (por ejemplo, por género, tendencia sexual, raza o religión). Las muestras recopiladas, si no son suficientemente ponderadas con fuentes diversas y equilibradas, pueden contaminar la lógica del proceso hasta convertirla en tendenciosa. En definitiva, estos sesgos de entrada, lejos de ser ecuánimes, perpetuarían muchos de los estereotipos actuales, fomentando tratamientos personales fuera de nuestro marco legal.
El automatismo no exime de responsabilidad
Los sistemas automatizados carecen de las garantías que proporcionan los sistemas tradicionales, como comprensión e interiorización del contexto, empatía, humanidad o responsabilidad directa sobre la decisión tomada. Es decir, la excusa que plantean algunas empresas, alegando que las ciertas decisiones las toma “una máquina”, una suerte de caja negra impenetrable, no las eximen de responsabilidades. Ambos factores (patrones sesgados y decisiones deshumanizadas) representan un auténtico peligro para los derechos fundamentales de los trabajadores.
El interés comercial u organizativo de una empresa nunca debe primar sobre los derechos legales de los trabajadores. La libertad organizativa de una compañía no es un valor superior al principio fundamental de la igualdad de oportunidades. Incluso el novedoso Reglamento de Protección General de Datos consolida la imparcialidad intrínseca de las decisiones que se toman sobre nuestras condiciones laborales, al incluir el derecho a conocer si nuestros datos están siendo tratados de forma “leal y transparente”, en especial cuando se toman decisiones automatizadas, aportando al interesado información sobre la lógica informática (algoritmo) aplicada en cada caso.
Para evitar situaciones que hagan peligrar estos derechos, UGT defiende la necesidad de construir sistemas algorítmicos abiertos, accesibles y comprensibles, que puedan ser verificados por los trabajadores y sus representantes, al objeto de comprobar su ecuanimidad, fiabilidad y transparencia, porque la automatización no puede convertirse en sinónimo de oscurantismo e injusticia social.