Saltar al reproductorSaltar al contenido principal
  • hace 10 horas
Aimar Bretos y Luz Rodríguez hablan sobre el papel de los algoritmos en el mundo laboral. ¿Qué decisiones se toman en el día a día en las empresas en base a algoritmos?

Categoría

🗞
Noticias
Transcripción
00:00Luz Rodríguez, buenas noches.
00:02Buenas noches.
00:02Catedrática de Derecho del Trabajo de la Universidad de Castilla-La Mancha.
00:06Es un gusto que nos guíes en este Coordenada 25,
00:09que vamos a dedicar hoy al papel que tienen los algoritmos en el mundo laboral.
00:13Te lanzo una pregunta y tú me dices si voy en camino o no.
00:16¿A día de hoy, mi jefe es un algoritmo?
00:20Bien bonita es la pregunta.
00:21Bien bonita es la pregunta porque efectivamente como eslogan,
00:24es un eslogan fantástico para demostrar el impacto que están teniendo los algoritmos
00:29en la dirección de las personas en el trabajo.
00:32Pero yo soy de las que piensan que más allá del eslogan o un buen X
00:35o un buen título de libro, tu jefe no es un algoritmo.
00:38Tu jefe sigue siendo tu jefe, el que gana dinero con tu prestación de trabajo.
00:42Lo que sucede es que ahora esas empresas, esos empresarios, esos empleadores
00:46utilizan tecnologías de inteligencia artificial o algoritmos, son cosas distintas.
00:50Pero vamos a hablar de forma equivalente para dirigir el trabajo,
00:54para tomar decisiones e incluso para despedirte.
00:56¿Pero qué tipo de decisiones se trujó la del despido?
00:58¿En serio estamos en eso?
01:01¿Qué tipos de decisiones se toman en el día a día en las empresas en base a algoritmos?
01:05A ver, conocemos muy bien la toma de decisiones en el ámbito de las plataformas digitales.
01:11Plataformas digitales que todos vemos en la calle, de reparto o de coches,
01:15pero también plataformas digitales que no vemos porque son las plataformas digitales
01:19de programación, de traducción, de muchas actividades que se realizan
01:24mediante plataformas digitales.
01:26Y esta forma de actuar es, uno, se asigna tareas mediante el algoritmo,
01:30el algoritmo decide quién va a realizar una determinada tarea.
01:33Dos, mediante la monetarización y la supervisión a través de medios tecnológicos
01:38se evalúa la ejecución de la tarea y se evalúa y se puntúa a través de un score
01:43que nutre a su vez el algoritmo para que te vuelva a dar o no te vuelva a dar tareas.
01:48Entonces, a través de algoritmos se puede perfilar para seleccionar personal
01:52en cualquier tipo de empresas. A través de algoritmos se puede decidir un ascenso
01:58o se puede decidir una libranza, como la última sentencia que hemos tenido
02:01precisamente aquí en España, o quién está libre un día y quién trabaja otro día.
02:05Es decir, volvemos otra vez, quién asigna los servicios o tareas.
02:07Se pueden tomar decisiones a través de algoritmos que antes tomaban las personas.
02:11Pero, por ejemplo, un ascenso, has dicho, lo puede decidir un algoritmo.
02:15Pero ahí tienen que entrar muchos intangibles, ¿no?
02:18A ver, en teoría, un algoritmo es una operación matemática.
02:22Y en esa operación matemática, aparentemente, tenemos que nutrirle de algunas variables
02:27que la empresa ha decidido que va a tener en cuenta para nutrir el algoritmo
02:31que va a producir la decisión del ascenso.
02:34¿Cuáles son los nutrientes del algoritmo? Son los datos del pasado, imagínate.
02:39Vamos a pensar quién es más responsable en la empresa
02:42y quién sea más responsable en la empresa ascenderá.
02:44¿Cómo vamos a medir quién es más responsable en la empresa?
02:48Quién hace más horas extraordinarias, que tiene mayor disponibilidad.
02:51Y haces un peinado de tu plantilla de datos que necesitas para nutrir el algoritmo.
02:55Bien, aparentemente son datos objetivos, son datos neutros, pero no lo son.
02:59Todos lo sabemos.
03:00Quién tiene más disponibilidad en el trabajo,
03:02quien hace más horas extraordinarias, que no se va nunca a casa,
03:05quien no disfruta de determinados permisos,
03:07son más los varones que las mujeres.
03:09Así que si esos datos son los que nutren el algoritmo,
03:12el algoritmo decidirá naturalmente que ascienden los varones.
03:15Bueno, pero al mismo tiempo también va a tomar decisiones más objetivas que mi jefe,
03:20que se puede dejar llevar por favoritismos, por yo qué sé,
03:24por criterios que no son puramente activos del trabajo.
03:29Sí, yo siempre digo que vivíamos en una realidad analógica libre de discriminaciones y sesgos y prejuicios,
03:35y ahora vivimos una realidad algorítmica que está llena de discriminaciones, sesgos y todo este tipo de cuestiones.
03:41No, es verdad, antes un jefe o una jefa podía tomar una decisión completamente sesgada y completamente discriminatoria.
03:47De hecho, reaccionábamos jurídicamente, cada vez que nos la encontrábamos,
03:50reaccionábamos jurídicamente con nuestras normas porque se nos estaba discriminando.
03:54¿Qué pasa con el algoritmo? Que el algoritmo es muchísimo más difícil de detectar que está produciendo la discriminación.
04:00Primero porque es una especie de box, es una especie de caja opaca de la que sabemos muy poco, por no decir casi nada.
04:06Segundo, porque no conocemos los datos de los que está nutrido el algoritmo, todos esos datos de los que yo hacía antes referencia.
04:14Y tercero, porque los propietarios de los algoritmos protegen el secreto industrial del algoritmo
04:20y nos es muy difícil entrar en esa caja negra para saber si efectivamente está utilizando variables y criterios y pesos de las variables
04:27que pueden estar produciendo una discriminación.
04:30Y además, ante la sociedad se presenta así, esto es una verdad matemática, esto no puede ser, no puede estar sesgando, discriminando, es infalible.
04:37Pues miren, no. Lo que pasa es que es muchísimo más difícil detectar la discriminación en el algoritmo
04:42que detectar el prejuicio y la discriminación en una persona.
04:46Que no se corrige a sí mismo, no se depura a sí mismo el algoritmo de alguna manera.
04:48Claro, si está entrenado para depurar determinadas disfunciones que tiene, podría corregir esas disfunciones.
04:56Pero no nos olvidemos que los algoritmos están hechos al servicio de la toma de decisiones empresariales, en este caso concreto.
05:02Y las tomas de decisiones empresariales no están previstas para borrar determinados sesgos que quieren o que pueden producirse.
05:12Entonces, para modificar un algoritmo hay que querer modificar el algoritmo.
05:16Y a veces el algoritmo es así simplemente porque es útil y funcional a la toma de decisiones de la empresa.
05:21Cada vez más empresas nos plantean encuestas para ver cómo hemos vivido la experiencia de la empresa,
05:30si estamos contentos o no con cómo nos ha llegado el paquete y demás.
05:34¿Esas encuestas se utilizan para que después el algoritmo perjudique o favorezca a un trabajador?
05:40Es el nutriente fundamental, sobre todo en plataformas digitales, pero no solo en transporte se utilizan ese tipo de encuestas.
05:48Bueno, ya las encontramos incluso en los cuartos de baño según salimos en el aeropuerto.
05:52Se externaliza, si te das cuenta, se externaliza el poder de control de la empresa.
05:56En vez de ser la empresa la que controla si está bien o mal hecha una prestación,
05:59lo que hace es a ti como consumidor cargarte un poder que en el fondo es de la empresa.
06:03O sea, que además tú eres una persona con prejuicios como yo, eres una persona con sesgos como yo,
06:09y todos esos prejuicios o sesgos se introducen en nuestras evaluaciones.
06:13Y esas evaluaciones son las variables que tiene en cuenta el algoritmo para decidir, por ejemplo,
06:18si un trabajador tiene más carga de trabajo o menos carga, si tiene, por lo tanto, más ingresos o menos ingresos.
06:24Así que estamos a través de esta especie de juego, lo llamamos gamificación normalmente,
06:29a través de esta especie de juego de dos estrellas, tres estrellas, cinco estrellas que estamos jugando,
06:33al final estamos evaluando a una persona y en función de esa evaluación el algoritmo decidirá
06:38si tiene más carga de trabajo y, por lo tanto, si tiene más salario.
06:41Claro, pero yo puedo estar disconforme con un servicio que he recibido
06:45y que no tenga que ver con el trabajador al que al final va a penalizar esa puntuación que yo voy a poner.
06:51O sea, yo qué sé, el baño del aeropuerto, has puesto el ejemplo, está sucio.
06:54Puede ser porque ese trabajador tiene una carga de trabajo absolutamente loca
06:57y no le ha dado tiempo a que ese baño esté limpio.
07:00Y si yo pongo, efectivamente, está sucio, le van a empurar a él.
07:04Claro, si no hay diferentes canales de queja y tú lo que estás evaluando es la prestación del servicio
07:09del señor o la señora que te ha llevado un taxi, del señor o la señora que te ha llevado un reparto
07:14o del señor o la señora que te ha cuidado a tu padre o a tu madre porque está enfermo
07:18o del señor o la señora que está cuidando allí.
07:20Si no hay canales distintos de comunicación, solo tienes la score de un canal de comunicación,
07:24perdona, pero estás evaluando al trabajador y estás decidiendo la parte más importante
07:29de sus turnos, de su trabajo y de su salario.
07:31¿Tú contestas o no contestas en esas encuestas?
07:33Nunca.
07:34Entonces van a contestar otros por ti.
07:36Sí, eso es cierto.
07:37Pero precisamente para no participar en este juego grotesco suelo no contestar.
07:44O a veces contesto, a veces he contestado poniendo cinco estrellas.
07:48O sea, cuando es para muy bien.
07:49Sí, ahí sí.
07:50Ponme ejemplos del uso de algoritmo en la hostelería, por ejemplo.
07:55Podrían, pueden asignarse, imagínate una cadena que tiene siete restaurantes dispersos
08:00por la ciudad y tiene trabajadores con contratos a tiempo parcial a través del algoritmo.
08:06Pueden asignarse las tareas y pueden asignarse los descansos.
08:11¿En serio?
08:11Sí, claro. Carga de trabajo, disponibilidad.
08:15El algoritmo te permite, y esto es lo que hace más competitivas a las empresas que tienen
08:19el algoritmo, el algoritmo te permite hacer matching en tiempo real entre la oferta y la demanda.
08:23¿Dónde tienes la oferta?
08:25¿Dónde tienes la demanda y dónde vas a situar la oferta?
08:28Por eso siempre hay demasiados conductores o algunos conductores de Uber o de Cabify
08:34en un determinado lugar y hay menos.
08:36El algoritmo está haciendo matching en tiempo real y por lo tanto te puede decir
08:39hoy necesitaré en el establecimiento de tal calle necesitaré cinco y luego en el establecimiento
08:46de tal calle necesitaré dos.
08:47¿Es legal, por ejemplo, que le vayas amoldando los tiempos de descanso a tu trabajador según
08:53lo que te vaya diciendo el algoritmo que vas a necesitar en cada día y demás? ¿Eso es legal?
08:57En las plataformas, sea legal o no lo sea, en las plataformas es completamente así.
09:03De hecho, intrínsecamente, este tipo de trabajos quiebra la regla sobre jornada y quiebra la regla
09:09sobre igualdad salarial porque lo que hemos comprobado muchas veces es que dos personas
09:13que están en la misma posición les entran dos pedidos o les entran dos servicios de conducción
09:21y a cada uno de estos dos trabajadores le entran con dos precios distintos.
09:25¿Por qué? Ah, porque el algoritmo ha decidido que el precio sea diferente.
09:29¿Con base en qué criterio? No sabemos con base en qué criterio.
09:32En una empresa normal esto podría ser discriminación salarial.
09:36Claro, entonces esto...
09:37¿Y en las plataformas no lo es?
09:39Pues lo es claramente si se demuestra que está produciendo discriminación,
09:45pero es muy difícil porque lo que nos hemos encontrado con los trabajadores
09:48que hemos estado trabajando con ellos e investigando con ellos y entrevistándolos
09:52es que la mayor parte de los trabajadores que trabajan al servicio de un algoritmo
09:56no conocen los criterios sobre la base que se toman las decisiones por el algoritmo.
10:01Entonces, ¿cómo vas a impugnar o vas a enfrentarte a una decisión que puede ser discriminatoria
10:08o incluso rozar la legalidad si no conoces por qué se ha producido esa decisión?
10:12Pero tenemos derecho a conocerlo.
10:14Sí, tenemos derecho a conocerlo.
10:16Y lo tenemos porque...
10:17El derecho legal, ¿eh?
10:18Derecho legal a conocerlo.
10:19Hoy lo tenemos porque el Reglamento General de Protección de Datos,
10:22que es una norma europea, pero que tiene efecto directo sobre nuestro país,
10:27sobre todos los países de la Unión Europea,
10:29y además está recogido en una legislación, en una ley española,
10:32pero es más importante desde el Reglamento Europeo,
10:34nos dice que todos los ciudadanos tienen derecho a dirigirse a...
10:38Estamos aquí hablando de trabajadores y empresas.
10:40A su empresa para solicitarles.
10:42Uno, que les expliquen de forma clara las categorías de datos
10:46que están capturando sobre ellos.
10:49Dos, que les expliquen si están sometidos a un algoritmo o no.
10:52Y tres, que les expliquen de forma clara y sencilla la operativa del algoritmo.
10:56Ese derecho existe.
10:58Otra cosa es que lo conozcamos y lo ejerzamos.
11:00¿Esto se lo tengo que pedir yo a la empresa o lo tiene que pedir el comité?
11:03Eso es un derecho de acceso individual.
11:06Se puede solicitar por tu parte como trabajador o como ciudadano en un banco.
11:11Pero nosotros tenemos en España una legislación que fue absolutamente pionera en su momento.
11:16Ahora ya hay más legislaciones, pero que fue pionera,
11:19donde además de este derecho tuyo de pedir que te digan qué datos tienen
11:23y cuál es la operativa del algoritmo,
11:25la representación de los trabajadores de todas las empresas tienen el derecho a conocer,
11:29uno, si la empresa utiliza algoritmos que afectan a las condiciones de trabajo,
11:33dos, cuáles son las variables, los pesos de las variables
11:37y las reglas de programación que tienen esos algoritmos.
11:40Y ese es un derecho que hoy está en nuestro Estatuto de los Trabajadores
11:44y que tiene todas las representaciones de los trabajadores en todas las empresas del país,
11:48no solamente en las plataformas.
11:49Aquí hay gente que ha librado batallas interesantes en este sentido.
11:53Déjame que salude a Daniel Cruz.
11:55Buenas noches.
11:56Hola, buenas noches.
11:57Que es responsable de Transición Digital, Ecológica y Demográfica
12:00de Comisiones Obreras de Cataluña.
12:01Vosotros, Daniel, conseguisteis que Amazon terminara,
12:06bueno, desvelando el algoritmo que utilizaba en el centro logístico del Prat.
12:12Cuéntanos cómo fue aquello, porque además creo que era algo que generaba problemas en los trabajadores,
12:18que algunos desarrollaban paranoias y problemas mentales,
12:22porque no se sentían los objetivos de productivos, no sabían si estaban siendo vigilados.
12:27Sí, sí. Ojalá hayamos conseguido que Amazon desvele el algoritmo.
12:32De momento, lo que se ha conseguido ha sido que, por no haberlo desvelado precisamente,
12:36se le haya multado, sancionado, por primera vez.
12:39Aunque de forma simbólica, a nivel económico.
12:41Pero bueno, lo importante es que ya estamos poniendo los puntos sobre la SIE.
12:44¿De cuánto fue la multa?
12:46Bueno, la multa ha sido impugnada,
12:48pero la primera propuesta ha sido de entre 3.000 y 200.000 euros,
12:54porque hay varias multas, hay medios, sanciones que tienen que afrontar.
12:58Pero bueno, en cualquier caso, lo han apelado
13:00y en el próximo año, 2026, habrá un juicio
13:03y veremos hasta qué punto llega Amazon para no revelar la obligación que tiene de revelar los algoritmos.
13:08¿Pero por qué se niegan? ¿Qué pierden ellos?
13:11Bueno, es que al ser una legislación nueva en España,
13:14entendemos que Amazon no entiende por qué tiene que desvelar esa información.
13:18Amazon opera en todo el mundo con esas prácticas
13:21y solo en España se ha encontrado que hay una legislación
13:23que le está obligando a que haya una transparencia
13:26y que haya más trazabilidad en la toma de decisiones.
13:29Algo que para nosotros, como muy bien ha explicado Luz antes,
13:33es algo lógico, que los trabajadores tengamos derecho a saber
13:36cómo se toman las decisiones,
13:38pues para Amazon o para otras muchas empresas
13:40eso se consideran como una afrenta a su poder de organización de los trabajadores.
13:45Sí, porque además, a través del conocimiento de los algoritmos
13:48estás entrando directamente en el poder de decisión.
13:50Antes las decisiones, lo decías, Aymar las tomaba las personas
13:53y tú veías a las personas.
13:56Ahora las decisiones las toma una técnica, una operación matemática.
14:00A través del conocimiento que nos está hablando Daniel,
14:03logras entrar en los entresijos del poder de decisión empresarial.
14:06Por eso es importante que se conozca por parte de las representaciones de los trabajadores
14:11por qué se toman las decisiones, aunque se tomen como herramientas tecnológicas.
14:15Y segundo, las empresas, digamos, que ponen una barrera
14:17porque estás entrando en sus formas, en sus maneras de toma de decisiones
14:21y en por qué las toman.
14:22Daniel, en el caso concreto del centro de Amazon en el Prat,
14:26¿cómo condiciona la vida del día a día del centro, de sus trabajadores,
14:31el hecho de que todo esté regido por el algoritmo?
14:33Pues esa pregunta, precisamente, es la que se hace en las personas trabajadoras.
14:38No tenemos la respuesta porque, precisamente, nos están compartiendo ese algoritmo
14:42del cual tenemos indicios de que se está usando
14:44y que crea ese efecto paranoia que comentaba antes Luz
14:48sobre, como no sé sobre qué me está midiendo,
14:51por tanto, el trabajador está con incertidumbre constante.
14:54Cree que le están viglando constantemente y le afecta,
14:57y eso es algo que sí que se sanciona,
14:59que afecte a temas de la salud de los trabajadores,
15:01que no haya una prevención de los riesgos laborales
15:03como, por ejemplo, el hecho de, como me están midiendo constantemente,
15:08voy a vigilar cuándo voy al baño
15:09porque a ver si en este momento voy a perder la productividad,
15:12me van a poder bajar el salario, me van a poder despedir incluso.
15:16Entonces, nosotros como trabajadores tenemos derecho a saber
15:18qué se está midiendo, en qué momento y con qué propósito.
15:21Es entender eso.
15:22¿Hay empresas grandes, significativas, que sean 100% transparentes con este tema?
15:27Pues, por desgracia, tenemos que decir que no lo están siendo al completo.
15:33También hay que decir que la legislación, como hemos dicho,
15:36tiene relativamente poco tiempo,
15:38solo desde el año 2022, finales del 21,
15:41desde el año 22 tenemos esta legislación.
15:43Entonces, al ser una nueva normativa,
15:46hay empresas que no saben o se excusan en esa ingenuidad
15:49de que no saben qué tienen que compartir.
15:51Entonces, la respuesta corta es no la están compartiendo,
15:53o la respuesta larga es, puede ser que ni ellos sepan
15:56qué información tienen que compartir.
15:58O sea, que no siempre hay mala fe o una intención de salvaguardar
16:01la información más preciada de la compañía,
16:05sino que hay veces que efectivamente no tienen claro
16:07qué tienen que compartir.
16:09Seguramente, como en la mayoría de los casos,
16:11esta tecnología lo que están haciendo es externalizar
16:13ese servicio de creación de algoritmos a una empresa tercera,
16:17unos consultores, una empresa informática,
16:19que le organice, que le haga ese algoritmo.
16:21Muchas veces ni la propia empresa sabe con certeza
16:24cómo se toman estas decisiones.
16:25A lo cual, nosotros como sindicalistas,
16:27desde Comisiones Obreras, les advertimos de ese peligro.
16:30Que tienen que ser ellos los que sepan claramente
16:32cómo funcionan los algoritmos, cómo se toman las decisiones,
16:34porque puede ser que en un futuro tengan impacto negativo,
16:38aunque ellos no lo deseen.
16:40Claro, un algoritmo nunca va a ser capaz de empatizar
16:43con que yo tengo una mala racha,
16:45con que me ha dejado mi pareja,
16:47con que este mes, porque mi hijo está enfermo,
16:51no he conseguido cumplir con los datos de venta
16:53que se esperan de mí.
16:54¿Cómo se le pide empatía a un algoritmo?
16:58Pues mira, en este caso,
17:00Luz ha puesto el ejemplo antes de los turnos.
17:01Y yo, en este caso concreto, como sindicalista,
17:04te puedo poner en primera persona
17:05cómo he sufrido estos algoritmos
17:07en los que no son transparentes.
17:09Yo no sé si los usan,
17:10pero tengo indicios que he cambiado en el sistema
17:12y de golpe los horarios en mi empresa
17:16ya no se hacía una persona
17:17a la cual precisamente le podía pedir
17:19oye, el jueves por la tarde quiero ir a jugar a fútbol
17:22o el martes quiero ir a hacer clases de guitarra
17:24porque ella me decía que ya no tengo control sobre esto,
17:27ya viene determinado por otros sistemas
17:30y ahí ya no tengo acceso.
17:32Entonces, esta poca empatía se sufre
17:35y además los horarios, los biorritmos,
17:37no los respetan.
17:38Tú puedes entrar un turno de 12 de la mañana
17:39a 6 de la tarde y o al día siguiente
17:41de 6 de la tarde a 9 de la noche
17:44porque no tiene en cuenta
17:45que tú tienes que tener unos horarios establecidos
17:47y más en España que tenemos unos turnos
17:51en los que tiene que haber unos descansos establecidos,
17:53por ejemplo.
17:54Pues eso el algoritmo no tiene esa empatía, claro.
17:56Daniel Cruz, mil gracias.
17:57Buenas noches.
17:58Muchas gracias.
17:59A ver, Luz, yo no soy tecnófobo
18:02y a lo mejor esta pregunta te parece un poco ingenua,
18:04pero ¿el algoritmo puede usarse para mejorar
18:06el ámbito de trabajo y el ambiente de trabajo?
18:09Por supuesto, claro.
18:10Yo tampoco creo, yo no soy tecnonegativa.
18:15Creo que los algoritmos han venido primero para quedarse
18:18y segundo, no para sustituirnos,
18:21pero sí para aumentarnos,
18:22aumentar nuestra capacidad de conocimiento.
18:24Por ejemplo, en la medicina,
18:25por ejemplo, en la enseñanza,
18:27por ejemplo, en la ingeniería.
18:29En muchos sitios se están utilizando ya algoritmos
18:31para mejorar nuestra capacidad de conocimiento.
18:33Yo antes buscaba una sentencia y tardaba,
18:36no lo sé, muchísimo tiempo.
18:37Le doy un botón, el algoritmo,
18:39le pongo el dato que necesito
18:40y tengo todas las sentencias.
18:42Ese factor positivo de complementar
18:45la creatividad humana, la imaginación humana
18:48y darle mayores alas a nuestro conocimiento,
18:51lo que llamamos habitualmente aumentarnos,
18:54eso es muy positivo.
18:55Ahora que todos usamos en nuestro trabajo de alguna manera
18:59ChatGPT, Copilot o cualquier de estos motores
19:02de inteligencia artificial,
19:03¿la empresa puede monitorizar lo que yo le pido a ChatGPT?
19:07Por supuesto, eso y cualquier otra cosa.
19:10Si se hace a través de un dispositivo digital
19:12que es propiedad de la empresa,
19:14la empresa tiene capacidad para saber
19:18en dónde hemos estado
19:20y qué herramientas tecnológicas hemos utilizado.
19:23Es verdad que tenemos una expectativa razonable
19:25de privacidad, dice la legislación,
19:28pero por supuesto te pueden investigar
19:30en qué correos electrónicos has estado
19:33y si has utilizado ChatGPT o Copilot, claro.
19:35Luz Rodríguez, Catedrática de Derecho del Trabajo.
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada

43:07
Cadena Ser
hace 14 horas