Saltar al reproductorSaltar al contenido principal
  • hace 2 días
Las compañías adoptan agentes autónomos mientras crecen las dudas sobre control, transparencia y dependencia tecnológica.

Categoría

🗞
Noticias
Transcripción
00:00Cada vez estamos acostumbrándonos más a que nos atiendan máquinas con inteligencia artificial
00:12en determinados servicios y es cierto que muchas veces preferimos la fiabilidad y la agilidad de
00:20la máquina, incluso el anonimato que ofrece a la hora de interactuar con ellas frente a una persona.
00:26También es verdad que hay empresas que se pasan tres pueblos y se me viene a la mente una famosa empresa
00:33que ha comprado la mitad o más de los hospitales de España que para todas las gestiones telefónicas
00:39ha puesto una IA que no es capaz de generar excepciones, que no tramita nada y que deja absolutamente indefenso
00:47al paciente. Pero bueno, esa es otra película de la que hablaremos otro día. Hoy me gustaría hablar de cómo
00:54los agentes de IA están sustituyendo a las personas en muchos servicios y qué implicaciones tiene todo eso.
01:02Para empezar, la lógica inicial es la pérdida de puestos de trabajo. Donde antes teníamos determinadas
01:09personas atendiendo telefónicamente o a correos electrónicos, a incidencias, etcétera, pues ahora
01:14tenemos a una máquina que con inteligencia artificial simula esa interacción. Ese es un riesgo que hay que
01:21gestionar. Va a haber muchísimas personas que progresivamente se van a ir yendo al paro y tendrán que reciclarse
01:27en otro tipo de empleos si es que los hay. Pero hay más riesgos. Hay un segundo riesgo que es el de pérdida
01:33de control. Cuando ponemos una máquina en un servicio de asistencia y lo dejamos como un agente autónomo,
01:41tenemos que garantizarnos que existe un botoncito digital para ponerlo en control manual.
01:48Y muchas veces esto no se hace. Si por el motivo que fuera la máquina se desconectara,
01:54se volviera loca, fallara, se apagara, el servicio se cae. Y ya estamos cada vez más acostumbrados
02:00a que empresas y servicios se denieguen, pues no se puede prestar el servicio porque se ha caído
02:06la máquina. Y esto no debería ocurrir. Siempre debería haber un mecanismo para pasarlo a control
02:12manual y que una persona pues pueda retomar el control, aunque sea parcialmente. Hay otro punto
02:19también importante, un riesgo importante, que es la opacidad de estos sistemas. Los sistemas de
02:24inteligencia artificial son cajas negras y todos los expertos estamos hartos en todo el mundo de
02:29decir que son cajas negras. Se autoconfiguran por dentro y nadie puede saber qué está haciendo
02:36qué dentro de ese sistema. Es como si quisiéramos entender dónde está nuestro pensamiento dentro
02:42del cerebro. Es imposible.
02:44Pues esto se traduce a una opacidad. Cuando un sistema de IA responde a alguien, a un paciente,
02:50a un cliente sobre alguna cuestión, pues nadie puede saber por qué ha respondido eso y por qué no.
02:57Solamente se pueden poner barreras al final. Pues oye, no vayas a responder nunca así.
03:01Pero esto es un filtro. Si la salida sale, pues la borro. Pero es imposible dar explicaciones sobre un
03:08servicio. Y eso pues no es ideal para una empresa que debería mantener el control de su negocio.
03:15También hay otro problema adicional, que son los sesgos. Las máquinas de inteligencia artificial
03:21están entrenadas con datos. Muchas veces, la mayoría de las veces, desconocemos qué datos son los que se han
03:28utilizado para entrenar las máquinas. ¿Por qué? Porque o lo hace un proveedor global, tipo ChatGPT,
03:34tipo Microsoft, tipo Google, tipo Amazon, que entrena con los datos que le da la gana y no dice
03:39cuáles son. O dos, porque lo hace un tercero, un proveedor, que utiliza una base de datos a la que no
03:46nos da acceso ni nos da visibilidad. Con lo cual, no sabemos realmente con qué está aprendiendo esa
03:50máquina a contestar a nuestros clientes. Eso también es otro riesgo que hay que tener en cuenta. Y además,
03:55ese riesgo se transforma en un riesgo de homogeneización. Vamos hacia una masa gris
04:01universal como humanidad, porque todo está siendo gobernado con la inteligencia artificial.
04:07La inteligencia artificial se está alimentando globalmente de los mismos datos y está produciendo
04:11salidas cada vez más parecidas para todos. Da igual que estemos aquí, que estemos en Singapur.
04:17Con lo cual, de nuevo, una falta o un riesgo que hay que tener en cuenta a la hora de implantar
04:23esas soluciones en un negocio. Pero hay más. Otro riesgo que tienen los sistemas de inteligencia
04:29artificial es debido a su rapidez, a su escalabilidad. Como son tan masivos, son tan rápidos
04:36dando respuestas, cualquier fallo se multiplica. Antes de que uno pueda parar y corregir, pues
04:41a lo mejor el fallo se ha extendido a miles y miles de clientes o de operaciones. También
04:46hay un problema de fraude, suplantación. Pues al final estamos poniendo una máquina que la empresa
04:53no está controlando al 100%. Es una máquina que procede, una IA que procede de un tercero y que podría
05:00en un determinado momento responder hacia unos intereses extraños que alguien programara desde
05:05fuera o ser vulnerable a ciertos ataques. Al final, cuando uno contrata con un megaproveedor,
05:11ese megaproveedor, por defecto, está siendo atacado por alguien en cada minuto del día.
05:18Pues todas estas cuestiones se traducen en un riesgo potencial, además de falta de privacidad.
05:24Ese anonimato que decíamos al principio que nos puede dar la máquina, pues a lo mejor cuando
05:29interactuamos con una máquina, con un agente de IA en un servicio de una empresa, esa información
05:34privada se está filtrando a una base de datos central del proveedor que esté prestando el servicio
05:40y que no somos conscientes de a dónde se está yendo otra vez de nuevo esa información,
05:45a qué otros servicios, a qué otros países, a qué otras empresas. Y esto enlaza totalmente con el riesgo
05:51de dependencia tecnológica. Parece que el mercado de la inteligencia artificial es como los inmortales,
05:58solo puede quedar uno. Cada vez hay más luchas encarnecidas entre unos y otros, más fusiones,
06:03más adquisiciones, cada vez quedan menos proveedores globales con más fuerza cada uno.
06:09Al final esto, para cualquier negocio, para cualquier empresa, supone una dependencia
06:13tecnológica. Una vez que uno se casa e implanta sistemas, agentes de IA en un determinado servicio,
06:20es muy difícil poder cambiar de proveedor el día de mañana. Y eso lo sabe el proveedor y se aprovecha
06:26de ello. Toda esta dinámica está provocando un cambio cultural acelerado. Las personas estamos
06:33comportándonos de manera diferente y creo que todos somos conscientes de que cuando uno
06:38interacciona con los demás, no es lo mismo que hace cinco años, la gente se comporta de manera
06:43diferente y los sistemas de IA están provocando ese cambio cultural acelerado que debemos saber
06:48gestionar también como sociedad. Probablemente no hay ningún político, yo por lo menos no conozco a
06:53ninguno, que esté siendo consciente de que esto hay que gestionarlo y gobernarlo desde arriba,
06:58desde las instituciones, pero a día de hoy se obvia por completo. Y por último, existe el problema de
07:05exigencia de responsabilidad. Aunque ya se están sacando leyes que indican que los sistemas, los
07:11agentes de IA siempre tienen que tener un humano como responsable por detrás, la realidad es que
07:17cuando una empresa implanta un agente de IA y ese agente de IA falla y el cliente se queja, la respuesta
07:23es que lo ha dicho la IA, yo no puedo hacer nada. Y esa ausencia de responsabilidad, pues también
07:29tiene derivadas, porque al final la cultura dentro de las empresas es la cultura de la irresponsabilidad.
07:36Como las máquinas lo hacen todo y son incontrolables y los pocos humanos que quedamos dentro de la
07:41empresa, pues no tenemos capacidad ninguna sobre lo que dice la máquina, pues si la máquina hace lo que
07:45le da la gana, pues será responsabilidad de la máquina. Como la máquina no tiene responsabilidad
07:49jurídica ninguna, ni puede hacer frente a nada, pues ya está. Ahí se diluye cualquier responsabilidad
07:55y vete a los tribunales, que además, tal como los tenemos en nuestro país, pues a lo mejor te atienden
08:00dentro de un año, dentro de dos, o a lo mejor hasta después de muerto, como ocurre muchas veces.
08:05Pues estamos en un escenario de indefensión. Creo que todo este panorama es un panorama de riesgos
08:12altísimo, pero siempre, como dicen los orientales, un riesgo es una oportunidad, con lo cual la oportunidad
08:18es enorme. Quien lo sepa hacer bien, quien sepa prestar un servicio con agentes de IA realmente
08:23correcto, pues va a tener una posición muy privilegiada y aunque las personas, los ciudadanos,
08:31al principio estemos un poco abrumados y tengamos que adaptarnos a esta nueva realidad dominada
08:37por los agentes de IA, pues poco a poco seremos cada vez más exigentes con ellos y quien lo haga
08:42bien, pues será premiado y quien lo haga mal, pues desaparecerá del mapa. Esa es mi predicción,
08:47pero mientras tanto, el consejo, por supuesto, es mucho cuidado con los agentes de IA y seamos
08:54cada vez más exigentes con las empresas que implantan agentes de IA y son absolutamente
08:59irresponsables porque al final ellos, ellas, dependen de nosotros como clientes. Si lo hacen
09:05mal, deberíamos castigarlos. Hasta el próximo vídeo.
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada