- hace 14 horas
Ulises Cortés advierte que la inteligencia artificial “no es empática y comete errores”, por lo que usarla como terapeuta puede agravar una crisis de ansiedad o depresión en un contexto de falta de especialistas.
Categoría
🗞
NoticiasTranscripción
00:00¿Cómo será la humanidad cuando la inteligencia artificial acompañe por entero nuestra vida cotidiana?
00:10¿De qué manera transformará la realidad virtual nuestras prácticas afectivas, amatorias, sexuales?
00:17La regeneración celular artificial nos aportará un día la vida eterna.
00:23¿Nos encontraremos algún día con seres que vivan fuera de nuestro planeta?
00:27Es tarea obligada para el periodismo reportar el conocimiento de vanguardia,
00:33conversar con la inteligencia que lo ha producido,
00:35interrogar a los distintos escenarios y divulgar ese entendimiento con generosidad.
00:57Los problemas de salud mental no dejan de multiplicarse. Así es la época en que vivimos.
01:21Hoy hablaremos de algunas de las razones que han transformado esta epidemia que hoy requiere tratamiento urgente.
01:30Uno de los asuntos que también vamos a revisar es la carencia de terapeutas, de psiquiatras, de especialistas en salud mental.
01:39O bien porque no los hay en número suficiente o porque es muy caro atenderse con un especialista.
01:46Por lo tanto, algunas de nosotros hemos acudido a preguntarle a la inteligencia artificial qué hacer.
01:53¿Una crisis de depresión? ¿Una crisis de ansiedad?
01:56¿Qué nos dice Chuck GPT? ¿Qué nos dice Groh cuando le preguntamos?
02:01¿Y qué tan inteligente es acudir a la inteligencia artificial para que nos atienda en esos malestares de nuestra salud mental?
02:08Hoy vamos a hablar con Ulises Cortés.
02:10Él es un especialista justamente en la intersección de estos dos temas.
02:13De un lado, salud mental y del otro lado, inteligencia artificial.
02:18Este es el tema de este episodio de Multiverso Milenio.
02:40Más allá del diagnóstico y la terapia, la expansión de la inteligencia artificial en la salud mental plantea una pregunta de fondo sobre cómo estamos redefiniendo el cuidado emocional en sociedades cada vez más individualizadas y digitalizadas.
02:59La popularidad de estos sistemas no solo responde a su bajo costo o disponibilidad inmediata, sino a la erosión en redes comunitarias, familiares y laborales que antes funcionaban como una contención emocional informal.
03:14En ese vacío, la inteligencia artificial aparece como un sustituto del escucha, pero también como un síntoma de la soledad contemporánea.
03:22Una tecnología que no surge para sanar la mente, sino para ocupar el lugar que han perdido los vínculos humanos, desplazando el problema del ámbito social al ámbito técnico.
03:35Ulises, el tema de la salud mental se ha vuelto muy importante en nuestra época.
03:40Y hay como la advertencia de que cada día se va a requerir mayor especialidad, mayor terapia para atender la salud mental, que pues más que un prejuicio social, se ha vuelto una evidencia social que requiere ser atendida.
03:56¿Cuál es la explicación? ¿Por qué ha emergido como un tema público, no solo privado, público muy relevante?
04:02Bueno, yo creo que hay dos factores importantes y aparte, desde el punto de vista económico, no es lo mismo en América que en Europa.
04:11En Europa, la salud mental forma parte de la seguridad social y no hay suficientes especialistas.
04:18En América, habiendo especialistas, es privada la mayor parte de la salud mental.
04:23Así es que el acceso a distinto tipo de herramientas de la inteligencia artificial ha puesto en jaque a los profesionales de un lado y otro.
04:31Porque si tú tienes algo que parece una consulta gratuita, con unas respuestas más o menos solventes y siempre positivas hacia ti,
04:40va a ser mucho más fácil que te acerques a esto gratuito que no.
04:44En cambio, en Europa, que hay una seguridad social que provee de un cierto tipo de salud mental o de ayuda para la salud mental,
04:52no tenemos especialistas suficientes y ahí el problema es que la gente hace cola y se hace muy necesario tener otro tipo de soporte para la consulta.
05:05Entonces tenemos dos problemas.
05:06Y aquí hay también que hacer otro tipo de diferenciación.
05:10Tú tienes los terapeutas que vienen, por ejemplo, del área de la psicología,
05:13que no te pueden recetar un tratamiento y solo te dan una terapia.
05:17Y tienes a los psiquiatras que te pueden dar un tratamiento, un tratamiento médico,
05:22que van a modificar tus circuitos neuronales a través de un tipo de fármaco.
05:26Y los otros que tienes la terapia.
05:28En Estados Unidos tienes el problema de que los fármacos son muy caros.
05:31En Europa son subvencionados por la seguridad social.
05:34¿Cuáles son, según tú y tu mirada, los principales problemas o las principales patologías que se están manifestando?
05:42¿Es depresión? ¿Es ansiedad? ¿Es estrés?
05:46Nosotros hemos visto el aumento, por ejemplo, del acoso escolar.
05:52El acoso escolar.
05:53Y claro, eso te genera un ambiente social en las escuelas primarias, secundarias,
05:57incluso en las preparatorias, muy importante.
05:59En Cataluña hemos visto, por ejemplo, el acceso pronto a la pornografía.
06:06A los ocho años empiezan a acceder porque internet no está limitado
06:12y, por lo tanto, tienes un aumento de las conductas violentas sexuales.
06:17Tenemos un acceso muy pronto a las ludopatías.
06:22Lo primero es un videojuego, una gamificación del videojuego,
06:25y a partir de ahí, lo que tú quieras.
06:26Pero es que los niños, muy pequeños, ya tienen una tableta de videojuegos conectada a internet.
06:33Y Andrés Castillo.
06:35No tenemos todavía suficiente historia como para entenderlo.
06:38Pero lo que sí queda claro es que hay un problema de apatia potestad y de vigilancia gubernamental.
06:44¿Por qué un niño tiene que acceder a un videojuego conectado a internet?
06:51Un juego gratuito.
06:52Los padres no pueden estar.
06:54Decías hace un momento, yéndonos a edades mayores,
06:58es difícil encontrar que te acepten a la universidad.
07:01Y luego sales de la universidad y es muy difícil que te encuentren en un trabajo.
07:04Entonces, las personas acaban, decías yo, un poco como estacionadas,
07:07esperando que algún día se desasolve la carretera y puedan entrar al mundo laboral.
07:12Ese es otro tema de tensión.
07:14Y el mundo laboral en sí mismo está transformando.
07:17Trabajos cortos, trabajo a distancia, no hay comunidad laboral.
07:23A ver, cuéntame un poco estos dos elementos, ¿cómo juegan?
07:26Bueno, yo creo que el parteaguas es la pandemia.
07:30Donde estuvimos confinados, se llevó a cabo el mayor experimento digital de la historia.
07:36Tenías a la gente conectada 24 horas al día y podías saber de toda su actividad diaria.
07:43¿Qué comían?
07:43Porque claro, todo lo comprabas vía internet, con quien hablabas, qué hacías, las horas, las clases, todo.
07:49Todo cambió.
07:49Y pospandemia tuvimos que empieza el trabajo a distancia y la gente ve la cuenta de resultados.
07:57Si tú no tienes que pagar la electricidad, no tienes que pagar la internet,
08:00la paga tu trabajador que se siente muy contento porque ahora está en su casa,
08:05ya no hay esta comunidad laboral un día a la semana, pero olvídate de los sindicatos,
08:10ya no hay esta fuerza importante, ¿no?
08:12Y esto también ha cambiado la actitud, ¿no?
08:16Trabajos cortos, casi por encargo, nada permanece.
08:21Exacto.
08:22Y subimos a esto también el tema de las relaciones humanas.
08:26La relación humana.
08:26Que algo se han transformado.
08:28Las amorosas, las amistosas, no solo las laborales.
08:30Todas.
08:31¿Cómo se han transformado y están afectando a la salud mental?
08:33Hemos cambiado de tener relaciones estables con amigos, parejas y familias a tener contactos, contactos digitales.
08:42Tus conversaciones son a través de grupos de WhatsApp, Telegram o cualquier uno de los otros.
08:47Simplemente el concepto de amigos y la perversión del concepto de amigos en Facebook.
08:51En vez de tener contactos en tu lista de contactos, tienes tu lista de amigos.
08:58Antes decías, yo tengo amigos, tengo conocidos y tengo contactos.
09:02Hoy ya no queda claro dónde está la frontera entre una cosa y la otra.
09:05Un contacto lo crees amigo y un amigo lo crees conocido.
09:08Claro, exacto, exacto, exacto.
09:09Y aparte, ¿cuántos?
09:12Y hay una gamificación también en el hecho de las relaciones.
09:16Eres más amigo de alguien a la que le das más likes o les haces más comentarios.
09:20Y eso también genera una adicción al medio que te distrae de la vida.
09:27Esto es lo de John Lennon.
09:28La vida pasa mientras tú estás haciendo planes.
09:31Ahora la vida pasa mientras tú estás conectado a Facebook.
09:33Antes de ir a la segunda parte de la conversación, hemos perdido capacidad de escuchar.
09:41Si tú me empiezas a hablar de algo que a mí no me interesa, descaradamente agarro mi celular y empiezo a verlo.
09:48Y luego lo guardo para decirte lo que a mí me interesa.
09:51Es decir, la conversación ha perdido fuerza.
09:54Y entonces ahora a alguien le tenemos que contar lo que nos pasa.
09:58Aunque le tengamos que pagar para que nos escuche eso también.
10:01Ese es otro asunto.
10:02A ver, yo creo que hay todo un juego industrial que te dice que ellos democratizan el acceso a la tecnología.
10:15Realmente lo popularizan y lo popularizan en su beneficio.
10:18No es democrático.
10:19En lo democrático hay un programa, tú votas sí o no y gana la mayoría.
10:23Aquí no.
10:23Aquí es solamente aceptación de una oferta tecnológica que toda la tecnología no es neutra y tiene unas intencionalidades.
10:30El hecho de tener a la gente menos cohesionada y más ocupada en mirar una pantalla también permite que se les modifique la forma de pensar de una manera fácil porque tú puedes recomendarles.
10:44Y detrás de todos estos algoritmos hay toneladas de psicólogos y sociólogos y filósofos que ayudan a mejorar los algoritmos para modificar el comportamiento de las personas.
10:54Esto es también una variable a considerar en los problemas de salud mental.
10:57Porque un algoritmo puede permitirte, por un lado, polarizar tu opinión o te puede desincentivar.
11:07Llevarte a la apatía.
11:08Llevarte a la apatía.
11:09Sí, llevarte a la apatía.
11:10Por ejemplo, el caso de Cambridge Analytica.
11:13Cómo hacer que el votante de un partido no vote a ese partido.
11:17Tampoco votará al otro, pero se abstendrá de votar.
11:20Entonces, tú puedes modificar o decidir qué es lo que te voy a producir para la siguiente temporada sin hacer una prueba.
11:28Solamente te conduzco para que tú seas el primero, que sepas cuál será la tendencia y tú conversantes que los demás.
11:34Los problemas de salud mental crecen o más bien estamos a cada día más conscientes de ellos.
11:43Las personas necesitamos espacios donde conversarlos, donde decir que estamos en situación de ansiedad o que nos ha pegado una depresión.
11:52Y además que sea un ambiente contenido.
11:55Necesitamos tener terapeutas, psiquiatras, médicas.
11:59Sin embargo, por los costos o por la falta de terapeutas suficientes, la inteligencia artificial está también ganando terreno ahí, en el de la salud mental.
12:11Esta es la charla que estamos teniendo con Ulises Cortés, justamente experto en estos dos temas, salud mental e inteligencia artificial.
12:18La siguiente parte de la conversación, pues hablaremos de los riesgos que significan no consultar a un robot,
12:25sino un programa, un teclado, una pantalla, que probablemente entienda muy mal lo que nos está sucediendo
12:31y nos podría llevar a una situación peor de la que estamos.
12:46Continuamos esta conversación sobre salud mental e inteligencia artificial.
12:51Las razones por las cuales estamos más conscientes o más liberados para solicitar ayuda en los temas de salud mental que nos acosan
13:00nos lleva hoy a buscar apoyo con mayor franqueza.
13:05Un apoyo que en algunos casos es caro porque no lo financia la seguridad social.
13:10O si lo financia la seguridad social, como ocurre en Europa, no hay suficientes terapeutas.
13:15Por lo tanto, la inteligencia artificial se ha vuelto una solución.
13:17Y por cierto, un gran negocio para los dueños de esa tecnología.
13:22¿Cuáles son los riesgos?
13:23De preguntarle a ChatGPT, por ejemplo, ¿cómo resolver una relación amorosa fracasada?
13:29¿O cómo salir adelante en una relación laboral que nos está generando mucha angustia?
13:34Pues probablemente los riesgos sean más elevados que los que implicaría poder ir con un ser humano que nos atienda.
13:41Continuamos esta conversación con Ulises Cortés, experto justamente en este tema.
13:46Salud mental e inteligencia artificial.
13:48Esto es Multiverso Milenio.
13:49En los últimos años, la investigación en salud mental e inteligencia artificial se ha desplazado del uso conversacional hacia herramientas clínicas de apoyo a profesionales como sistemas que detectan patrones tempranos de depresión o riesgo suicida a partir de cambios en el lenguaje, el sueño o la actividad digital, siempre bajo supervisión médica.
14:12En Europa, por ejemplo, el desarrollo de estas tecnologías está siendo acompañado por marcos regulatorios como el AI Act, que clasifica las aplicaciones de inteligencia artificial en salud mental como de alto riesgo y exige auditorías, trazabilidad y responsabilidad humana.
14:31En este enfoque, no busca sustituir al terapeuta, sino ampliar su capacidad de diagnóstico y seguimiento al subrayar una idea clave.
14:39La inteligencia artificial puede ser útil en salud mental solo cuando opera como herramienta clínica regulada y no como reemplazo del vínculo terapéutico humano.
14:50Ulises, en la conversación anterior hablábamos, pues sí, de una montada, de una crecida de la conciencia sobre los problemas de salud mental y al mismo tiempo una demanda cada vez mayor por personas cuya especialidad nos ayude a, digamos, a encontrarnos con esos problemas y eventualmente a solucionarlos con terapeutas.
15:09Psiquiatras, psicólogos. Algunos, en efecto, decías tú, recetando medicamentos, otros simplemente completando las narraciones que nos ayudan a entender dónde estamos.
15:19Pero sale caro tomar un terapeuta.
15:23Si has tuve una conciencia anterior, bueno, en Europa lo paga la Seguridad Social, acá en nuestros países americanos, en México, en Estados Unidos en general, se paga con recursos privados y normalmente la gente que tiene recursos la que puede pagar esos terapeutas.
15:35Ambas, ambas circunstancias llevan a un uso intensivo de la inteligencia artificial.
15:41A preguntarle a CharGPT, ¿qué me está pasando? Estoy deprimido. ¿Qué hago con este problema en mi familia?
15:47Tú eres un especialista en las dos cosas, en salud mental y también en el uso de inteligencia artificial.
15:53Te pedí ahora sí una reacción puntual frente a este fenómeno.
15:56Bueno, a ver, no es nuevo. En el año 63 ya apareció el primer producto basado en la inteligencia artificial para simular una consulta terapéutica.
16:07Se llamaba ELISA y era muy limitado.
16:10Pero era suficientemente interesante como para saber que conociendo cuál es el mecanismo de preguntas críticas que puede hacer un terapeuta de una cierta escuela,
16:21tú puedes probar a una máquina para que en una entrevista con un humano la máquina reaccione concatenando preguntas que permiten hacer pensar al usuario que del otro lado hay un terapeuta
16:34o al menos no distinguir si lo que hay del otro lado es una máquina o un humano.
16:40Y siempre se ha estudiado como un ejemplo de una construcción de un tipo de herramienta que podía ir mal, porque el diseño no era correcto.
16:51Y Paesmon, el que lo creó, abjuró de la inteligencia artificial, se fue a mi vida a Francia y es un defensor del uso, fue un preconizador del uso responsable de la inteligencia artificial.
17:05A ver, el uso responsable de la inteligencia artificial, primero ponerme en el plan de la persona que solicita la terapia, ¿es responsable con uno mismo pedirle a CHGPT diagnóstico si estoy deprimido y qué hago si estoy deprimido?
17:21No. A ver, tú piensa qué tamaño de falsedad puede ser un modelo masivo de lenguaje, CHGPT o dipisico, cualquiera de ellos, que en la primera versión, y se sigue manteniendo en el manual de usuario,
17:34la página 42, dice que las máquinas pueden sufrir alucinaciones. Y hasta donde yo sepa, una alucinación, desde el punto de vista humano, animal,
17:43es la alteración de la percepción de la realidad causada por una enfermedad mental o por la ingesta de psicotrópicos.
17:51No sabemos que las máquinas tengan enfermedades mentales y tampoco sabemos que fumen marihuana.
17:57Así es que alucinaciones no tienen, cometen errores.
18:00Y aparte no son empáticas, son incapaces de comprender las sensaciones, las emociones que los humanos expresamos y aparte están expresados utilizando un teclado.
18:15Así es que toda la parte emocional en el discurso, la mirada, la posición del cuerpo, que un terapeuta especializado captará.
18:25Nuestras neuronas espejo son maravillosas para eso, son capaces de adelantar mentalmente cuáles son las reacciones de mis palabras en ti
18:36o captar cuál es el sentimiento que tú tienes, modificando tu tono de voz o tu mirada, saber si me miras o no me miras, todo eso.
18:46La máquina no puede hacerlo.
18:46A ver, lo que estoy entendiendo es la ausencia de empatía.
18:50Empatía.
18:51Regresamos a la palabra clave.
18:53La ausencia de empatía entre un robot y un ser humano va a ser una limitante imposible de franquear.
19:01No habrá robot que pueda ser humanamente empático.
19:05No sé si hay otro tipo de empatía.
19:06Sí, cualquier animal.
19:08No, estoy hablando de un programa.
19:10Otra cosa es la inteligencia artificial que está incrustada en un robot que puede tener sensores como una cámara o puede tener otro tipo de sensores.
19:20Sudoración, temperatura.
19:22Todo.
19:23Eso es una vía de exploración.
19:26No está conseguida, pero podría llegar a tener un cierto tipo de realización, al menos en campos limitados.
19:33Por ejemplo, la construcción de robots asistenciales para personas con impedimentos mayores o personas que se quedan solas.
19:41Porque no hemos hablado de otro tipo de soledad, de otro tipo de enfermedad mental, que es la soledad y que afecta enormemente a las poblaciones.
19:49En México, afortunadamente, todavía no.
19:51Pero hay países que tienen ministerios para combatir la soledad.
19:55Y la soledad se mide más o menos con tres semanas de ausencia de contacto con otra persona.
20:03A ver, pero te detengo ahí.
20:05Tú estás diciendo, un robot con inteligencia artificial probablemente sea una solución.
20:10Descartado.
20:11Tú le tienes miedo a los programas, que no tienen esa capacidad de hacerse de información.
20:16No le tengo miedo. Digo que es una forma equivocada de construir una expresión de mis sentimientos, que son la manifestación de mis enfermedades mentales, por escrito.
20:32Y que de ese escrito, una máquina que no es empática y aparte no lee, si no solamente procesa el texto, una tecnología que se va a parsear, mira cuál es la coherencia del texto y ofrece una respuesta.
20:43A ver, déjame hacer la de abogado del diablo.
20:47Sí, señor.
20:47Hay una enorme cantidad de artículos que se han escrito, unos más serios, otros menos serios, algunos en revistas especializadas, calificados por pares, otros escritos por charlatanes.
20:57Pero la red generativa es capaz, frente a una pregunta que yo le hago, pues ver qué hay en ese universo de ideas y responderme a partir de ese universo.
21:07Algo debe ayudar, saber qué se ha dicho respecto a ciertos síntomas.
21:14Si tú eres un especialista que es capaz de entender el contenido profundo de aquello, saber si es verosímil o no, quizás.
21:23Que si yo soy un psiquiatra, un psicólogo, con todo ese material puedo hacer cosas importantes.
21:29Está bien que yo use ChatGPT para que me dé información.
21:31No está bien, pero es razonable.
21:33Si yo soy una persona que requiere terapia.
21:36No, no, porque primero las máquinas son asertivas y siempre positivas.
21:43O sea, siempre te dan la razón.
21:45Hay una caricatura muy divertida.
21:48Dice, ChatGPT, ¿este champiñón es comestible o no?
21:54Dice, es comestible.
21:55Y dice, lo siento.
21:57La siguiente viñeta dice, lo siento, aprenderé más a distinguirlas.
22:01Espero que las siguientes generaciones sepan agradecerlo.
22:07Entonces, claro.
22:09Pero es que me llevas a un problema serio porque abarató este tipo de programas el acceso a la salud mental.
22:18Y por eso mucha gente lo está tomando.
22:20Y tú decías en la conversión anterior, incluso empezaste ahí.
22:23Empezaste diciendo, necesitamos más personal dedicado a ofrecer.
22:31Y necesitamos, hablas de América también, agarratar los costos para que sea accesible.
22:37Entonces, ya me estás llevando a un terreno muy distinto después de hablar de inteligencia.
22:42Claro, es que hay alguien que quiere sustituir a los humanos por máquinas porque es más económico.
22:48Entonces, aquí tenemos que entrar a toda una historia más.
22:50¿Es cierto que la tecnología que sustituye a las personas en trabajos especializados nos sobra?
22:58¿A quién beneficia?
22:59¿Cómo sociedad queremos que ese tipo de trabajos sean hechos por una máquina?
23:05Si tú me dices, necesito robots que bajen a una central nuclear y no exponer a humanos a radiaciones, fair enough.
23:13No que vayan a Saturno y me traigan fotografías.
23:15Exacto.
23:15Ahora, ¿para tratar a otro humano?
23:17No.
23:19Porque para eso la parte nuestra social, de tocarnos, besarnos, olernos, es tan necesario que la estamos perdiendo.
23:26Estás provocando un cortocircuito, más de uno en mi cabeza, pero por un lado me dices,
23:31la tecnología, la inteligencia artificial va a arrasar con enorme cantidad de empleos.
23:36Sí.
23:36Del otro lado me dices, nos hacen falta recursos humanos dedicados a cosas que solo los humanos deberíamos hacer ser.
23:44No hay un problema más bien casi de economía, de encontrar un ajuste del mercado laboral para que en el tema de la salud mental esto se resuelva.
23:51Bueno, y en todo. Es decir, el problema es que tú tienes unos señores que Barufakis llama tecnofeudales, señores tecnofeudales.
23:59Estás hablando de los mosques, de besos, esos otros.
24:01Sí, sí, sí. Esta gentuza tiene un interés personal de aumentar su riqueza que ya es ingente.
24:07Y disminuir los beneficios porque creen que sus máquinas, aparte de sesgar tu forma de pensar y ver el mundo, van a resolver problemas para estos que no pueden pagárselo.
24:19Y ellos seguramente tendrán el mejor terapeuta del mundo.
24:22De un lado. ¿Y del otro lado?
24:24Del otro lado, lo que tenemos es que como sociedad no tenemos pensamiento crítico suficiente para exigir lo contrario.
24:33Nosotros queremos que en nuestros hospitales, en todos los hospitales del mundo, haya mejor calidad de servicio con los mejores profesionales bien pagados.
24:42Porque hacen algo muy bueno.
24:44Es decir, cuando una sociedad deje de adorar a unos jugadores de fútbol que ganan unas cantidades ingentes y no tenga como ídolos a los médicos que cunan, pues hay algo que está mal en la sociedad.
24:56Es lo que acabas de decir. O sea, el que uno tendría que cargar en hombros es al médico que le curó la rodilla al jugador de fútbol americano, no al jugador.
25:04Todo indica que es muy mala idea atenderse con la inteligencia artificial de los problemas que uno pueda tener de salud mental.
25:15Llevar la depresión o llevar la ansiedad o cualquier otro malestar para que esa inteligencia artificial, llámenle a usted Chatipiti o Brock,
25:25nos diga qué hacer o nos lleve a diagnosticar lo que nos está sucediendo.
25:30No hay forma de sustituir la empatía humana de la persona terapeuta a la hora de valorar a la persona paciente.
25:40Y eso es lo que nos dice Ulises Cortés.
25:42Cuidado por la ilusión de que la inteligencia artificial lo puede resolver todo.
25:46Hay temas que nunca podrá resolver.
25:49Salud mental e inteligencia artificial.
25:51Ese fue el tema de este episodio en Multiverso Milenio.
26:00Multiverso Milenio.
Sé la primera persona en añadir un comentario