Saltar al reproductorSaltar al contenido principal
  • hace 1 semana
El diseño adictivo, el ciberacoso y los fallos de moderación convierten a la IA en un riesgo para la salud mental.

Categoría

🗞
Noticias
Transcripción
00:00Estamos en una época muy compleja. El nivel de enganche es probablemente mayor que en drogas como el alcohol o el tabaco.
00:07La IA se está utilizando para acosar. Y no, la red social te lo está preparando exclusivamente para ti.
00:13La máquina simplemente está sacando una salida estadística que hay que valorar críticamente.
00:18¿Qué es la IA?
00:48Línea de la vida que te invito a probar y experimentar. Es un teléfono que está pensado para cuando uno se plantea estas cuestiones.
00:59Al margen de todo esto, vamos a analizar en este vídeo cómo realmente la IA te puede incitar a acciones lesivas o destructivas o al suicidio.
01:08Soy Antonio Flores y me gustaría analizar los casos en los que la IA puede influir en una persona a llevarla al suicidio.
01:18Hay cuatro grupos fundamentales. El primero es lo que se llaman espirales de recomendación.
01:24La IA no es un ente que te mande un mensaje diciendo suicídate o que te ponga al borde del precipicio para que te lances.
01:36Suele ser mucho más sutil. Hay motores dentro de las redes sociales fundamentalmente que te engloban en lo que se llama una espiral de recomendación.
01:46Es decir, para que tú pases más tiempo enganchado a esa red, a ese perfil, pues empiezan a ponerte contenidos que o bien te gustan mucho o bien odias con toda tu alma.
02:00Son contenidos muy polarizados que son los que realmente te despiertan tu interés.
02:04Si te ponen algo que tú más o menos sabes y no piensas que todo el mundo está de acuerdo con lo que tú piensas, pues pasas de largo y te vas a otro sitio.
02:12Esos contenidos polarizados, cuando alguien empieza con una dinámica de contenidos que no son realmente sanos, pues por ejemplo, imaginemos que alguien empieza a interesarse por el insomnio
02:23o empieza a interesarse por una dieta extrema, haciendo cosas raras con la alimentación, pues puede ser que la IA te siga recomendando comentarios y perfiles de personas que son realmente raras dentro de esa línea.
02:37Y esto lleve a un ecosistema, a un contexto, a un entorno que te rodea en el que empieces a pensar cosas extrañas realmente, porque toda la información que recibes es una información realmente extraña.
02:48Pero como es toda la información que recibes dentro de tu canal, piensas que es lo normal y piensas que es lo que está ocurriendo en el mundo entero.
02:55Y no, la red social te lo está preparando exclusivamente para ti.
02:59Estas espirales de recomendación también son aprovechadas por empresas como estrategia de marketing en lo que se llaman técnicas de microsegmentación.
03:08Una red social, como toda tu información está ahí, es capaz de dar toda esa información a un anunciante y ese anunciante hacer una publicidad muy dirigida hacia ti.
03:19Hay, desafortunadamente, empresas poco éticas que detectan perfiles vulnerables, perfiles que no son realmente, no están en su mejor momento de la vida,
03:28para hacerles publicidad y venderles servicios o productos que son realmente dañinos o perjudiciales.
03:35Ese es otro punto de la espiral de recomendación.
03:40Y como esto, pues todo.
03:42Te puedes imaginar que al cabo del día, desde que abres la primera red social de la mañana hasta que cierras la última de la noche,
03:48tienes ese riesgo de la espiral de recomendación.
03:50En casos extremos, te puede llevar a la autolesión o al suicidio.
03:56Después, tenemos otro caso que son los chatbots.
04:00Esto sí que se ha puesto muy de moda con ChatGPT y con otras herramientas de IA generativa con las que uno es capaz de conversar.
04:08Aquí hay riesgos de distintos tipos.
04:11Hay riesgos de que la propia herramienta no esté bien entrenada.
04:15Si nadie ha caído en la cuenta de que esa herramienta se pueda utilizar para buscar técnicas para suicidarte,
04:22pues puede ser incluso que la información con la que has sido entrenada sea defectuosa y empiece a proponerte ideas raras.
04:29Ni siquiera hace falta pensar en que alguien esté pensando en suicidarse.
04:33A lo mejor, simplemente, esa persona está pasando un momento de depresión o tiene un perfil más depresivo de lo normal.
04:40Y como la red no está entrenada, no ha previsto que haya personas con ese perfil ahí,
04:44pues lo que hace es incidir más y llevarla a un punto que nadie a priori ha controlado.
04:50Por eso, en estas redes, poco a poco, se van estableciendo barreras, barreras manuales,
04:55donde cuando alguien pregunte por un determinado tema o cuando alguien quiera tratar una determinada cuestión,
05:01pues la red tiene una norma que es de esto no hablo.
05:03Alguien le ha programado y lo quita.
05:06Esto, obviamente, tiene sus limitaciones porque alguien se tiene que dar cuenta.
05:08Es decir, esto es como cuando hay un accidente de tráfico y hasta que no se matan cinco personas en la misma curva,
05:14pues no se pone un límite de velocidad o unos reductores de velocidad o se pone a la pareja de la Guardia Civil para que nadie pase rápido.
05:20Pues aquí pasa exactamente lo mismo.
05:22Hasta que no pasan las cosas, nadie se da cuenta de que esa red está provocando una deriva hacia problemas bastante graves.
05:31En los chatbots hay otra parte importantísima, que no tiene que ver con la tecnología,
05:35tiene que ver con la psicología, que es que tendemos a humanizar lo que nos parece un rasgo o un comportamiento humano.
05:45Entonces, muchas veces tendemos a humanizar la máquina y tendemos a dialogar con la máquina
05:49y si la máquina empieza a darnos sugerencias y a darnos opciones, ideas,
05:54pues empezamos a pensar que es nuestro amigo y que nos está ayudando.
05:57Y realmente no es así. La máquina es una máquina. Punto.
06:00Está entrenada para lo que está entrenada y en función de tus estímulos, es decir, de lo que le estás describiendo,
06:05está contestando con un promedio de lo que contestaría cualquier persona en la faz de la Tierra,
06:10pero no tiene ninguna entidad humana.
06:13Pero si tendemos a humanizarla, pues igual que pasa con las mascotas o con cualquier otro caso
06:18que nos parezca que se comporta como una persona.
06:21Esto también es un riesgo porque hay gente que le da realmente credibilidad a lo que está diciendo la máquina
06:27y la máquina simplemente está sacando una salida estadística que hay que valorar críticamente.
06:32Como decía, pasando al siguiente punto, el tercero, estamos en el caso del acoso.
06:40La IA se está utilizando para acosar por determinadas entidades, determinados perfiles, determinados intereses
06:48y hay empresas que se dedican a prestar servicios de acoso en redes sociales que están generados por IA.
06:55Son troles, son haters, son personas que cuando se habla de un determinado tema, pues tienden a acosar de otra manera.
07:05Hay incluso acciones de acoso que son bastante dañinas en este sentido y que pueden llevar a una persona a suicidarse, como el doxing.
07:13En el doxing está lamentablemente haciéndose cada vez más famoso y es que hay perfiles que se dedican a publicar información privada
07:21o personal sensible de otra persona, solamente para que esa persona se sienta mal, ya sea rechazada por su comunidad,
07:29pues fotos íntimas, información que nadie debería saber.
07:33Este tipo de actitudes también generan ese resultado en algunas ocasiones.
07:39Hay gente que es suficientemente fuerte y puede combatirlo y se da cuenta del fenómeno que está ocurriendo
07:45y sabe que la vida continúa, pero hay personas que por el motivo que sea o están pasando una determinada situación de su vida y sucumben.
07:52Entonces, esto también hay que tenerlo en cuenta porque es otro factor que hay que limitar.
07:57Hay que limitar el acoso en las redes sociales y no solamente desde las autoridades, sino nosotros mismos intentar no caer en ese tipo de círculos
08:05y en el momento que veamos un poco de contenido envenenado, huir de ellos, porque no sabemos en dónde vamos a acabar.
08:11Y, por último, hay otro factor que es la deficiencia en la moderación.
08:18La moderación de los contenidos online cada vez empieza a ser más difícil.
08:23¿Por qué? Porque cada vez hay más streaming, cada vez hay más contenido en tiempo real,
08:27cada vez la gente quiere leer y ver lo que se acaba de publicar, no lo que se publicó hace una hora ni hace un día.
08:33Con lo cual, es muy difícil, a menos que tengamos un sistema de filtrado y de evaluación de todos los contenidos súper rápido
08:41para eliminar contenido que realmente sea dañino, pues hay contenido dañino que directamente se cuela
08:47y hasta que no pasa una hora o hasta que no pasa media hora no se puede eliminar.
08:52Con lo cual, pues también es importante saber en qué canales nos estamos moviendo,
08:56qué círculo de amistades tenemos en nuestras redes sociales, hay personas que admiten y aceptan a cualquier persona
09:03que les siga, que forme parte de su red y realmente no tienen idea de quién es esa persona,
09:09ni siquiera sabe si es una persona o es una IA con unos intereses oscuros para destapar información privada
09:15o para sacar algún problema y machacar literalmente a la persona que lo está aceptando.
09:22Entonces, estamos en una época muy compleja porque la IA está expandiéndose y madurando
09:31a la vez que nosotros estamos madurando con la IA, pero la recomendación fundamental para evitar situaciones
09:39que no hace falta ser un lumbrera es para saber que nadie tiene como prioridad quitarse la vida.
09:46Esto es una consecuencia de un montón de acciones, de un contexto, de una deriva en la que esa persona
09:52no ve otra salida más que el suicidio. Entonces, antes de llegar a ese punto, pues vigila cuestiones
09:59que aunque parezcan irrelevantes, no aceptar perfiles que no conoces, no meterte en contenidos
10:05y círculos de poca ética o moralidad, solamente por la curiosidad de verlos, nunca sabe.
10:13Yo digo que la tecnología y especialmente las redes sociales son como la droga.
10:17¿Por qué te preguntas cada vez que te vas a tomar una copa si es el momento del día
10:22o si es el día de la semana o cuántas copas te vas a tomar o si vas a conducir después
10:26o si vas a tener que trabajar después? Y sin embargo, con las redes sociales no te preguntas
10:30absolutamente nada cuando abres el móvil y te conectas a ella. El nivel de enganche es probablemente
10:36mayor que en drogas como el alcohol o el tabaco, pero nadie está advirtiendo de esto, nadie hace nada
10:42absolutamente porque se mueve muchísimo dinero. Pero antes de empezar a interactuar
10:47con un contenido que no conoces, piensa bien dónde te estás metiendo. Igual que no te metes
10:53en cualquier calle, en cualquier hora del día o de la noche, en cualquier ciudad, en cualquier barrio
10:58de una ciudad, pues tampoco deberías meterte en cualquier sitio en el entorno digital.
11:02Y, pues, aparte de eso, tener criterio. Yo siempre digo que el criterio es lo que más va a escasear
11:12entre nosotros dentro de los próximos años, el espíritu crítico, saber para qué. La pregunta clave
11:18del siglo XXI, de la próxima década, es ¿para qué? ¿Para qué estás haciendo eso? ¿Para qué estás consultando eso?
11:25¿Para qué estás aceptando ese perfil? ¿Para qué estás publicando ese contenido privado sobre tu vida personal?
11:31¿Para qué haces las cosas? Hay veces que no nos planteamos para qué, simplemente damos al botón
11:36o simplemente nos dejamos llevar por una corriente, por una dinámica y después vienen las consecuencias.
11:41Como digo, veremos, lamentablemente, más datos tristes sobre impacto negativo de la IA en las personas,
11:50pero también hay herramientas que poco a poco podemos ir implementando y adoptando desde nuestro punto de vista individual.
11:58Obviamente, los gobiernos, las entidades regulatorias tienen que hacer su parte, la están haciendo lo mejor que pueden,
12:04no están preparadas, todos lo sabemos, para trabajar al ritmo que trabaja la tecnología,
12:08tenemos un sistema regulatorio, un sistema jurídico más propio del siglo XIX, ya ni siquiera del XX que del XXI,
12:14pero hacen lo que pueden, pero eso no quita que tanto tú como yo como todas las personas que tienes a tu alrededor
12:21pongamos los mecanismos suficientes y correctos para evitar estas calamidades.
12:27Hasta la próxima.
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada