- hace 1 semana
La Inteligencia Artificial ya no solo ayuda a escribir textos; ahora está fabricando candidatos. ¿Sabías que el 90% del contenido político en 2026 podría ser generado artificialmente?
Categoría
🗞
NoticiasTranscripción
00:00Los riesgos electorales con la inteligencia artificial.
00:09De esto y más, platicaremos con dos expertas, María Garduño y Mónica Hernández.
00:15Comenzamos.
00:18En los últimos años, la inteligencia artificial generativa ha permitido crear y distribuir videos, audios, imágenes e incluso textos que parecen reales, pero no lo son.
00:28Esto ha provocado que los gobiernos a nivel mundial enfrenten serias dificultades en sus procesos electorales, ya que los votantes deben distinguir entre lo verdadero y lo falso, afectando la confianza en las instituciones democráticas.
00:42Los deepfakes son quizá el riesgo más peligroso y difícil de contrarrestar porque pueden simular declaraciones completas con voz e imagen de candidatos, generando una crisis de confianza o sembrando dudas sobre temas clave.
00:54Pues aunque estos fraudes se desmientan, el daño estará hecho.
00:59A su vez, bots impulsados por inteligencia artificial pueden inundar redes sociales con mensajes diseñados para persuadir grupos específicos, por ejemplo, jóvenes, votantes indecisos, o ciertas comunidades, amplificando narrativas falsas.
01:14Por otro lado, este entorno ha permitido que algunos utilicen una práctica denominada Liars Dividend, en donde algunos políticos pueden desacreditar pruebas legítimas calificándolas de deepfakes, protegiendo así su reputación frente a culpabilidades reales.
01:29Ante esto, algunas plataformas como TikTok han prohibido el contenido político generado con inteligencia artificial durante procesos electorales, obligando a etiquetar o incluso detectando automáticamente contenidos generados de esta forma.
01:45¿Qué tanta influencia tendrá este tipo de contenidos en las próximas elecciones?
01:49Mujeres con M, de Milenio.
01:59¿Lo más riesgoso son las deepfakes? ¿Y qué es eso?
02:06Mónica, ¿cómo estás? ¡Qué gusto!
02:08Muy bien, un gusto, Elisa.
02:09Pues la verdad es que sí es uno de los problemas más recientes que hemos tenido, porque es esta suplantación de identidad que pueden hacerse pasar por prácticamente cualquier persona.
02:18Pueden ser tú, pueden ser yo, y esto es donde realmente radica el peligro entre no poder diferenciar.
02:24Hablaremos un poquito más de ello.
02:25Y lo deepfake se refiere a que está muy bien hecho y no logras entender, o a qué se refiere exactamente el término.
02:34Justamente se refiere a las personas que se llaman personas sintéticas en el tema informático, los conocemos así, y es cuando ya no somos capaces de identificar si somos una persona real o somos una simulación que tiene los mismos gestos, las mismas expresiones, pero no sabemos si es real o no lo es.
02:51¿Y cómo nos va a ir en las próximas elecciones y en las futuras elecciones, María?
02:59Mira, la realidad es que la inteligencia artificial ha traído muchísimas preguntas al respecto de estos, ahora sí que de los riesgos electorales, de todas estas preguntas de esto es real, me está mintiendo, qué está pasando con la democracia.
03:12O sea, realmente nos trae muchas, muchas cuestiones. Yo lo que te puedo etiquetar es que todos estos riesgos responden más a problemas sistémicos estructurales que ya existen y que solo lo amplifican.
03:25De hecho, fuera de la cámara estábamos comentando, las big fake, las noticias falsas existen mucho antes de que la inteligencia artificial fuera incluso una idea.
03:34Sí.
03:35Entonces, la verdad es que no hay nada nuevo bajo el sol, solamente que la inteligencia artificial llega como una herramienta gigantesca para bien y para mal y para intermedio.
03:46En ese sentido, podríamos aprovecharlas muy bien y seguramente así sucede, pero también para, pues para engañar, para mentir, para confundir, ¿no?
04:03Y los debates en medios, cuando hablábamos de posverdad, pues ahora también hay que meter ingredientes nuevos para irnos acostumbrando, pero ahí están, ahí están y hay que saberlas utilizar de la mejor manera.
04:18¿Cuál sería tu recomendación, Mónica?
04:20Sí, totalmente. Y es que partamos justo del concepto inicial de dónde sale todo esto, que es el famoso concepto de la inteligencia artificial,
04:26que básicamente es un software, un programa capaz de simular situaciones que hace un humano.
04:32Por ejemplo, el tema del aprendizaje es lo principal, la raíz principal de la inteligencia artificial y que de ahí ese aprendizaje lo puede adaptar a muchas cosas.
04:41Tenemos inteligencias artificiales que están haciendo música, que están haciendo video, como son los deepfakes, de ahí parten.
04:49Y es ahí donde se vuelve a ser un poquito más peligroso el uso que se le puede dar.
04:53Pero ¿qué se puede aprovechar? Se puede aprovechar para prácticamente todo, porque son sistemas capaces de aprender y de ir mejorando para perfeccionar cualquier actividad que se les otorgue.
05:03¿Y cuáles serían como las buenas prácticas que se pudieran dar, por ejemplo, en procesos electorales?
05:10¿Ya hay reglas claras? ¿Se están debatiendo?
05:13¿Estamos años luz de, bueno, o muy lejos de comenzar realmente a estructurar en relación a la velocidad que también va la inteligencia artificial y estos aprendizajes?
05:24Realmente no. Ya existe regulación. El problema es este. La inteligencia artificial está caminando tan rápido que evidentemente nuestros legisladores y los legisladores del mundo, la verdad, no pueden ir al paso.
05:36En Europa existe, que es en este momento la más avanzada, la legislación más completa, por así decirlo, la IAAC, es lo que tenemos ahorita. En Latinoamérica aún se está trabajando.
05:49Al respecto, en México lo que se tiene es, acaban de enviar la iniciativa con respecto a la reforma electoral.
05:55Y en ella incluyen el tema de inteligencia artificial. Se toca brevemente, sobre todo con esta parte en la cual aclarar si un contenido está hecho a través de inteligencia artificial.
06:06Además, también se empieza a hablar de las sanciones y las prohibiciones con respecto a estas ultrafalsificaciones o deepfakes.
06:16Entonces, estamos avanzando. Pero, ¿sabes algo? Del otro lado, también sí me gustaría hablar bastante de los beneficios que ha traído, sobre todo en temas de gestión.
06:24Al final de cuentas, la inteligencia artificial, además de que te ayuda a reducir costos, también te ayuda a agilizar procesos.
06:30En Indonesia, por ejemplo, desde el 2021, si no mal recuerdo, justamente el tema del padrón electoral se hizo una revisión a través de la inteligencia artificial en la cual se vio si había duplicados,
06:41se vio si había información no correcta o que incompleta. Entonces, tiene su lado bueno.
06:47Porque se agilizan procesos y, por supuesto, también hay una puntual también mejora, me imagino, en contenidos.
07:00Sí, se utiliza también de la manera correcta, ¿no? Pero en general puede ser una herramienta también en ese sentido, ¿no?
07:08Sí, totalmente. Lo pueden aprovechar para muchas cosas. En el tema del área médica se está utilizando, por ejemplo, para tratar de tener diagnósticos.
07:16Hay países en Asia específicamente donde ya la primer consulta es con una computadora que tiene inteligencia artificial
07:22y tú le vas poniendo los síntomas que tienes y ellos ya te tratan de canalizar con el departamento y el doctor,
07:28que puede ser más adecuado para tratar los síntomas que tú tienes.
07:31Entonces, sí puede traer muchos beneficios si se utiliza de la manera correcta.
07:36Lo estamos viendo mucho en autos que tienen conducción autónoma.
07:39Lo estamos viendo en cómo se va maximizando todo el tema, por ejemplo, de la programación, el desarrollo de código,
07:45cómo se va perfeccionando. Tiene áreas de implementación bastante grandes.
07:50Y en el tema en particular del uso político, digámoslo así, pero lo vamos a ver de alguna manera más intenso en época electoral,
08:01como todo. Nosotros recuerdo que hace años hablábamos de la guerra sucia y todos estos temas que hemos visto
08:10que lo utilizan los candidatos, candidatas y en contra de otros. En fin, que no de una manera no muy ética.
08:20Entonces ahora, cómo se podrían utilizar estas nuevas inteligencias?
08:26Mira, la realidad es una vez más bien agilizar la inteligencia artificial.
08:31No está creando nada nuevo. Si estamos hablando de guerra sucia, lo que va a hacer es que sea más rápida.
08:37Vamos a tener estas inteligencias que están creando audios, imágenes, videos que pueden ser atribuidos justamente a diferentes actores políticos.
08:47Eso de hecho pasó en Brasil en las pasadas elecciones.
08:49Cinco candidatas particularmente fueron víctimas de estas ultrafalsificaciones en las cuales salían como contenido pornográfico.
08:57Evidentemente afectó y aquí en México eso se lo podría considerar violencia política de género para empezar.
09:04Entonces, cómo va a afectar en el sentido de las campañas?
09:08Mira, si vamos, no, si nos vamos por el lado bonito, va a agilizar las campañas, va a poderse hacerse más, más simple, más fácil,
09:17va a poder llegar a diferentes, diferentes personas un poquito más personalizado.
09:23Pues en el otro lado también tienes la parte de la desinformación, la creación de estas granjas de bots,
09:29las informaciones, la información falsa, todos estos temas.
09:32Ahora, si queremos ser imaginativos a futuro para el INE, nuestra institución, tal vez en un futuro puede entrar en la gestión,
09:40pueda ser una parte de ayuda y más si tienes en cuenta que el gobierno actual busca tanto la austeridad.
09:45La IA puede ser una forma en la cual se puede reducir costos en una institución tan grande y ciertamente costosa como es el INE.
09:54Y a ver, con este tema de las granjas de bots, por ejemplo, ya hay herramientas para combatirlas?
10:02Porque también lo que hemos visto y esto me parece gravísimo es que afecta derechos fundamentales,
10:08por ejemplo, el derecho a la información o la libertad de expresión,
10:13porque irrumpe en una conversación que pudiera ser auténtica y de pronto, pues si llegan estas granjas de bots
10:23o personas que utilizan la inteligencia artificial, pero están pagadas para bloquear esa comunicación
10:31que se pudiera dar de manera muy franca.
10:35¿Hay algo que ya se esté haciendo para contrarrestar esto?
10:38Hay muchos esfuerzos y aquí es un tema bastante interesante que me gustaría partir en dos.
10:43La primera es justamente las granjas de bots, que básicamente son gente con servidores,
10:48con computadoras e incluso celulares maximizando la información,
10:51que en ocasiones pues es información que es incorrecta o que es falsa
10:55y están maximizando, por ejemplo, los deepfakes, están haciendo que un video se vuelva a virar.
11:00Esto es lo peligroso porque ellos maximizan la información correcta o incorrecta.
11:04La segunda parte es acerca de la suplantación de identidad a través de los deepfakes.
11:08Aquí sí hay muchos sistemas.
11:09De hecho, hace aproximadamente dos años conversaba con el exdirector de Telefónica Movistar en Europa
11:15que trae varios proyectos para combatir esto.
11:18¿Qué están haciendo?
11:19Pues implementar múltiples herramientas que detecten si una persona es humana
11:23o es un humano sintético, como lo decían.
11:26Parte de eso tiene que ver mucho con el escaneo de rostro.
11:28Es aquí donde también va a haber un tema que seguramente van a complementar,
11:31pero es cómo están utilizando, por ejemplo, el iris, el brillo de los ojos
11:36para identificar si es una persona, cómo se mueven los ojos, cuántas veces parpadea una persona
11:42para tratar de identificar si con cierta cantidad de patrones
11:45que vienen siendo todavía identificables en un humano real,
11:49pues puedes detectar si eres irreal, eres sintético o eres real.
11:53Está bastante interesante toda la investigación que Eche Malón se está haciendo
11:56y bueno, ese es solo un ejemplo de lo que se está haciendo a nivel mundial.
11:59Hay muchísimos proyectos más también ahí.
12:02Ahora, pero por lo pronto, qué complicado, porque los expertos pueden decir,
12:06bueno, esto es fake o deepfake.
12:11Sin embargo, los consumidores a veces se la creen.
12:15Por ejemplo, yo les comentaba fuera del aire que hay una imagen que es mía
12:20en el estudio de Milenio, dando las noticias, pero con otra voz y diciendo otras cosas,
12:26y que invierta usted, no sé qué.
12:27Pero la voz, yo lo veo falso, sin embargo, hay gente que me ha mandado mensajes
12:33pensando que es real.
12:35Entonces, pues digo, no es tan fácil ya en esta cantidad de deepfakes que intencionalmente
12:45se difunden ir distinguiendo, ¿no?
12:48O siempre habrá quien pueda caer en el engaño fácilmente.
12:52Sí, por supuesto.
12:53Y la verdad nos traen en esta parte en el cual, si lo podemos poner así,
12:57es un colapso de la verdad.
12:58Y estamos perdiendo la fe no solamente en las instituciones democráticas que tenemos,
13:03sino también en ciertas figuras políticas.
13:07A final de cuentas, sí cuesta trabajo determinar si es una verdad o no es una verdad.
13:11Y lo peor de todo es qué pasa cuando una imagen es real
13:14y la persona a la cual se le atribuye te dice, oye, eso es inteligencia artificial.
13:20Entonces estamos...
13:21También está el otro lado.
13:22El otro lado, por supuesto.
13:24Fue la inteligencia artificial.
13:25La idea lo hizo, claro.
13:27No, claro.
13:28Y es una cuestión muy importante, pero una vez más, sigue siendo una herramienta.
13:32Muy coloquial.
13:34Un martillo te descalabra o construye una casa.
13:37La inteligencia artificial funciona así.
13:39Claro, te puede crear cosas que puede alterar la realidad,
13:42que puede alterar tu percepción y de tomar ciertas decisiones,
13:46pero de la misma forma te puede informar.
13:48Y eso es algo que se ha hecho particularmente,
13:50se hizo en Japón hace unas elecciones,
13:52en las cuales había avatares que te contaban de una forma mucho más amigable
13:56cuáles eran las propuestas.
13:57Entonces la información estaba en la palma de la mano
14:00y eso permitía a la ciudadanía tener el acceso a una información más cercana
14:06y a la capacidad de tomar una decisión más razonada
14:10y justamente por esta nueva información.
14:13Y existe esta legislación en donde se tiene que poner
14:18que se crea con inteligencia artificial algo o es opcional
14:22o cómo está funcionando esto.
14:25El tema de legislación creo que aquí me apoyarán un poquito más,
14:28pero en el tema de las opciones que las mismas redes sociales nos otorgan,
14:32por ejemplo, Instagram ya te permite que cuando tú subas un contenido
14:35que está hecho con inteligencia artificial,
14:37pulsas un botón para decir que eso ha sido generado con inteligencia artificial.
14:41Entonces sí están las herramientas para poder aclarar eso,
14:44pero no siempre lo hacen.
14:46En temas de legislación, pues creo que ahí sí.
14:48Bueno, como ya mencioné, una parte de la reforma electoral
14:54es justamente incluir en todo el tema político
14:56si algo está creado con inteligencia artificial.
14:58Entonces, si se aprueba, serán de los primeros pasos,
15:01al menos en México, de algo más firme con respecto a inteligencia artificial.
15:05Sin embargo, en el mundo, particularmente en el mundo electoral,
15:08sí ha habido algunos avances.
15:09En el 2023, por ejemplo, partidos suizos llegaron a un acuerdo más,
15:14ahora sí que más personal, menos administrativo,
15:17con respecto a qué se podía usar y qué no se podía usar
15:19con respecto a inteligencia artificial.
15:21Y de igual manera, en el 2024, con las elecciones del Parlamento Europeo,
15:26se creó este código de conducta.
15:28Pero una vez más, es un código de conducta que es muy...
15:32Bueno, tiene que haber esa voluntad política.
15:34Entonces, hay que preguntarnos si el siguiente año,
15:38con tantas elecciones,
15:39habría esa voluntad política de parte de los partidos mexicanos
15:42para sentarse todos en una mesa y decir,
15:44oye, no vamos a usar esto para la guerra sucia.
15:47Hay límites.
15:48Ay, ay, ay, ay.
15:49Vámonos a soñar a lo bonito.
15:52No, pero es este código muy ético, si me preguntas.
15:56Es un código de conducta en el cual te permite sentarte en la mesa
16:00y decidir cuáles son los límites.
16:02Porque es indispensable empezar a poner los límites,
16:06sobre todo con una tecnología que en este momento,
16:09y Mónica me lo podrá explicar mucho mejor,
16:12no sabemos realmente el alcance.
16:14A ver, porque...
16:15Y de esos alcances, ¿qué vislumbras?
16:18¿Qué ves a corto, mediano o largo plazo?
16:23¿Qué te llama la atención?
16:24Guau, pues aquí sí es una gran pregunta.
16:26Porque podemos decir que el centro de la tecnología
16:28gira en torno a la inteligencia artificial.
16:30Tal es así que la empresa más valuada a nivel mundial
16:35es justamente NVIDIA,
16:36que es una empresa que se dedica a hacer tecnología gráficas
16:40para inteligencia artificial.
16:42Es el uso que actualmente se les da.
16:44Y pues allí se ha convertido en la empresa por encima de todos.
16:47O sea, el desarrollo de inteligencia artificial
16:49ahorita viene con todo.
16:51¿Cuáles son los siguientes pasos?
16:52Bueno, lo he visto ahorita, justo regresé del CES en Las Vegas.
16:55Se está implementando inteligencia artificial en todos lados.
16:58Como les decía, se puede implementar desde traductores
17:00que te van a ayudar a hacer conversaciones en tiempo real.
17:03Se puede implementar en traductores que incluso para perros
17:06están utilizándolos.
17:07Se lo pones en un collar y tratas de traducir un poco
17:10de que te diga tengo hambre o quiero salir o cosas así.
17:12Tal vez que suenen un poco absurdas.
17:14Pero la inteligencia artificial está al alcance
17:16para implementarse en cualquier cosa.
17:18Los siguientes pasos en, no sé, los 5 o 10 años
17:21podría ser mucho tema médico.
17:23También hacia la misma ciberseguridad porque justamente estamos combatiendo
17:27el tema de inteligencia artificial y toda la desinformación
17:30de inteligencia artificial con el uso de otra inteligencia artificial
17:33que es capaz de aprender a esa inteligencia artificial.
17:36Nosotros le subimos los modelos para decirte,
17:39esto es una noticia falsa, es un deepfake.
17:42Aquí está.
17:43Te entrenamos con esa misma desinformación y esa misma deepfake
17:47para que tú detectes ese contenido.
17:50Ahora, a ver, aquí pregunta técnica.
17:53Digo, parece que lo he leído, he leído alguna de las respuestas
17:58y debates, pero como también he visto mucho ciencia ficción
18:01y me encanta, acabas de mencionar, Mónica, subimos los modelos.
18:08Es decir, hay que estar alimentando esa inteligencia artificial
18:13o hay resquicios en donde esa inteligencia artificial
18:17pueda empezar a alimentarse a sí misma.
18:21Creo que evidentemente es una pregunta para Mónica.
18:24Sí, es que está interesante.
18:26O sea, los principales...
18:27Como me encanta Blade Runner y todo lo que surgió después de ello.
18:32Sí, no, pero bueno.
18:33Y es que justamente es eso.
18:34Ahorita estamos nutriendo nosotros muchos modelos
18:37de inteligencia artificial, pero en fases avanzadas
18:40los mismos modelos se van a nutrir de más información.
18:43Entonces, sí estamos en esa línea delgadita
18:46en la que va para ambos lados esto
18:49y ya no es algo que sea ciencia ficción, ya es una realidad.
18:52Sí, porque bueno, siempre es en qué momento pueden ser
18:57ya más autónomos, digamos, todos estos sistemas
19:00de inteligencia artificial y auto...
19:04¿Automatizar?
19:04Automatizarse, pero auto...
19:06Ser autosuficientes.
19:08Ajá.
19:08Sí, y aquí...
19:09Formarse e ir creciendo, ¿no?
19:11Y aquí donde...
19:12Y autogenerativos.
19:13Generativos.
19:14Por acá mi conciencia.
19:17Pues la inteligencia artificial generativa es una rama justamente
19:20de la inteligencia artificial y hay películas que hace tiempo
19:24las veíamos como ciencia ficción.
19:26Hay una que se llama, este...
19:27¿Ay, se me fue el nombre?
19:29Blood Runner o algo así.
19:30Sí, Blade Runner.
19:31Exactamente, y justo es donde empezamos a tratar de detectar
19:35quiénes son humanos, quiénes son justamente personas sintéticas
19:39y hablan de temas importantes que se sigue basando
19:42la inteligencia artificial en los pilares en que los humanos
19:45somos capaces de tener todavía esa sensibilidad,
19:48esa parte de las emociones y ahí es donde podemos detectar también
19:51qué es una inteligencia artificial y qué es real.
19:54En el ejemplo de esa película lo ponen a través de voltear
19:57a una tortuga que hace un humano, pues luego llega y la voltea
20:00para que ésta siga caminando.
20:03Un sintético, un humano sintético no lo haría.
20:05Entonces es ahí donde empieza a decaer,
20:08además de los patrones de investigación que ya hablamos hace un momento.
20:12Bueno, y también me imagino que hay muchos códigos,
20:16se está regulando también de manera importante todos los ámbitos
20:20porque como todas las herramientas, toda la tecnología y todos los avances,
20:24pues pueden utilizarse para cosas muy benéficas y para cosas muy dañinas.
20:31Sí, por supuesto. Y bueno, si vamos a hablar de lo dañino,
20:34está todo el tema de los hackeos electorales.
20:38En Rumania, por ejemplo,
20:42la verdad no recuerdo en qué año fue las elecciones,
20:44creo que 2023, probablemente me equivoqué,
20:46se detectaron aproximadamente 85 mil intentos de hackeo
20:50al Instituto Electoral Rumano.
20:53Entonces se le atribuyó mucho a Rusia,
20:56no se sabe con certeza,
20:57pero lo que sí se sabe o se asume
20:59es que justamente la inteligencia artificial fue capaz
21:02de facilitar este hackeo.
21:06Como ya dije, la inteligencia artificial,
21:08al menos a mi entendimiento,
21:09lo que hace siempre es acortar pasos,
21:11velocidad y eficacia, la verdad.
21:15Sí, entonces sí nos podemos encontrar en un momento
21:18en el cual estas situaciones graves pasan
21:22y no solamente en ahora sí que el de manera internacional.
21:26Aquí mismo en México nos podemos encontrar,
21:28por ejemplo, con todo este tema de la violencia electoral,
21:31que es algo muy real y sumamente lamentable.
21:34El año pasado, pues todos vimos las noticias
21:36de lo que pasó en noviembre.
21:38Sí, entonces en una circunstancia tan violenta
21:41como es la política,
21:42particularmente durante campañas en México,
21:44la existencia de esta inteligencia artificial
21:46que puede aumentar toda la polarización,
21:50las noticias falsas
21:51y también llegado al punto de incentivo a la violencia,
21:56termina siendo bastante preocupante.
21:59Hay un tema interesante en todo este ámbito
22:03de la comunicación, de la información,
22:06de la polarización misma,
22:08que cuando nosotros consumimos algo,
22:11nos empieza a llegar información sobre ese algo.
22:17Entonces, ¿no está creando cápsulas
22:20y sistemas muy cerrados en donde las personas
22:24nada más se están reafirmando sus creencias,
22:28su ideología,
22:29y no estamos abiertos a escuchar o ver al otro?
22:32¿Qué opinan de ello?
22:33Mira, yo creo que es muy, muy cierto.
22:36O sea, si lo piensas,
22:37si estás viendo tu TikTok o algo,
22:39solamente salen cosas que te gustan,
22:40incluso a Instagram,
22:41salen cosas que te interesan.
22:43Entonces terminas en tu propia burbuja
22:44y, por ejemplo,
22:46si estás,
22:46si eres una persona muy política,
22:48muy orientada a la derecha,
22:50por ejemplo,
22:50lo más probable es que los creadores de contenido
22:52que te salgan
22:53tengan esas mismas ideologías.
22:55Entonces tienes razón,
22:55no se contrastan las opiniones
22:57y esa parte puede ser usado para bien
23:01y para muy mal en el sentido que es,
23:05igual,
23:06no es una práctica nueva,
23:07pero se ha llegado a usar esta información
23:10de los datos personales,
23:11de esta información,
23:12de estos gustos,
23:13disgustos,
23:14de que te gusta,
23:14cómo te sientes,
23:15justamente con el propósito de crear,
23:18ahora sí,
23:19campañas casi,
23:20casi individualizadas.
23:21Y la propaganda muy,
23:23muy particular,
23:24muy dirigida.
23:25De hecho,
23:25ese fue un gran escándalo
23:27hace unos años
23:28con el tema de Cambridge Analytics
23:29en el que,
23:30bueno,
23:31primero que nada,
23:31fue un robo de datos impresionante.
23:35Facebook no quiere hablar de eso.
23:37Y después,
23:37a través de esa misma información,
23:40se pudo lograr detectar
23:41qué tipo de usuario,
23:43a qué tipo de usuarios
23:44le servía qué tipo de cosa.
23:45A algunos,
23:46el miedo era lo que servía,
23:48a otros era algo más de euforia,
23:50a otros era el enojo.
23:52Entonces,
23:52eso se hizo una vez más
23:53antes de inteligencia artificial,
23:54con costos muy,
23:56muy grandes.
23:57En este momento,
23:58también se puede volver,
23:59se puede usar.
24:00Y de una manera mucho más sencilla,
24:02igual con otras herramientas
24:04de inteligencia artificial,
24:05en la cual se puede detectar,
24:07englobar ciertos patrones
24:08de ciertas personas
24:09con ciertos sentimientos.
24:11Y de esa forma,
24:12llegan estas campañas individualizadas.
24:15Así que puede ser utilizado
24:17para manipular de una manera
24:20muy potente los sentimientos,
24:23y dirigir y saber exactamente,
24:25pues ahora va a votar por mí,
24:27o va a tachar,
24:29o sea,
24:29ir previendo esto,
24:31¿no?
24:31Sí.
24:31Nos volvemos ahí,
24:32en ese sentido,
24:33muy vulnerables,
24:35pero a la vez,
24:36al estar enterados
24:37y tener más información,
24:39me imagino que podemos tener
24:40muchas herramientas
24:41que nos ayuden a utilizar
24:42de mejor manera
24:43la inteligencia artificial
24:44y no caer en estos patrones.
24:46Sí,
24:48y no.
24:49Mira,
24:50en el 2024,
24:52justamente durante
24:53las elecciones
24:54de Trump contra Harris,
24:56se hizo un experimento,
24:58un estudio,
24:58un experimento
24:59de que había un chatbot
25:00que era a votantes de Trump
25:02y a votantes de Harris.
25:04Entonces era,
25:05este chatbot
25:06lo que tenía,
25:06la información que contenía
25:08y la persuasión que contenía,
25:10era justamente para ver
25:11si podían cambiar
25:12la perspectiva.
25:13Y lo hicieron.
25:14Y sí cambiaron.
25:15Sí cambió la perspectiva
25:16de muchas
25:16y sí hubo una diferencia
25:17con respecto a cómo
25:18se dirigieron en cada una,
25:19entonces es interesante,
25:21pero el simple hecho
25:21de que se pudiera cambiar
25:22la perspectiva
25:23y no se importa
25:24la intención de voto
25:25y no solamente
25:26después de que terminó
25:27el experimento,
25:28sino aún después,
25:30te llegas a
25:31deslumbrar
25:32el poder persuasivo
25:34que pueden tener
25:34estas inteligencias.
25:35y de igual forma
25:37y eso nada más
25:37fue un experimento
25:39o ya en lo real
25:40diferentes compañías
25:41ya existen
25:42estos chatbots
25:43muy persuasivos.
25:45Sí,
25:45hay que dudar
25:46hasta de nuestros propios
25:47pensamientos.
25:48Y eso es aterrador.
25:49Y saber que,
25:51pues,
25:51no tenemos
25:53certeza
25:53realmente
25:54de las cosas,
25:56¿no?
25:56Siempre podemos estar ahí
25:57errando fácilmente.
26:00Y es que algo también
26:01que es súper importante
26:02es que algo que luego
26:03se nos olvida
26:04es que nada es gratis
26:05en internet.
26:06Tenemos el pensamiento
26:08de creer que las redes
26:09sociales son gratis,
26:10pero al final del día
26:11las redes sociales
26:12viven de la publicidad
26:14que es enfocada
26:15hacia este tipo de cosas.
26:17Por ejemplo,
26:17lo que decían en Facebook,
26:19sí te hace un tracking.
26:20Las redes sociales
26:20te hacen un tracking
26:21para decir,
26:22ok,
26:22esto te gusta,
26:23estos son tus hábitos
26:24de consumo,
26:25sí escuchan las cosas.
26:26Pasa súper real
26:27de que pasa que dices
26:28quiero un colchón
26:29y de repente
26:30ya tienes publicidad
26:31por todos lados
26:31de colchones.
26:32Entonces,
26:32sí es verdad,
26:34sí es el error
26:35que luego cometemos
26:36al no informarnos
26:37y creemos que todo
26:38lo que está en internet
26:39es gratis.
26:39No,
26:40siempre hay sitios
26:41que te dicen
26:41aceptar las cookies,
26:42aceptas esto.
26:43Tú al estar aceptando eso
26:44es un tracking
26:45para que puedan hacer
26:46uso de tu información
26:47para los fines
26:48que la empresa lo desea.
26:50Puede en ese sentido
26:51y cuando mencionabas
26:52lo del tema de médico,
26:54la inteligencia artificial,
26:56incluso lo que nos llega
26:57de publicidad,
27:00adelantarse
27:01a la información
27:03que nosotros podemos tener.
27:06Es,
27:07¿no?
27:07Por ejemplo,
27:08que de pronto te llega
27:09para el dolor de garganta,
27:12ay,
27:12por,
27:12no sé,
27:14o a lo mejor
27:15ya traes ahí,
27:15no sé si está sucediendo
27:17o puede suceder eso.
27:19Pues ya realmente
27:20hay mucha gente
27:20que utiliza
27:21ChatGPT y Gemini
27:23para preguntarle,
27:24oye,
27:24pasó esto,
27:25incluso antes lo hacían
27:26con Google
27:26y le preguntaban,
27:27me duele la cabeza
27:28y luego terminaba
27:29diciendo que era
27:29una enfermedad terminal
27:30y te asustabas.
27:31Entonces,
27:32ahí es donde tienes
27:32que tener el cuidado.
27:34Yo sigo creyendo
27:34que la profesión
27:36de cada uno
27:37tiene un porqué,
27:38tiene años de estudio.
27:39Los sistemas
27:40de inteligencia artificial
27:41obviamente van aprendiendo
27:42de muchas cosas,
27:43de mucha información,
27:44de grandes cantidades
27:44de información,
27:46pero siempre,
27:47pues ahorita estamos
27:47en el punto
27:48en que te pueden dar
27:49diagnósticos cercanos
27:50e incluso certeros,
27:52es una realidad,
27:52sí lo pueden hacer,
27:54pero yo creo que sigue
27:55estando más correcto
27:56que vayas con un médico
27:57y que por ejemplo
27:58te diagnostiquen
27:59ya haciéndote análisis,
28:01ya con información real
28:03de pruebas,
28:04no únicamente
28:04con la información
28:05de síntomas
28:05que le meten.
28:06Sí,
28:07porque ya empezamos
28:08también,
28:09me ha dado uno
28:09y bueno,
28:13vienen etapas
28:14muy interesantes,
28:16por supuesto,
28:17para la humanidad
28:18en todos los ámbitos
28:20y en el ámbito electoral,
28:23político electoral,
28:24pues momentos de definición
28:27también para nuestro país,
28:29vienen las próximas,
28:31la próxima reforma
28:33político electoral,
28:34¿las están escuchando?
28:36María,
28:36o sea,
28:36hay personas interesadas,
28:38funcionarios
28:39que están escuchándote
28:42o escuchando
28:43a las expertas.
28:46Mira,
28:47no voy a mencionar
28:48evidentemente partidos,
28:50pero hay ciertas reformas
28:52o ciertas iniciativas
28:54de leyes
28:54con respecto
28:55a inteligencia artificial
28:55que
28:57podríamos decir
28:59que tienen ciertas
28:59fallas técnicas
29:00en ciertos principios
29:02y sigo con lo mismo,
29:04el tema con regular
29:05la inteligencia artificial
29:07es primero que nada
29:08la técnica misma
29:10no nos dice
29:10hasta dónde puede llegar.
29:11Sí.
29:12Segundo,
29:13si regulas mucho,
29:14las inversiones se van,
29:15que es lo que está pasando
29:16en la Unión Europea.
29:17Si regulas muy poco,
29:20tienes casos,
29:20por ejemplo,
29:21en Estados Unidos,
29:22por ejemplo,
29:22con estas,
29:24con el uso
29:24de inteligencia artificial
29:25para crear
29:26imágenes pornográficas,
29:28sobre todo menores.
29:29Ahora,
29:29también tienes el otro lado,
29:31por ejemplo,
29:31en China,
29:31que tiene una regulación
29:32muy estructurada
29:34para su seguridad nacional.
29:35Quiero decir con esto
29:36que es una regulación
29:38con base en China,
29:40por ejemplo.
29:40Entonces,
29:41la regulación siempre
29:42va a ser un conflicto.
29:44Una vez más,
29:45no conocemos los límites
29:46y para cuando conozcamos
29:47límite uno
29:48y legislemos límite uno,
29:51ya llegamos al límite tres.
29:53Entonces,
29:53creo que es un trabajo constante.
29:55Los legisladores
29:56no pueden dejar de lado
29:57la inteligencia artificial.
29:59Actualmente,
29:59es una de las fuerzas
30:00más potentes.
30:01Ya lo dijo Mónica,
30:03las empresas
30:04de inteligencia artificial
30:05no solamente son
30:06increíblemente poderosas,
30:08sino que también tienen
30:08en este momento
30:09un peso de,
30:10si no mal recuerdo,
30:11el 3.5 del PIB mundial.
30:14Es con respecto
30:14a inteligencia artificial.
30:16Entonces,
30:16económica y culturalmente,
30:18el camino que parece
30:19seguir todo
30:19es inteligencia artificial
30:21y no seguirlo
30:22te quedas atrás.
30:24Entonces,
30:25es un problema.
30:26Aquí sí me gustaría agregar
30:27un punto sumamente importante
30:29que de hecho
30:30ya se está empezando
30:30a considerar
30:31como un derecho humano,
30:33que es el tema
30:33de la transparencia algorítmica.
30:36Con este,
30:37justamente nos da
30:37este derecho,
30:38esta facultad
30:39de conocer
30:39la lógica
30:41para las respuestas.
30:42Esto sobre todo
30:43porque se ha dado casos
30:44de sesgos raciales,
30:47sesgos de género,
30:48sesgo,
30:49bueno,
30:49diferentes tipos de sesgos
30:50en ciertas inteligencias artificiales.
30:53Entonces,
30:53aquí sí podría ser
30:54muy importante
30:55aprender
30:56o por lo menos
30:57tener a tu disposición
30:58cómo llegamos
31:00a este resultado
31:01para no tener
31:02este,
31:03ahora sí que este momento
31:04de opacidad
31:04en el cual
31:05puede ser una manipulación,
31:06puede ser un sesgo,
31:08puede que te estén llevando
31:09a un camino,
31:10bueno,
31:10como ya lo mencioné
31:11con estos chatbots
31:11que te trataban de persuadir
31:13de una decisión a otra.
31:15Entonces,
31:16introducir estos conceptos
31:17en la legislación mexicana,
31:19introducir,
31:21comprender primero que nada
31:22qué es
31:23y en este momento
31:23el alcance de la IA
31:24parece ser indispensable.
31:26María Mónica,
31:27pues esto apenas
31:29comienza
31:30que sea también
31:31una primera charla
31:33de muchas
31:33y estemos analizando ya
31:35en el día a día
31:37y en los hechos
31:38cómo lo están utilizando
31:40y bueno,
31:42va a ser muy,
31:42muy interesante
31:43también ir analizando
31:44el día a día
31:45y estemos
31:46en contacto,
31:48por favor,
31:48para que podamos informar
31:50a nuestra audiencia.
31:51Muchísimas gracias,
31:53les agradezco
31:53haber estado con nosotros.
31:55Un placer.
31:56Gracias por acompañarnos.
31:57Gracias.
Comentarios