- hace 15 horas
La inteligencia artificial (IA) ha evolucionado rápidamente en las últimas décadas, convirtiéndose en una herramienta fundamental en múltiples sectores. A medida que la IA se vuelve más sofisticada, la necesidad de normativas que regulen su aplicación se vuelve cada vez más urgente.
En los últimos años, el gobierno mexicano y diversas instituciones han impulsado iniciativas para establecer un marco normativo que garantice el uso ético y responsable de la IA. Uno de los avances más relevantes es la propuesta de reforma al Código Penal Federal que busca tipificar y sancionar delitos relacionados con el uso indebido de tecnologías de comunicación e IA, aunque se enfoca principalmente en la prevención de delitos digitales y no en la regulación integral de la tecnología. Por su parte, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) emitió recomendaciones enfatizando la importancia de la transparencia y la protección de datos personales. El reto está en encontrar un equilibrio entre la innovación y la protección de los derechos de todas las personas.
Ante un panorama en el que la IA es cada vez más utilizada en la vida diaria, surgen cuestionamientos ¿quién es responsable si un sistema de IA toma una decisión errónea que afecta negativamente a una persona? ¿Cómo se puede garantizar que los algoritmos sean transparentes y auditables?
SÚMAte a un espacio de análisis certero y plural donde abordaremos el tema: Retos de la regulación de la IA en México
Panelistas:
💬 Dr. Félix Agustín Castro Espinoza, investigador en el Centro de Investigación en Tecnologías de Información y Sistemas de la UAEH
💬 Dra. Blanca Araceli Borja Rodríguez, subcoordinadora de Centro de Economía y Prospectiva de la Ciencia y la Tecnología de la UNAM
Conduce:
🎙️ Dr. Roberto Morales Estrella
En los últimos años, el gobierno mexicano y diversas instituciones han impulsado iniciativas para establecer un marco normativo que garantice el uso ético y responsable de la IA. Uno de los avances más relevantes es la propuesta de reforma al Código Penal Federal que busca tipificar y sancionar delitos relacionados con el uso indebido de tecnologías de comunicación e IA, aunque se enfoca principalmente en la prevención de delitos digitales y no en la regulación integral de la tecnología. Por su parte, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) emitió recomendaciones enfatizando la importancia de la transparencia y la protección de datos personales. El reto está en encontrar un equilibrio entre la innovación y la protección de los derechos de todas las personas.
Ante un panorama en el que la IA es cada vez más utilizada en la vida diaria, surgen cuestionamientos ¿quién es responsable si un sistema de IA toma una decisión errónea que afecta negativamente a una persona? ¿Cómo se puede garantizar que los algoritmos sean transparentes y auditables?
SÚMAte a un espacio de análisis certero y plural donde abordaremos el tema: Retos de la regulación de la IA en México
Panelistas:
💬 Dr. Félix Agustín Castro Espinoza, investigador en el Centro de Investigación en Tecnologías de Información y Sistemas de la UAEH
💬 Dra. Blanca Araceli Borja Rodríguez, subcoordinadora de Centro de Economía y Prospectiva de la Ciencia y la Tecnología de la UNAM
Conduce:
🎙️ Dr. Roberto Morales Estrella
Categoría
📺
TVTranscripción
00:09Una producción de Suma TV
00:26Muy buenas noches, estimados amigos y amigas
00:29de este subespacio de Agenda 13.1
00:33Y bueno, pues como todos los programas que tenemos
00:37les damos la más por la bienvenida
00:38y pues vamos a tomar un tema muy importante
00:42que es la regulación de la inteligencia artificial en México
00:46y de hecho, pues como está comportándose a nivel global
00:49Vamos a conocer a nuestros invitados panelistas
00:55Blanca Araceli Borja Rodríguez
00:57es doctora en Economía por la Universidad Nacional Autónoma de México
01:01y miembro del Sistema Nacional de Investigadoras e Investigadores
01:04Es profesora en la Facultad de Economía del UNAM
01:07donde también es coordinadora del Seminario de Economía y Administración de la Ciencia y la Tecnología
01:12en el posgrado
01:13Además, es subcoordinadora del Centro de Economía y Prospectiva de la Ciencia y Tecnología
01:18Igualmente, es investigadora externa de la Universidad del Río en Guayaquil, Ecuador
01:24Su trabajo se centra en el estudio de la transferencia tecnológica y de conocimiento
01:28hacia sectores como el agrícola, minero, electrónico informático y farmacéutico
01:33Recientemente, se encuentra analizando las capacidades y gobernanza de la inteligencia artificial
01:38y el impacto de la innovación pública
01:44Félix Agustín Castro Espinosa
01:46Es maestro en Ciencias Computacionales por el Centro Nacional de Investigación y Desarrollo Tecnológico
01:51en Cuernavaca
01:52Cuenta con el Doctorado en Inteligencia Artificial por la Universidad Politécnica de Cataluña
01:57Es miembro del Sistema Nacional de Investigadoras e Investigadores Nivel 1
02:01Fue presidente de la Sociedad Mexicana de Inteligencia Artificial
02:05y actualmente es profesor investigador en el Centro de Investigación en Tecnologías de Información y Sistemas
02:11de la Universidad Autónoma del Estado de Hidalgo
02:15Pues bienvenidos, doctora Blanca Araceli Borja Rodríguez
02:20Agradecemos tu presencia en este espacio televisivo
02:25Doctor Félix Castro, pues es un placer tenerte aquí con nosotros
02:30aunque hemos estado también en otros pesos compartiendo
02:32y bueno, vamos a la cápsula que preparó nuestra producción respecto a este tema
02:42La Inteligencia Artificial o IA ha evolucionado rápidamente en las últimas décadas
02:48convirtiéndose en una herramienta fundamental en múltiples sectores
02:51En medida que la IA se vuelve más sofisticada
02:54la necesidad de normativas que regulen su aplicación se vuelve cada vez más urgente
02:59Lo que antes era una novedad tecnológica
03:02hoy es una amenaza para la calidad de la información
03:06para la integridad del debate público y para la protección de los derechos de las personas
03:14Hoy circulan en redes sociales cientos de miles de videos y audios manipulados
03:21que se utilizan para cometer fraudes, engañar a familias, pedir depósitos,
03:29suplantar identidad y ofrecer inversiones inexistentes
03:32Los casos de fraude con la inteligencia artificial han aumentado en más de un 2000%
03:40desde el 2022 hasta la fecha
03:43Fue en diciembre de 2025 cuando en el Senado se presentó una iniciativa
03:47para reformar la ley en materia de telecomunicaciones y radiodifusión
03:52El senador Juan Antonio Martín del Campo destacó que el marco jurídico en México
03:56se ha visto rebasado ante el desarrollo de la inteligencia artificial
04:00ya que la frontera entre lo real y lo fabricado se ha vuelto más difícil de identificar
04:05y las leyes mexicanas no fueron diseñadas para reconocer el contenido sintético
04:10por lo que no se imponen obligaciones claras
04:13Por eso presentamos esta iniciativa que plantea
04:16que cualquier contenido generado, editado o alterado por la inteligencia artificial
04:22sea claramente identificado para personas que lo están utilizando
04:27que la autoridad tenga facultades para supervisar el etiquetado
04:32exigir correcciones y sancionar prácticas destinadas a ocultar contenidos sintéticos
04:38con fines de engaño
04:40Aquí no se prohíbe la tecnología
04:44no se censura la creatividad
04:46no se frena la innovación
04:50Simplemente se establece una regla básica
04:54que la gente sepa cuando está viendo o está escuchando un video
04:59con la inteligencia artificial
05:00especialmente cuando es un contenido que puede utilizarse
05:05para cometer algún tipo de delitos
05:07Por su parte, el Instituto de Transparencia y Acceso a la Información Pública
05:11indicó que el desafío que se enfrenta es claro
05:14Mientras más personalización y eficiencia ofrece la inteligencia artificial
05:18mayor es el riesgo de interferir o vulnerar
05:21la privacidad y la protección de los datos personales
05:24Es fundamental fortalecer los mecanismos de supervisión y control
05:30para que las entidades encargadas de proteger datos personales
05:35tengan capacidades técnicas y jurídicas de auditar los sistemas de inteligencia artificial
05:43Ante un panorama en el que la IA es cada vez más utilizada en la vida diaria
05:47Esta noche, en Agenda 13.1, nuestro selecto grupo de panelistas
05:52analizará quién debe ser responsable si un sistema de inteligencia artificial
05:56toma una decisión errónea que afecta negativamente a una persona
05:59y cómo se puede garantizar que los algoritmos sean transparentes y auditables
06:04Esto es Agenda 13.1
06:07Iniciamos
06:11Pues bien, obviamente que la omnipresencia de la inteligencia artificial
06:17pues a todos nos ha impactado y nos va a seguir impactando
06:22y sobre todo pues la regulación siempre ha ido a la saga
06:28y yo creo que no se ha regulado incluso lo referente a las armas autónomas
06:32ni la biometría vía satélite
06:35que muchas empresas han surgido, muchas empresas privadas
06:39proveedoras de muchos gobiernos
06:41y que han tomado información y bases de datos
06:44que no necesariamente reflejan la realidad
06:46La regulación es imprescindible
06:49pero yo creo pues no sólo a nivel nacional
06:53sino a nivel global
06:54y no tenemos ninguna norma a nivel global
06:56sin embargo en México estamos dando los primeros pasos
06:59Doctora Blanca, ¿qué es lo que nos puedes comentar al respecto?
07:03Tú que eres una experta en esta materia
07:06Bueno, muchas gracias por la invitación
07:09Buenas noches
07:10y efectivamente hay algunas regulaciones a nivel global
07:17que ya existen
07:18principalmente la europea
07:21que fueron quienes encabezaron una iniciativa
07:23mucho más adecuada a los retos
07:26y a la definición
07:28de lo que es la inteligencia artificial
07:31y posteriormente en Estados Unidos
07:34y otros países
07:36en donde se han adoptado
07:38y en México y América Latina
07:40también se ha visto algunas de la regulación
07:48a partir de 2022
07:49se está tratando de regular en América Latina
07:54en siete países
07:55principalmente Chile, Brasil, Argentina, Colombia, México
08:00Perú y Uruguay
08:02Claro, esto es algo importante
08:05porque nos permite visualizar
08:06la trascendencia que tiene ahorita
08:08la inteligencia artificial
08:09sobre todo para el futuro
08:10que cada vez se está desarrollando más
08:12ya pasamos de la inteligencia artificial
08:16que habla
08:17o sea, la agéntica
08:18y ya entramos
08:20de la perdón, la generativa
08:21y ya entramos a la inteligencia artificial
08:23que hace
08:24una es la que habla
08:25la otra es la que hace
08:25que es la inteligencia artificial agéntica
08:28pero no se ha regulado
08:29de manera específica al respecto
08:30Doctor
08:32pues Félix Agustín Castro
08:34¿cómo visualizas
08:36sobre todo tú
08:36que tienes toda una dimensión
08:38a través de la sociedad mexicana
08:40de inteligencia artificial
08:41¿cómo ves el avance
08:43de la inteligencia
08:44y su impacto
08:45en nuestra sociedad mexicana?
08:47Sí, muchas gracias Roberto
08:49por la invitación
08:51Bienvenida a la audiencia
08:53de este programa
08:54Agenda 13.1
08:56Buenas noches a todos
08:59Indudablemente
09:00la inteligencia artificial
09:02en los últimos años
09:04se ha vuelto
09:05pues una necesidad
09:07para prácticamente todos
09:08en los diferentes contextos
09:10de la vida social
09:11vemos aplicaciones
09:12en muchas áreas
09:14no solo es
09:16ahorita
09:17escuchaba
09:18en la cápsula
09:20que presentaron
09:21este senador
09:22donde hablaba
09:23de
09:23que buscaban regular
09:26pues eso
09:26es solo una parte
09:27de la inteligencia artificial
09:28lo que es la inteligencia artificial
09:30generativa
09:30pero
09:31pero hay mucho más allá
09:33de inteligencia artificial
09:34eso
09:35en la actualidad
09:37para la mayoría
09:38de la gente
09:38eso es inteligencia artificial
09:40crear videos
09:41crear sonidos
09:42crear imágenes
09:43crear textos
09:44crear guiones
09:45etcétera
09:47pero no solo es eso
09:48eso es solo una partecita
09:49de inteligencia artificial
09:50efectivamente
09:52a nivel mundial
09:54desde hace varios años
09:56se ha estado
09:56tratando de regular
09:58sobre todo
10:00el uso
10:01aunque también
10:02el desarrollo
10:03existen algunas
10:04algunas regulaciones
10:06por ejemplo
10:06en la comunidad europea
10:07hace muy poco tiempo
10:09surgió ya
10:11una
10:11una
10:12reglamentación
10:13en ese sentido
10:15en Canadá
10:16hay alguna
10:16en Estados Unidos
10:17en América Latina
10:19en México
10:20desde
10:22que les digo
10:24este
10:25desde
10:27alrededor del
10:28dos mil
10:30que fue
10:31dos mil diecinueve
10:33empezamos
10:33yo era
10:34yo era presidente
10:35de la media
10:35empezamos
10:36con la
10:37con la comisión de ciencia
10:38y tecnología
10:39del senado
10:39empezamos a
10:40a vislumbrar
10:41esas necesidades
10:42y logramos que
10:43por primera vez
10:44el dos mil veinte
10:44tuviéramos un foro
10:46que se llamó
10:47un acercamiento
10:48a la inteligencia artificial
10:49fíjense
10:50desde entonces
10:52ya hemos estado
10:53trabajando
10:54desafortunadamente
10:55el reto
10:55que tenemos
10:56para regular
10:57es que tiene que venir
10:58de la cuestión
10:59pues
11:00gubernamental
11:01y todo este rollo
11:02de estas cámaras
11:03sin embargo
11:04pues uno de los
11:06principales problemas
11:07ha sido
11:07pues que
11:07se han ido yendo
11:09toda esta gente
11:10que ha entrado
11:11les digo
11:12nosotros el dos mil veinte
11:13tuvimos el primer foro
11:14y nos
11:15hicimos patente
11:16la necesidad
11:17de regular
11:18dimos pláticas
11:19este con expertos
11:21este nacionales
11:22internacionales
11:23y nos dicen
11:25claro que si
11:26ya va a estar
11:27pues
11:29lo malo fue
11:30que se han tardado
11:31mucho
11:32dentro de lo bueno
11:33el día de ayer
11:35estaba viendo
11:36una iniciativa
11:36que por ahí sacó
11:37uno de los grupos
11:38parlamentarios
11:39una propuesta
11:40de iniciativa
11:41a esta ley
11:42por otro lado
11:43otro de los grupos
11:44parlamentarios
11:44también ha estado
11:45trabajando fuertemente
11:46pero al día de hoy
11:48no tenemos una regulación
11:50legal
11:52reglamentada
11:53como tal
11:53instrumentada
11:54con leyes secundarias
11:56exactamente
11:57todavía no lo tenemos
11:58se ha hecho mucho trabajo
11:59la comunidad de inteligencia artificial
12:01ha trabajado mucho
12:03desde hace varios años
12:05ya les dije
12:05más o menos
12:06dos mil diecinueve
12:06para acá
12:07sin embargo
12:07desde antes
12:08ya empezábamos
12:09a este
12:11a trabajar con eso
12:12incluso se proponía
12:13la creación
12:14la creación
12:14de un laboratorio
12:15nacional
12:16de inteligencia artificial
12:17entonces
12:18bueno pues ha habido
12:19por ahí
12:20este bandazos
12:22pues que
12:23desafortunados
12:24pero al final
12:24parece ser
12:26yo creo
12:26que en el corto plazo
12:28ya vamos a tener
12:29una ley
12:29porque ese que comentó
12:31que comentaron hace rato
12:32es una partecita
12:33solo
12:34que tiene que ver
12:35básicamente
12:36que cuando tú
12:37sacas
12:38un
12:39un
12:39este
12:40un contenido
12:41multimedia
12:41pues digas
12:42este se generó
12:43con inteligencia artificial
12:44básicamente
12:45eso es lo que
12:46es lo que se dice
12:47pero hay mucho más allá
12:48hay que ver la trazabilidad
12:49hay que ver las cuestiones
12:51de usos
12:51de protección de datos
12:53de privacidad
12:54de transparencia
12:55etcétera
12:56hay muchos principios
12:58y cuestiones éticas
12:59detrás de
12:59que se tienen que reglamentar
13:01por supuesto
13:01si no se ha reglamentado
13:03y hay empresas
13:04por ejemplo
13:05en algunos países
13:06que se han encargado
13:08de hacer bases de datos
13:10por ejemplo
13:11hay una empresa
13:12Palantín
13:13que
13:13que
13:14que capta
13:15las placas
13:16el número de placas
13:17las va captando
13:19forma una base de datos
13:20y eso
13:21relacionado con las
13:22con las
13:22con las cámaras
13:23que hay en distintas partes
13:25venden esa base de datos
13:27a
13:28a policías
13:29o a crimen
13:30para poder localizar
13:31los vehículos
13:32de una manera fácil
13:33y rápida
13:33en cualquier lugar
13:34donde se tengan las cámaras
13:36y obviamente
13:37el uso
13:38no necesariamente
13:39es un uso legal
13:41o adecuado
13:41y eso es lo que pone
13:43en peligro
13:44doctora Blanca
13:44los impactos que tiene
13:46y obviamente
13:46hablar de inteligencia artificial
13:47hay mucho atrás
13:48como lo mencionaba
13:49el doctor Castro
13:50los centros de datos
13:51que se están proliferando
13:53y que son inversiones
13:54muy fuertes
13:55y que
13:56pues
13:58denotan
13:58la capacidad
13:59que pueda tener
14:00un país
14:00y una organización
14:01dependiendo
14:02del tipo
14:02de base
14:03de centros
14:04de datos
14:05que tiene
14:05y yo creo
14:06que esa es la parte
14:07también fundamental
14:08y los centros
14:09de investigación
14:09sobre inteligencia artificial
14:11que se siguen haciendo
14:12¿no?
14:13¿qué es lo que la perspectiva
14:14tú tienes
14:14y sobre todo
14:15con las métricas
14:16que hacen falta
14:17no podemos mejorar
14:18dice una máxima
14:20de los procesos
14:20de calidad
14:21no se puede mejorar
14:22lo que no se mide
14:23¿qué opinas?
14:25Así es
14:26sí
14:26efectivamente
14:27como ya
14:29se ha mencionado
14:30la inteligencia artificial
14:31no solo son
14:32esos chatbots
14:33que conocemos
14:34de propósito general
14:35la inteligencia artificial
14:38generativa
14:39sino también
14:40es esa infraestructura
14:42detrás
14:42¿no?
14:43y requerimos
14:44legislar
14:44sobre el origen
14:45propiedad
14:46y uso
14:47de los datos
14:47sobre la capacidad
14:49de cómputo
14:49que ya mencionaba
14:50de los grandes
14:51centros de datos
14:52hacer pruebas
14:53de calidad
14:54y entonces
14:54el reto
14:55es
14:57no solo
14:58que
14:59la inteligencia artificial
15:00sea amable
15:01¿no?
15:02no tenga
15:03sesgos
15:03o aspectos
15:05de discriminación
15:06o que genere
15:07incluso
15:08algunas imágenes
15:09bonitas
15:10sino que
15:11lo que
15:11se procesa
15:13pueda ser
15:14monitoreable
15:15y segura
15:16para el mundo real
15:17¿no?
15:18aquí entonces
15:19en términos
15:21de las empresas
15:22que desarrollan
15:23todos estos
15:24algoritmos
15:24que almacenan
15:25los datos
15:27y que dan
15:28tratamiento
15:29para
15:29generar
15:31información
15:32es que
15:33el mercado
15:34por sí
15:35solo
15:35no está
15:38internalizando
15:39los costos
15:40que
15:41son
15:42sociales
15:42de la
15:43inteligencia
15:44artificial
15:45o sea
15:45justo
15:46los sesgos
15:47la privacidad
15:48daños
15:49por errores
15:50por asimetrías
15:51de la información
15:52uso
15:53inadecuado
15:54de
15:55los datos
15:57biométricos
15:58con cámaras
15:59con aspectos
16:01o datos
16:02satelitales
16:03que también
16:04se pueden tener
16:04y entonces
16:05la discusión
16:07internacional
16:08y que se está
16:10desarrollando
16:11desde ya años
16:12como han mencionado
16:14en México
16:15es que
16:16no solo
16:17se pueda
16:19regular
16:20para frenar
16:21¿no?
16:22sino que
16:22se cree
16:24un ecosistema
16:25de excelencia
16:27para poder
16:28impulsar
16:29las capacidades
16:30la inversión
16:31y tener
16:32un ecosistema
16:33de inteligencia
16:34artificial
16:34y de confianza
16:35¿no?
16:36con reglas
16:37estrictas
16:38que puedan
16:39frenar
16:40los riesgos
16:42y detectar
16:43los riesgos
16:43a tiempo
16:44¿no?
16:44y en este
16:45sentido
16:45lo que hay
16:46ahorita
16:47son
16:48propuestas
16:49¿no?
16:50para llenar
16:51los vacíos
16:52que ya se tienen
16:53en leyes
16:53generales
16:54de protección
16:55de datos
16:55personales
16:56por ejemplo
16:57o ciertos
16:58principios
16:59constitucionales
17:00de no discriminación
17:01pero que
17:02con esto
17:02que tenemos
17:03hasta ahora
17:04es insuficiente
17:05para los riesgos
17:07específicos
17:08como los
17:09sesgos
17:10algorítmicos
17:11o
17:11la opacidad
17:13¿no?
17:14de las decisiones
17:15automatizadas
17:16y lo que se viene
17:18utilizando
17:18porque por ejemplo
17:20la inteligencia
17:21artificial
17:21la vemos
17:22todos los días
17:23en sugerencias
17:25de música
17:25¿no?
17:26como
17:27en Spotify
17:29¿no?
17:30en Netflix
17:30YouTube
17:31todo lo que nos
17:33aparece
17:33es resultado
17:35de
17:36toda la información
17:37que le damos
17:38sobre nuestras
17:39preferencias
17:40a
17:40a una gran
17:42base de datos
17:43y
17:43los
17:45algoritmos
17:45que están
17:46identificando
17:47cómo somos
17:48para personalizar
17:50las sugerencias
17:52y digamos
17:52ahorrarnos
17:53tiempo
17:53pero
17:54en eso
17:55en esto
17:56que no
17:57vemos
17:57es donde
17:58se oculta
18:00¿no?
18:01la
18:01los riesgos
18:04que tienen
18:04esos algoritmos
18:05para
18:06generar
18:07algunas
18:08decisiones
18:09sesgadas
18:11o que
18:12sean
18:12útiles
18:13para
18:13fines
18:16económicos
18:16o políticos
18:17¿no?
18:18Yo creo que esto es algo
18:19también muy importante
18:21y
18:22habrá que considerar
18:24por ejemplo
18:24a la par
18:25de la inteligencia
18:26artificial
18:26más allá
18:28de la alucinación
18:29que cae en mucha
18:30inteligencia artificial
18:31por la información
18:33pues que
18:34pues es de la web
18:35de las redes sociales
18:37y de la web
18:37donde hay información
18:38genérica
18:39no necesariamente
18:40está muy sofisticada
18:41y limpiar esos datos
18:42no elimina
18:43ni el carácter
18:44racista
18:45ni el carácter
18:46pues de
18:48discriminación
18:49y eso
18:49con un papel
18:50importante
18:51entonces
18:51doctor Félix
18:52aquí la parte
18:54también es muy importante
18:55no sólo
18:57la infraestructura
18:58de datos
19:00sino también
19:01o sea
19:01de centro de datos
19:02sino también
19:02la ciberseguridad
19:04¿cómo ves tú
19:05la ciberseguridad
19:06a la par
19:06de la inteligencia
19:07artificial?
19:10bien buena pregunta
19:12Roberto
19:12yo creo
19:14que son dos áreas
19:16que en los últimos años
19:18han crecido
19:19a la par
19:19yo creo que más
19:20inteligencia artificial
19:21que ciberseguridad
19:23lastimosamente
19:24es así
19:25porque ciberseguridad
19:26tiene que ver
19:27con que
19:28todos los datos
19:30procesos
19:31sistemas
19:31que
19:32andan navegando
19:34por el espacio digital
19:35digamos
19:36sean seguros
19:37entonces
19:38la mayoría
19:39de los desarrollos
19:41de inteligencia artificial
19:42que han tenido
19:43más éxito
19:44pues navegan
19:45también en ese espacio
19:46entonces deberían
19:47de ir de la mano
19:49en ciberseguridad
19:52ha habido
19:52varias iniciativas
19:53por ahí
19:54para estar regulando
19:55que por ejemplo
19:56los diferentes resultados
20:00de las aplicaciones
20:01sean expresadas
20:03en términos entendibles
20:04por la gente
20:05y cosas por el estilo
20:08ahora
20:10importante
20:11quiero recalcar
20:12esto que
20:12tanto comentó
20:14nuestra colega
20:15como comentaste tú
20:16que tiene que ver
20:17con los datos
20:18y los sesgos
20:19importante decir
20:21que eso
20:22no es un problema
20:23de los algoritmos
20:24de inteligencia artificial
20:25la información
20:26que se les da
20:26es quien está
20:28alimentando
20:29los datos
20:29no perder de vista
20:30que las herramientas
20:31de inteligencia artificial
20:32aprenden
20:33lo que nosotros
20:33le damos
20:34y si claro
20:35si yo voy a caracterizar
20:37o voy a identificar
20:39rostros
20:40de personas
20:40y tengo más
20:41más hombres
20:42que mujeres
20:42pues muy seguramente
20:44se va a equivocar
20:45más con mujeres
20:46que con hombres
20:46si van a decir
20:47este sistema está mal
20:48pues no necesariamente
20:49es el sistema
20:51importante también decir
20:52que todos los que
20:54defendemos esta tecnología
20:56siempre vendemos
20:59cualquier desarrollo
21:00de inteligencia artificial
21:01como una herramienta
21:03de apoyo
21:04estuvimos Roberto
21:05tú estuviste hace varios años
21:06en un foro
21:08donde vino una chica
21:10esta Wanda Muñoz
21:11que era
21:11con aquella iniciativa
21:13de Stop Killer Robots
21:15parar los robots asesinos
21:16¿no?
21:17donde
21:17pues no solo era
21:19los robots
21:20pues no solo era
21:20la cuestión militar
21:21es cualquier cosa
21:23donde la IA
21:25haga una propuesta
21:28para tomar decisiones
21:30la decisión
21:31siempre tiene que estar
21:32del lado del ser humano
21:32porque entonces ahí
21:34trataremos de dar respuesta
21:35a una de las preguntas
21:36que salieron en la cápsula
21:38¿a quién le echamos la culpa?
21:40bien complicado ¿no?
21:42bien complicado
21:43¿a quiénes son los responsables?
21:44entonces imagínate
21:45que yo haga el algoritmo
21:48van a decir
21:49pues ¿a quién hizo el algoritmo?
21:50pero si le alimentaron
21:52datos erróneos
21:53pues entonces
21:54a Félix Castro
21:55lo van a criminalizar
21:57siendo que él
21:58no es el
21:59el culpable
22:01per se
22:02digamos ¿no?
22:02entonces
22:03importante decir
22:04que es bien complicado
22:06regular
22:07a quién le echamos
22:08la culpa
22:09porque tiene que ver
22:10con un contexto
22:11y un dominio
22:11de aplicación
22:13todos tendremos
22:14algo de culpa
22:15seguramente
22:16¿sí?
22:17entonces
22:18ahí vienen
22:18estas regulaciones
22:19sobre todo
22:20del uso
22:20del desarrollo
22:22y sobre todo
22:23de la trazabilidad
22:24de la decisión
22:26final de estas herramientas
22:28acompañada
22:29de la decisión
22:30del ser humano
22:31eso es uno
22:32de los grandes retos
22:33y por eso
22:34en inteligencia artificial
22:35los últimos años
22:36ha habido
22:37toda una línea
22:39emergente
22:39que se llama
22:40inteligencia artificial
22:42explicativa
22:44tomando
22:44como base
22:46uno de los
22:46de las áreas
22:47de inteligencia artificial
22:48que más éxitos
22:49han dado
22:50que son las redes neuronales
22:51artificiales
22:52que es una caja negra
22:53o que era una caja negra
22:55y entonces
22:56ahí no sabíamos
22:57cómo llegamos
22:59a la decisión
23:00entonces ahora
23:01en
23:02no sólo en las redes neuronales
23:04en algunos otros
23:04algoritmos
23:05inductivos
23:06de ese tipo
23:06se trata
23:07de explicar
23:08cómo llegó
23:10a la decisión
23:10de tal forma
23:12que podamos
23:13en determinado momento
23:14pues saber
23:15pues ahí sí
23:16a quién tiene
23:17tantita más culpa
23:18que el otro
23:19ahora esto nos lleva
23:20precisamente
23:20a invitar
23:22a una reflexión
23:22a nuestros
23:23pues a todo el público
23:24en general
23:25y sobre todo
23:26como ustedes pueden
23:27observar
23:27estimados amigos
23:28y amigas
23:29de agenda 13.1
23:30que esto nos lleva
23:32precisamente
23:32a que apenas
23:33estamos tocando
23:34la punta del iceberg
23:35de lo que es
23:36y lo que debe de ser
23:38la inteligencia artificial
23:39esto nos lleva
23:41sobre todo
23:42falta tocar
23:42la parte educativa
23:43la parte social
23:44regresamos
23:48¿tú qué opinas
23:49de la inteligencia artificial
23:51¿la has utilizado?
23:52este no
23:53no la utilizo
23:54pero siento
23:54que es una herramienta
23:55que puede ser útil
23:57dependiendo
23:57para qué
23:59la quieras
24:00¿no?
24:00sí
24:01sí
24:01sí la he utilizado
24:02pero me imagino
24:03que ya no debería
24:04de utilizarse
24:05porque la verdad
24:05está acabando
24:06con la sociedad
24:07sí de hecho
24:07trabajo con ella
24:08yo sí la he utilizado
24:09y pues yo considero
24:11que está bien
24:11como una herramienta
24:12pero también
24:13no podemos dejar
24:14que nos reemplace
24:16nuestras actividades diarias
24:17¿no?
24:17entonces porque pues
24:18si no entonces
24:19¿para qué estamos nosotros
24:19haciendo pues
24:20lo que supone que hacemos?
24:22¿no?
24:22¿consideras que se debería
24:23regular el uso
24:24de la inteligencia artificial?
24:27yo creo que
24:28más que nada
24:29se debería
24:31primero como que
24:32capacitar bien
24:33para ya después
24:34depende de la manera
24:35que la ocupes
24:36ya saber
24:38como regularla
24:38sí
24:39en especial
24:40para la gente
24:40que no está
24:41acostumbrada a ella
24:42es una herramienta
24:43muy útil
24:44muy poderosa
24:45pero hay que saber
24:46distinguir
24:47qué información es real
24:48cuál es
24:49yo no considero
24:49que tenga que haber
24:50una regulación
24:51de alguien más
24:52considero que tenemos
24:53que ser nosotros
24:53los que regulemos
24:54pues el uso
24:55que le damos
25:02es que se debería
25:03hacer una ley
25:03para proteger
25:04a la identidad
25:05de las personas
25:05cuando usan
25:06la inteligencia artificial
25:07quizás
25:07sí claro
25:08eso sí
25:08precisamente pues
25:09sí en nuestra persona
25:10ya que
25:11por lo mismo
25:12la inteligencia artificial
25:13ya este
25:14puede saber mucho
25:15sobre las personas
25:16y todo eso
25:17y se revela
25:18mucha información
25:19este
25:20confidencial
25:21y todo eso
25:21¿cómo visualiza
25:22el futuro
25:23con el uso
25:24de la inteligencia artificial?
25:25¿cree que va a afectar
25:27o va a beneficiar
25:27a la población?
25:28por una parte
25:29afecta
25:30y también beneficia
25:31pero pues ya
25:32los tiempos
25:33son totalmente diferentes
25:35ahorita es muy famosa
25:36es muy novedosa
25:37pero es una herramienta
25:38que se integra
25:38con regularidad
25:40y que en un futuro
25:41simplemente podría ser
25:42un añadido
25:43para lo que ya está
25:44para mejorar
25:44lo que ya está creado
25:46yo creo que
25:47se va a estabilizar
25:48ahorita
25:49como es la novedad
25:50pues todos la quieren usar
25:51para todo
25:51pero yo creo que ya
25:52cuando se estabilice
25:53pues el uso
25:55que le damos
25:55pues va a pasar
25:56como una calculadora
25:57o algo así
25:58o sea se va a ver
25:59como una herramienta
25:59más de uso diario
26:02bien pues regresamos
26:05nuevamente con ustedes
26:06y yo creo que
26:08tenemos que
26:09por lo menos
26:10comentar de paso
26:11la parte social
26:13sabemos que hay jóvenes
26:15y bueno
26:15a veces no tan jóvenes
26:17adultos jóvenes
26:18vamos a llamarle así
26:19que utilizan
26:21a la inteligencia artificial
26:23de estas
26:25generativas
26:25que lo utilizan
26:27como consultores
26:29psicológicos
26:30como asesores
26:32orientadores
26:32y eso
26:33pues yo
26:34desde mi particular
26:35punto de vista
26:36veo un alto riesgo
26:37porque hay sesgos
26:38la inteligencia artificial
26:40todavía ahorita
26:41no interpreta
26:42no imita
26:43los sentimientos humanos
26:45y la parte
26:46emocional
26:48depresiones
26:49etcétera
26:50o pues ansiedades
26:52pues son sentimientos
26:54que tenemos
26:54sin embargo
26:55nuestras juventudes
26:56muchos de ellos
26:57están orillándose
26:59desde ellos
26:59¿qué opinas al respecto
27:00Blanca?
27:01Sí
27:02efectivamente
27:04la inteligencia artificial
27:06generativa
27:07puede aumentar
27:09¿no?
27:09la productividad
27:10pero justo
27:11trae esos riesgos
27:12la desinformación
27:13el plagio
27:14dependencia cognitiva
27:16y algo muy importante
27:17es que
27:18no sustituye
27:21por supuesto
27:22para nada
27:22no se ha desarrollado
27:24una inteligencia
27:26emocional
27:26¿no?
27:27y en este sentido
27:29también es importante
27:31recalcar
27:31el acceso
27:32que se tiene
27:34a
27:35a
27:35a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:36a
27:37a
27:37a
27:37a
27:37a
27:37a
27:37a
27:37a
27:37por ejemplo
27:38el internet
27:40en uso
27:41en uso
27:42pedagógico
27:44sigue siendo
27:44muy bajo
27:45y además
27:47México
27:48tiene
27:49más de 60
27:51lenguas
27:52indígenas
27:52que
27:54en esas
27:55en esas
27:56regiones
27:56o lugares
27:57en donde
27:58se tiene
27:59la concentración
28:00de la población
28:01indígena
28:02tiene
28:03una
28:03un acceso
28:04limitado
28:05a las
28:06herramientas
28:07digitales
28:07lo cual
28:08afecta
28:09a la
28:10representación
28:11del
28:11con lo que
28:12se alimenta
28:13la inteligencia
28:14artificial
28:15generativa
28:16y entonces
28:17las
28:19solicitudes
28:20¿no?
28:21de
28:21información
28:22a su vez
28:22ya traen
28:23esos sesgos
28:24¿no?
28:24entonces
28:24si no cuidamos
28:25desde la brecha
28:27¿no?
28:28de
28:28el
28:30el uso
28:31de la información
28:32la inteligencia
28:33artificial
28:33también puede
28:34ampliar
28:35desigualdades
28:35y también
28:37puede generar
28:38polarizaciones
28:40¿no?
28:41y
28:41problemas
28:42sociales
28:43sobre todo
28:44los relacionados
28:45con los
28:46problemas
28:47emocionales
28:48¿no?
28:49entonces
28:49en ese sentido
28:50si no hay
28:51tanto
28:52conectividad
28:53alfabetización
28:54y
28:55una
28:56digamos
28:56transparencia
28:57en cuanto a
28:59con qué se está
28:59alimentando
29:00los modelos
29:01de inteligencia
29:02artificial
29:02sobre todo
29:03la generativa
29:04esta inteligencia
29:06artificial
29:06no va
29:07a democratizar
29:09la tecnología
29:10¿no?
29:11o la productividad
29:12sino que va a polarizar
29:14a la
29:14población
29:16que es algo
29:17que tenemos
29:18que regular
29:18el gran riesgo
29:19que estamos viendo
29:20es que
29:20la tecnología
29:22y en especial
29:22pues bueno
29:23hablamos de la convergencia
29:25tecnológica
29:25que es
29:26infotecnología
29:27cognotecnología
29:27biotecnología
29:28y cognotecnología
29:31el eje
29:32transversal
29:32es la inteligencia
29:33artificial
29:34pero
29:35aquí la parte
29:36que hay que ver
29:38es que toda la tecnología
29:39que está dominando
29:40ahorita
29:40los procesos
29:41económicos
29:42políticos
29:42y sociales
29:43pues es
29:45obedece
29:46un modelo
29:46de negocio
29:47acaba de estar
29:48el CEO
29:50de Meta
29:52en el Congreso
29:54de Estados Unidos
29:55ante acusaciones
29:57de familiares
29:57de familias
29:59que
30:00pues
30:01respecto
30:02a los
30:02efectos negativos
30:04en los jóvenes
30:04¿y qué fue lo que contestó
30:06él?
30:06no
30:06ya estamos arreglando
30:08eso
30:08o sea
30:09eso no es cierto
30:10no le van a quitar
30:11el modelo de negocio
30:12¿qué quiere el modelo
30:13de negocio?
30:14más usuarios
30:15y más tiempo
30:16de cámara
30:17en el usuario
30:19y eso ha provocado
30:21si para el algoritmo
30:23es
30:24difundir
30:25mensajes de odio
30:26y eso le atrae gente
30:27y le atrae
30:28espacio
30:29y tiempos
30:30lo hace
30:30no le importa
30:32los efectos
30:32que esto tenga
30:33entonces
30:34los impactos sociales
30:36¿cómo podemos
30:37regularlos?
30:38nada más
30:39con una normatividad
30:40o tendrá que irse
30:41más allá
30:42de esa normatividad
30:43y construir
30:45una nueva cultura
30:46una ética
30:47al respecto
30:48¿cómo podríamos
30:49impulsar esto
30:50estimado
30:50doctor
30:51Félix Agustín?
30:54bien complicado
30:55responder eso
30:56por un lado
30:57las regulaciones
30:59deben de ir
31:00acompañados
31:01de una serie
31:03de estrategias
31:04tú lo dijiste
31:04al principio
31:05¿cómo puedo
31:07medir
31:07que eso se esté dando?
31:09eso es un gran problema
31:10porque
31:11por un lado
31:11ya las iniciativas
31:12casi todas
31:13dicen
31:13cuando se
31:16carguen datos
31:17al sistema
31:18cuidar
31:19que no
31:19estén
31:20desbalanceados
31:21que no
31:22infrinjan
31:22no sé qué
31:23todas estas reglas
31:24pero eso
31:25eso y nada
31:26es casi lo mismo
31:27debe de ir
31:28acompañado
31:29de un conjunto
31:30de instrumentos
31:31y métricas
31:32métricas
31:32que nos permitan
31:33realmente
31:34como lo dijo
31:35la colega
31:36tener un grupo
31:37de expertos
31:38que digan
31:38a ver
31:38entrenaste un sistema
31:40para esto
31:40a ver
31:41vamos a verificar
31:42que realmente
31:43cumpla con eso
31:44y para eso
31:45necesitamos un instrumento
31:46luego
31:47bien interesante
31:49en la cápsula
31:50uno de los jóvenes
31:51dijo
31:51si están muy bien
31:53las reglamentaciones
31:54pero debemos
31:55regularnos
31:56nosotros mismos
31:57yo creo
31:58que
31:59la única forma
32:01que ahorita
32:02se me ocurre
32:02por un lado
32:03es regular
32:03por supuesto
32:04que sí
32:05que los usos
32:06y aplicaciones
32:08de la inteligencia
32:09artificial
32:09sean en beneficio
32:11de la sociedad
32:11eso es uno
32:13y ya hay una iniciativa
32:14ya tiene varios años
32:16que se llama
32:16AI for Good
32:17inteligencia artificial
32:18para el bienestar
32:20sin embargo
32:21es solo una iniciativa
32:22internacional
32:23que está por ahí
32:24donde estamos
32:24inscritos algunos
32:26pero
32:27a mí
32:27Félix Castro
32:28no me obliga
32:29que los algoritmos
32:30que yo estoy haciendo
32:31o que los datos
32:32con los que estoy
32:32entrenando mis algoritmos
32:34pues no los esté haciendo
32:35de la forma adecuada
32:37entonces
32:37cómo debemos de llegar
32:39como cualquier otra
32:40otra cuestión
32:43cuando nacieron las máquinas
32:44cuando nació internet
32:45primero hay que decirles
32:47nos sirve para esto
32:49es una herramienta
32:50de la vida
32:50para que nos ayuda
32:51para tal tal tal tal cosa
32:53¿vale?
32:54pero
32:54la única forma
32:56de lograrlo
32:56es generar
32:57una conciencia digital
32:59una conciencia
33:00en la gente
33:02como lo dijo
33:02el muchacho
33:03que yo sé
33:04que si yo utilizo
33:06una de estas herramientas
33:07generativas
33:08para que me construya
33:09un documento
33:11de algo
33:12pues saber
33:13que eso
33:14lo único
33:15que me está haciendo
33:16es facilitarme
33:17el trabajo
33:17en lugar de que yo
33:18me vaya a la biblioteca
33:19como lo hacíamos antes
33:21en nuestros tiempos
33:22primero era con los libros
33:23y uno apuntaba
33:24sus fichas
33:25sus fichas bibliográficas
33:27después
33:28pues te ibas a internet
33:29o te ibas a los libros digitales
33:31y buscabas información
33:32y lo construías
33:33bueno pues ahora
33:34estas herramientas
33:35lo que nos están haciendo
33:36es facilitarnos
33:38la vida
33:39digamos
33:39y si se cumple
33:41el objetivo
33:42en cualquiera
33:43de los tres ejemplos
33:44libros físicos
33:45libros digitales
33:46y ahora
33:47estas herramientas
33:48que se nos
33:49quede algo
33:50cognitivamente
33:51entonces está cumpliendo
33:52el objetivo
33:53porque es una herramienta
33:54debemos de verlo así
33:55es
33:56y no va a ser
33:58más que una herramienta
33:58no va a ser
33:59más que una herramienta
34:00hasta ahorita
34:00yo siempre
34:02luego
34:02me ha tocado la fortuna
34:04de dar pláticas
34:04en varios lados
34:05y siempre la pregunta
34:06recurrente es
34:07a ver
34:09la inteligencia artificial
34:10nos va a dominar
34:12yo creo que no
34:13hombre
34:13totalmente de acuerdo
34:16eso ha sido alimentado
34:17por todas estas cuestiones
34:18cinematográficas
34:20no
34:20porque estamos a tiempo
34:22de regular estos usos
34:23siempre se nos van a escapar
34:25esos layers
34:25que decimos
34:26los casos atípicos
34:28pues no
34:28siempre va a existir
34:30alguien
34:30este
34:31con mala onda
34:33pues
34:34y que diga
34:34ah
34:35yo encontré esto
34:36esto lo voy a usar
34:36para hacer esto
34:37vamos a existir
34:38a ver pues
34:39perversidad existe
34:41siempre existe
34:42y generalmente
34:42en muchos poderosos
34:44hoy
34:45queramos o no
34:45lastimosamente
34:46queramos o no
34:47hay dirigentes políticos
34:49a nivel global
34:50que tienen una tendencia
34:52a la expansión
34:53a la imposición
34:54a la hegemonía
34:54hoy hablar de geopolítica
34:56es hablar de geotecnología
34:58y es hablar
34:59de geoeconomía
35:00el dominio
35:01y que empieza
35:02por los recursos naturales
35:03pero esto también
35:04nos lleva
35:05a pensar
35:06en lo siguiente
35:07la inteligencia artificial
35:09también es un arma
35:11y esto
35:13está provocando
35:14o sea
35:14para muchos gobiernos
35:16es un arma
35:17en contra de sus disidentes
35:18y es un arma
35:19en contra de que
35:20con quienes quieren
35:21dominar y intervenir
35:22es un arma
35:23por eso es que
35:24lo dijiste bien
35:25las métricas
35:27son fundamentales
35:28y por ejemplo
35:29pues
35:29aquí está
35:30la doctora Blanca
35:31que está
35:32impulsando
35:33la formación
35:34de una
35:35de una
35:36de una métrica
35:38de una
35:38de una
35:39estadística
35:40a nivel estatal
35:41el índice estatal
35:43de inteligencia artificial
35:44¿qué nos puedes contar
35:46de esto Blanca?
35:47Sí
35:48bueno
35:49el índice estatal
35:50lo que busca
35:51es replicar
35:53las métricas
35:54que se tienen
35:55a nivel nacional
35:56para identificar
35:58sobre todo
35:59las capacidades
36:00que están
36:03concentradas
36:04en algunas
36:05entidades federativas
36:06y cuáles son
36:08las oportunidades
36:09que se tienen
36:10en otras
36:11entidades
36:12para poderlas
36:14hacer crecer
36:15a nivel
36:16nacional
36:18y en este sentido
36:19por ejemplo
36:20el caso
36:21de Oaxaca
36:23tiene mucho
36:24más
36:25normativa
36:26en relación
36:28a la transparencia
36:30de datos
36:31a los cambios
36:31legislativos
36:32que me parece
36:34que por
36:36el impulso
36:37social
36:37y la cohesión
36:38social
36:39que también
36:39es un aspecto
36:40importante
36:41que se junte
36:42y que colaboren
36:44junto a la sociedad
36:45se pueden
36:46generar
36:48cambios
36:49institucionales
36:50hay muchos
36:51incidentes
36:52actualmente
36:53de hackeos
36:54y hackeos
36:55sofisticados
36:56con la inteligencia
36:58artificial
36:58más sofisticados
37:01que los que
37:02hacer
37:02ah
37:02las
Comentarios