Saltar al reproductorSaltar al contenido principal
La manipulación cognitiva a través de algoritmos consiste en el uso de diseños persuasivos y análisis de datos para alterar la percepción de las personas, con incidencia a nivel sensorial e, incluso, en su toma de decisiones. En este sentido, los algoritmos no solo exponen contenido, sino que intentan moldear cómo discernimos la realidad. Su objetivo es incrementar el tiempo de consumo en una plataforma mediante elementos de gratificación instantánea, así como influir en acciones relacionadas con compras, votos u opiniones.

¡Dale like, comenta, comparte, suscríbete a nuestros canales y pulsa la campanita de notificaciones para que te enteres de todo el contenido que tenemos para ti!

Únete a nuestro canal de teleSUR en WhatsApp
https://whatsapp.com/channel/0029VaCZ...

O forma parte de nuestra comunidad también en WhatsApp
👇https://chat.whatsapp.com/IrRjc06uPUR...

En el resto de las plataformas digitales estamos como:

https://www.youtube.com/channel/UCqzuvMYiF4TJktrXCNEqJPA
💬 https://bit.ly/telesurweb
www.youtube.com/@telesuralacarta
✖ https://bit.ly/telesurenX
📹https://bit.ly/teleSURenYoutube
📷 https://bit.ly/telesurenInstagram
💟 https://bit.ly/telesurenFacebook
📣https://bit.ly/teleSURenTelegram
🎧https://bit.ly/telesurenPodcast
⏯https://bit.ly/teleSURenTikTok

#TeleSUR #SiempreTeDaMás #ELOjodeAméricaEnElMundo

Categoría

🗞
Noticias
Transcripción
00:18Hola, qué tal, bienvenidos, bienvenidas, qué gusto saludarlos a través de nuestro
00:22multimedia Telesur, soy Luis Francisco Blandón en Caracas, Venezuela, hoy con otro tema muy
00:28importante, hoy hablamos de los algoritmos digitales, los cuales deciden qué contenidos aparecen
00:34en nuestras pantallas y aunque parecen neutros, pues tienen también un impacto enorme en nuestra
00:38vida, en lo social nos encierran en burbujas donde sólo vemos opiniones parecidas a las
00:43nuestras, algo que para expertos puede tener incidencia en el pensamiento crítico, pero
00:48también nos empuja al consumismo sólo por lo que es famoso o viral, a veces son sistemas
00:53que pueden usarse para enviarnos noticias falsas o mensajes, haciendo que nuestras decisiones
00:58sean menos libres y más manipuladas, una ingeniería social de precisión quirúrgica en la cual las
01:05grandes plataformas tecnológicas han dejado de ser simples canales de comunicación para
01:09convertirse en laboratorios de conducta humana. Hoy analizamos la manipulación cognitiva a
01:16través de los algoritmos digitales en texto y contexto. Bienvenidos. La manipulación cognitiva
01:23a través de algoritmos es el uso del diseño persuasivo y análisis de datos para alterar
01:30la percepción y su incidencia en lo sensorial e incluso en las decisiones. En este sentido,
01:37los algoritmos no sólo exponen contenido, sino que intentan moldear el discernimiento de la
01:44realidad para incrementar el tiempo de consumo en una plataforma a través de elementos de
01:51gratificación instantánea o para influir en acciones relacionadas a compras, votos u opiniones.
02:00Ahí teníamos el perfil de nuestro programa el día de hoy. Paso con mis invitados, dos de ellos acá en
02:06estudio, uno en la distancia. Me acompaña Isalif Mateus Espindola, psicóloga, profesora de la
02:11Universidad Nacional Abierta, integrante del colectivo de psicólogos por el socialismo.
02:16Muchísimas gracias por su tiempo con nosotros, doctora. También me acompaña Martín Román,
02:20profesor de la Universidad Internacional de las Comunicaciones, investigador en economía y
02:24comunicación digital. Muchísimas gracias, profesor, por su tiempo con la audiencia latinoamericana.
02:30También me acompaña en la distancia Arturo Barba Navarrete, periodista especializado en temas de
02:34ciencia, salud, tecnología y medio ambiente. Muchísimas gracias por su tiempo con nosotros.
02:39Bienvenido a este programa en Telesur. Y bueno, vamos a iniciar con una pregunta un poco más amplia.
02:46¿Es el algoritmo en redes sociales un espejo de nuestra sociedad o es la herramienta definitiva
02:52de control social en el siglo XXI? ¿Qué piensa Islavia?
02:55Es definitivamente la herramienta de control social que está produciendo modificaciones
03:03y cambios en la sociedad de manera imperceptible ya desde tempranamente en la década de los
03:1090. No es juego lo que está puesto en la mesa en relación al tema de las redes sociales
03:20y el control sobre la información, las emociones y las ideas que se transmiten a través de
03:27ellas.
03:28Sí, sin duda. ¿Está usted de acuerdo, profesor?
03:31Complimento. Estoy de acuerdo, ciertamente, pero va mucho más allá. El algoritmo tiene el
03:37sesgo del ser humano, tiene una intencionalidad, son procesos cerrados que son cíclicos, que
03:42son paramétricos y luego eso otorga unos datos que son procesados en los centros de datos
03:49y a partir de esos datos se genera la comunicación. Entonces el proceso es bastante más complejo.
03:55Ciertamente el algoritmo tiene una responsabilidad, pero también el algoritmo sirve para el desarrollo
04:00de la sociedad y de nuevas comunidades y capacidades productivas, económicas, políticas, sociales.
04:06Sí, totalmente. Hay un esfuerzo por, digamos, tratar los algoritmos y las redes sociales de
04:12manera productiva, de manera muy concisa para el desarrollo de las sociedades, pero por otro
04:17lado, la manipulación, por ejemplo, ¿está afectando, profesor, el sentido crítico de
04:23las personas, la posibilidad de que sean manipuladas intencionalmente? ¿Cuál es la lectura?
04:29Con toda razón, sí, es cierto, pero siempre ha sido así, ¿no? El periódico antes lo hizo,
04:34la televisión, la radio, el cine, recordemos, el tercer Reich tomaba el control de las radios
04:39y de los cinematógrafos en tiempos de las invasiones que realizó en el desarrollo de
04:45la Segunda Guerra Mundial. Ciertamente ahora estas nuevas tecnologías, el algoritmo y la
04:49velocidad de la comunicación que viaja a la velocidad de la electricidad, pues, obnubila,
04:55neutraliza el funcionamiento natural de nuestro cerebro porque estamos saturados de información
05:00y aquí es donde somos susceptibles a la manipulación, a la coerción del pensamiento.
05:07Por eso el pensamiento crítico y la creatividad es fundamental y el espacio físico para el
05:11contacto entre seres humanos y procurar la serendipia.
05:13Sí, sin duda se está actualizando el formato, pero sigue siendo igual el peligro, ¿no?,
05:19de la manipulación en ese sentido de los algoritmos. Arturo, preguntarte justamente por
05:23esto, ¿no?, por el peligro político y cultural porque se intenta moldear conductas, una realidad
05:29que no tiene nada que ver con el día a día de las personas y en nuestro continente, efectivamente,
05:36¿cómo ves esos peligros desde el punto de vista político y cultural?
05:39Bueno, es algo, es una realidad que ya hemos vivido en otros momentos. Recordemos la primera
05:46elección de Donald Trump en 2016 y también el Brexit cuando Reino Unido decidió salir de
05:53la Unión Europea también ese mismo año. Justamente son las grandes empresas tecnológicas
06:00y estos grandes oligarcas tecnológicos que dominan estos grandes medios que ahora utilizamos a través
06:09de Internet y que utilizan inteligencia artificial en las redes sociales, inteligencia artificial en la
06:17inteligencia artificial generativa, en las aplicaciones que han surgido y que se han estado utilizando y que
06:23nos han vendido como una necesidad y que mucha gente consume como una necesidad de forma acrítica, son los mismos
06:32empresarios, los mismos dueños que están dominando la comunicación a través de Internet. Y eso, si lo sumamos a que
06:41en la
06:42actualidad, tenemos a generaciones de jóvenes que han, desde que nacieron, han vivido hiperconectados a estas
06:51redes y a los dispositivos digitales. Por un lado, son grandes empresas que dominan los algoritmos, que es un
07:00conjunto ordenado, definido de instrucciones para que una máquina ejecute una acción o una actividad. Y estos
07:10algoritmos se aplican y nos lo aplican a todos los usuarios de redes sociales y de las distintas plataformas y
07:20buscadores de
07:21Internet, y también ahora la inteligencia artificial generativa, y van recopilando toda nuestra información al momento en que
07:29nos conectamos, ya sea a través de nuestros dispositivos digitales o a través de computadoras, y se dan cuenta y
07:38van recopilando ese
07:39conjunto enorme de grandes servidores computacionales donde van recopilando con estos algoritmos la información de todos y cada uno de
07:50los usuarios.
07:50Y de esta manera, saben lo que leemos, saben la información que buscamos, lo que compramos, incluso nuestra posición política.
08:00Entonces, con esta información, los grandes oligarcas de estas grandes empresas tecnológicas, la venden al mejor postor, y se la
08:10venden al mejor postor que le paga por anunciarse y ofrecernos mercancías.
08:16Pero también, como ocurrió y decía en el Brexit y en la primera elección de Donald Trump, se la vende
08:22a empresas que no tienen escrúpulos y que utilizan nuestra información personal para tratar de modificar, y así lo hicieron
08:31exitosamente, nuestra intención de voto, nuestra ideología.
08:36Y ahí es donde, además de vulnerarse las democracias, esto afecta, por supuesto, los hábitos de consumo, y también, en
08:47el peor de los casos, genera adicción, porque va dirigido también a estimular los centros, digamos, más básicos,
08:56que estimulan el cerebro límbico o el cerebro emocional, y que es alimentado con un scroll o una base de
09:07pantalla infinito en el que nos ofrecen información que ya nos gusta,
09:12porque ellos ya nos conocen, saben lo que consumimos, saben lo que vemos, leemos, y nos lo ofrecen de manera
09:20instantánea, gracias a la inteligencia artificial y a las grandes computadoras y servidores que tienen distribuidas por varias partes del
09:28mundo.
09:28Sí, sin duda, el factor psicológico es muy importante, Salif, hablar de esto también, porque es importante, analistas mencionan sobre
09:36una idiotización que merma o que condiciona el pensamiento crítico de las personas.
09:42¿Estás de acuerdo con esto? Se habla mucho de la manipulación en las redes sociales y, por supuesto, la percepción
09:48de las personas que consumen este contenido.
09:51Mira, lo primero que habría que hacer es que la gente entienda lo que significa ese proceso que da el
10:00algoritmo que muy bien estaba explicando el compañero.
10:03¿Qué es lo que sucede en términos psicológicos?
10:06Entonces, recopilar esa cantidad de datos, ¿verdad?, de uno mismo, que uno ni siquiera tiene conciencia de cuántos datos está
10:16aportando todos los días.
10:18En la última encuesta rápida que yo hice con un grupo de estudiantes, bueno, el promedio de una semana diario
10:28eran ocho horas de comunicación.
10:31Ocho horas de comunicación, de conexión, de interacción, en videojuegos, en eso de pasar pantallas y ver cosas, en darle
10:40like y todo lo demás.
10:42Esas ocho horas tú estás haciendo cosas automáticas.
10:47Incluso buscando gratificación instantánea.
10:50Entonces, le estás dando información a eso que se llama algoritmo, que quién lo domina, el que paga, y el
10:59dueño de quien lo produce, pues, de alguna manera.
11:02¿Qué es lo que sucede?
11:04¿Qué es lo que te pone el algoritmo?
11:07Todo lo que tiene que ver con tus gustos e intereses.
11:12¿Qué es lo que eso produce?
11:15Produce que tú estés convencida y refuerces, y bueno, mis gustos y mis intereses son válidos.
11:23Pero se pueden moldear también los gustos y los intereses.
11:29Por la vida de aproximaciones sucesivas y empezar a naturalizar situaciones como la que vimos con las frutinovelas, por ejemplo.
11:37Que son procesos donde, de una manera subliminal, a través de lo que puede ser parodia o lo que puede
11:48ser un cómic o lo que sea,
11:50tú vas introduciendo valores, conceptos y percepciones determinadas.
11:56Lo que sí es importante es que en términos psicológicos, eso que es lo que nos hace ser menos tolerantes
12:06ante el diverso o al que piensa distinto.
12:10Claro, por supuesto.
12:11Y eso nos hace que ante la realidad real en la que yo me encuentro, situaciones en las que no
12:17todo es lo como me gusta,
12:19tenga poca tolerancia para manejar lo que me genera esa diferencia.
12:24Ahora, estamos ante, porque analistas también lo comentan, estamos ante una pandemia global en términos, por ejemplo, de lo que
12:32usted comentaba,
12:33de adicción, del esfuerzo mínimo de pasar y la gratificación instantánea.
12:38Mira, una pandemia...
12:40O es demasiado decirlo.
12:41No, yo te lo voy a decir en términos muy críticos.
12:45Una pandemia se produce cuando hay una situación disruptiva no controlada.
12:52Nosotros estamos ante una situación completamente controlada por quienes dominan el campo tecnológico para que esto sea así.
13:06Vamos a empezar por...
13:07Vamos a estar claros en que no es algo que está pasando.
13:11Por lo tanto, darle la connotación de pandemia es como que si estuviera pasando por cualquier razón.
13:20No, no, no.
13:20Correcto.
13:21Aquí hay unas compañías que dominan la cuestión tecnológica, hay unas compañías que dominan la información,
13:26que dominan el contenido y que tienen los suficientes datos de cada uno de nosotros como seres humanos
13:33para saber cómo aislarte de tu realidad.
13:38O sea que en paralelo también daños mentales se están realizando en torno a todo este escenario.
13:44Se producen modificaciones.
13:46Bien, vamos a seguir hablando de este tema.
13:49Tengo que hacer una breve pausa, hoy hablando precisamente sobre la manipulación de los algoritmos digitales
13:55y cómo esto está moldeando la conducta en nuestros pueblos y el mundo.
13:58Vamos a una breve pausa, ya regresamos.
14:35Gracias por seguirnos en texto y contexto, hoy hablando de la manipulación de los algoritmos digitales.
14:42Hablamos con Martín Román, profesor de la Universidad Internacional de las Comunicaciones,
14:46también la doctora Isalif Mateos Espíndola y Arturo Bárbar Navarrete,
14:50periodista especializado en temas de ciencia, salud, tecnología y medio ambiente.
14:53Hablando precisamente de cómo se está, cómo está permeando la realidad del algoritmo digital en la vida de las personas.
15:05Quería preguntar, Martín, porque ya hemos hablado de que esto aísla,
15:08que efectivamente hay, digamos, un mayor control sobre las emociones incluso de las personas.
15:13Pero bueno, la pregunta ahora va encaminada hacia qué hay que hacer,
15:18porque hay un peligro, ya hemos determinado esto, y hay planteamientos.
15:22Entonces, prohibición, regulación, dejarlo de lado, como si aquí, bueno, esto no sirve.
15:29¿Qué planteamientos son necesarios para evitar todos estos peligros?
15:33Si lo prohibimos, se va a la dark web, primero que nada, y la gente la va consumiendo.
15:37¿Bien?
15:38Igual.
15:39Además, se está generando toda una construcción de infraestructura en el planeta alrededor de esta nueva realidad tecnológica.
15:46Por tanto, es indetenible.
15:48De hecho, ya Azure, Microsoft, Google,
15:51anunciaron inversiones por encima de 50 mil millones de dólares en Centro de Datos para Latinoamérica.
15:56Claro.
15:57Y esto tiene que ver con la información que no hemos digitalizado,
16:00porque ciertamente la información digitalizada en el mundo, el 90%, está en inglés.
16:06Claro.
16:07Por tanto, nosotros tenemos un tesoro guardado.
16:10¿Cuál es ese tesoro?
16:11Nuestras lenguas originarias, nuestras tradiciones, nuestros grandes escritores,
16:17nuestro Braise Echenique, nuestro Rómulo Gallego, nuestro Simón Rodríguez, ¿verdad?
16:21Y están ahí, en físico, aún no digitalizado.
16:24Más cultura para efectivamente evitar esta manipulación.
16:27Y sería parecido a nosotros.
16:30Ahora, hay un fenómeno que tengo que poner arriba de la mesa,
16:33que sucedió el 21, no es un fenómeno, es una transformación del mundo,
16:38porque el 21 de enero del año 2024, un día después que el señor del pelo naranja
16:43asumió la presidencia en los Estados Unidos, desde China,
16:46una empresa dedicada a la inversión financiera que desarrolló inteligencia artificial,
16:51liberó el código.
16:52Digo, primer código liberado en la historia de la humanidad,
16:56y hoy hay más de 2.900.000 códigos liberados.
17:00Claro.
17:01Y hay más de 5.000 habilidades, llamadas en inglés skills,
17:05y hay más de miles de MSPs que son integraciones de distintas inteligencias artificiales
17:12para una tarea específica.
17:13Y todo eso está en software libre.
17:15Entonces, una comunidad, ¿qué hacer?
17:18Por ejemplo, debo adelantar que en mi universidad, la Universidad Internacional de las Comunicaciones,
17:22ayer asumimos con nuestros pasantes, unos pasantes que tenemos,
17:26el desarrollo para ver si podemos hacer algo de potencia de cómputo con equipos reciclados
17:32y poder almacenar ahí una inteligencia artificial pequeña de 3 billones de parámetros.
17:36Claro.
17:37Que le permita a una comunidad agrícola llevar el control de sus datos con sus sensores
17:41y con todas estas características.
17:42Entonces, la inteligencia artificial liberada, el código, es la emancipación real,
17:49pero tenemos que apropiarnos.
17:50Por ejemplo, veíamos también, mencionas, profesor, algunos detalles de la inversión que se está dando,
17:56pero a la par también vemos mil millonarias, digamos, demandas por parte de estados
18:02a empresas tecnológicas precisamente por el control de los datos.
18:06Veamos, por ejemplo, la restricción que deben tener menores de edad
18:09sobre el contenido que se está compartiendo en redes sociales.
18:11Entonces, ¿cómo poder también desde ese punto de vista manejar?
18:16¿Restricción o eliminación directamente, regulación? ¿Cómo hacerlo?
18:21Existe una tecnología de tercera capa en materia de redes.
18:25Si mal no recuerdo, discúlpenme los expertos en el tema, se llama IXP,
18:29que la utiliza Alemania, Estados Unidos, China,
18:33y nosotros la estamos instalando en algunos países de Latinoamérica.
18:37Y esta red de tercera capa te permite controlar cosas como están haciendo los chinos
18:42que hasta cierta edad pueden utilizar las redes sociales hasta las 10 de la noche o hasta las 12 de
18:47la noche.
18:47Y a las 12 de la noche a ese móvil se le cierra la red social.
18:51Como en China, porque en China igual el TikTok no es igual que en Latinoamérica.
18:54Sí, allá está orientado a otro tipo de temas.
18:56Aquí es más hacia el consumo y muchas veces hacia lo banal.
19:00Pero también hay contenidos muy valiosos, eso tenemos que decirlo.
19:03Los contenidos de Telesur salen en...
19:05Los contenidos de mi universidad salen ahí las investigaciones.
19:08Todo sale ahí.
19:10Entonces yo creo que es apropiarnos de la tecnología, formarnos en función de poder ejecutar y adaptarla a nuestra realidad
19:18concreta.
19:19Y en materia de lenguaje, que es el primer algoritmo de la humanidad, el lenguaje humano,
19:23en materia de lenguaje nosotros debemos proteger nuestro lenguaje y desarrollarlo con inteligencia artificial,
19:30moral y éticamente desarrollada para beneficio del pueblo latinoamericano.
19:33Sin duda.
19:34Ahora, Arturo, teniendo en cuenta toda esta situación, ¿qué planteamientos sugieres desde lo gubernamental,
19:41por supuesto desde el multilateralismo, para enfrentar estos peligros y por supuesto hacer un mayor o mejor uso de los
19:48algoritmos?
19:50Yo creo que lo más importante que se tiene que hacer es regular.
19:53No prohibir, por ejemplo, como se está haciendo en varios países de Europa o en Australia,
20:00el uso de las redes sociales en adolescentes y niñas y niños,
20:03pero sí regular en materia, por ejemplo, de información, en materia legislativa,
20:11establecer controles a estas grandes empresas, por un lado,
20:15para que no puedan vender la información personal de cada uno de los usuarios,
20:20que no vuelvan a repetirse los ejemplos de la elección de Donald Trump y del Brexit.
20:27Yo creo que esa es una parte clave, por un lado.
20:29Por otro lado, el combatir los monopolios.
20:33Es una medida que ya en Estados Unidos no se ha hecho desde hace varias décadas,
20:37pero que en los países como los nuestros deberían establecerse.
20:41Ese combate a los monopolios.
20:43Pero por otro lado, además, ya a nivel de consumidores, a nivel del ciudadano de a pie,
20:50el establecer controles en el uso de redes, controles parentales,
20:55es decir, que los padres de familia y madres de familia establezcan límites en el uso de estos dispositivos digitales
21:03y del uso de redes sociales y de la inteligencia artificial generativa.
21:08Estamos en una época muy parecida a cuando yo era niño y adolescente en el que la nana electrónica era
21:17la televisión.
21:18Ahora son las redes sociales los dispositivos móviles digitales, pero se tienen que establecer controles.
21:27Se han hecho estudios de diversos tipos en el que se establece que el tiempo más adecuado de uso de
21:33redes sociales
21:34es en promedio dos horas. Entonces, con solo dos horas es más que suficiente para el uso de redes sociales.
21:42Y yo también establecería controles parentales para no permitir el uso de estos dispositivos
21:49y de redes sociales en los niños y niñas.
21:52Yo creo que ahí sí, la manera en cómo están expuestos a tanta desinformación
21:58y a tantas imágenes de violencia, yo creo que lo mejor sería que entre menos utilicen estos dispositivos,
22:07es mejor que regresen al juego, a la socialización con amigos en carne y hueso de manera presencial
22:15y no a través de los dispositivos digitales de manera virtual.
22:20Yo creo que sí se tienen que establecer esos controles.
22:22Sí, sin duda. Y esto es algo que no solamente desde el punto de vista de las redes sociales,
22:27los gamers conscientes también mencionan los parámetros y la regulación en este sentido.
22:32Y bueno, es importante lo que menciona Arturo, profesora, porque volver al juego, ¿no?
22:37Volver directamente a la dinámica social tradicional.
22:41Entonces, la pregunta es, usted hablaba, por supuesto, de que hay un aislamiento, ¿no?
22:46Entonces, desde esa perspectiva, ¿qué pueden hacer? Por ejemplo, los gremios que ustedes, por ejemplo...
22:51Yo creo que lo fundamental es que hay que alfabetizar sobre el uso de los instrumentos.
22:59O sea, estamos hablando de que el celular es una herramienta, la computadora es una herramienta,
23:07el televisor es una herramienta y la gente tiene que saber para qué va a usar esa herramienta, ¿no?
23:13Y hay que alfabetizar mucho en función de lo que significa analizar los contenidos y la información que se recibe
23:23a través de esas herramientas.
23:25Estoy de acuerdo con el profesor en el sentido de que no un niño, incluso un adolescente, hasta los 15,
23:3616 años,
23:37tú no puedes pretender que se autorregule.
23:40Tiene que ser el padre, la gente, la familia, la que lo ayude a regularse a través de establecer condiciones,
23:53controles para el uso de ese tipo de herramientas, ¿no?
23:58Entonces, ciertamente, yo creo que hay varios procesos que tienen que ver plenamente de acuerdo con lo que es el
24:05control y la regulación.
24:07Y lo segundo, desde las diferentes instancias, como desde ciencia y tecnología,
24:13que hablan del tema de la tecnología con ética, la ciencia con conciencia,
24:18avanzar hacia campañas de alfabetización sobre lo que significa el uso del buen y mal uso de las herramientas.
24:31Ahora, es algo que obviamente no solamente afecta a los niños.
24:35Martín, termino contigo rápidamente antes de cerrar tu apreciación sobre esto,
24:39porque si también afecta a menores de edad, bueno, también vemos, por ejemplo,
24:44por ejemplo, recientemente un diputado en un congreso de un país latinoamericano
24:49utilizaba la inteligencia artificial para redactar un documento de ley en un país
24:53que obviamente ha tenido controversia directamente el tema de la inteligencia artificial
24:59para el uso de, pues, digamos, hacer nuevas leyes o legislar directamente.
25:06Entonces, ¿cómo están viendo también esa parte?
25:08No solamente la apreciación desde el punto de vista de los jóvenes y de los menores,
25:11sino también de adultos o personas ya dentro de la legislación nacional.
25:16Es una construcción moral que debe expresarse en un código de ética.
25:19En Venezuela y en muchos países lo hemos desarrollado.
25:23Considero que ese diputado debió haber declarado hacer el disclaimer
25:26que utilizó la inteligencia artificial para procesar información.
25:29Creo que eso es válido, ¿no?
25:30Porque reduce el tiempo, ciertamente, optimiza procesos, ciertamente,
25:36y te permite tomarte también tiempo para madurar la idea, revisarla con cuidado.
25:43Por tanto, no satanizo el uso, sin embargo, creo que es un tema moral.
25:48Nosotros como docentes en la universidad, en nuestra universidad y en donde impartimos clases,
25:53el grupo de docentes e investigadores que trabajamos esto,
25:57declaramos el uso de la inteligencia artificial y destacamos cuando son contenidos desarrollados 100% por nosotros como humanos.
26:04Creo que esto cambia la forma en la que nosotros, tanto los estudiantes como los enseñadores,
26:10desde maestros hasta tutores, debemos establecer esta nueva forma de interrelacionarnos
26:18para hacer una práctica ética del uso de la inteligencia artificial.
26:21Es importante este punto y también preguntarle a la audiencia qué piensa sobre el tema.
26:26Le recuerdo, contáctenos a arroba telesurtv.net para ese feedback con nuestro programa
26:31sobre lo que ustedes opinan de este y otros temas que hemos abordado en texto y contexto.
26:36Lamentablemente se me termina el tiempo.
26:38Arturo, muchísimas gracias en la distancia por tu tiempo.
26:40por tu conversación.
26:41Al contrario, muchas gracias a ustedes y un saludo a todos.
26:44Bueno, igualmente para ustedes, muchísimas gracias por haber asistido.
26:47Gracias a ustedes.
26:48Nos vemos en una próxima oportunidad, otro tema importante, contexto y contexto.
26:53Seguimos con nuestra programación.
27:10Gracias a ustedes.
27:10Gracias a ustedes.
27:10Gracias a ustedes.
27:10Gracias a ustedes.
27:10Gracias por ver el video.
Comentarios

Recomendada