Saltar al reproductorSaltar al contenido principal
  • hace 4 horas
Medios de comunicación denuncian un ataque a su credibilidad, ante la responsabilidad de Grok, la inteligencia artificial de X, de difundir falsedades sobre la cobertura en Irán. Específicamente por cuestionar el asesinato de estudiantes e inocentes por el asedio israelí y estadounidense.

La crisis en Oriente Medio por las agresiones de Israel y Estados Unidos en la región, se le suma la desinformación y la manipulación de la información a favor de narrativas hegemónicas.

Este es el caso Grok, y es que el conflicto inició cuando la inteligencia artificial de X calificó como falso un video verificado por efe sobre el bombardeo a una escuela de niñas en Irán... Según la plataforma, las imágenes correspondían a un suceso ocurrido en Kabul en el año 2021, una afirmación que el medio desmintió de forma contundente.

A través de sus redes sociales, el equipo de la agencia de noticias encargada de la verificación de información reafirmó que las imágenes sí corresponden con el bombardeo ocurrido en una escuela de irán el sábado durante los ataques de Washington. E Tel Aviv, desmintiendo la versión de grok sobre unas imágenes viejas.

Otros medios de comunicación también se pronunciaron al respecto, señalando que este no es un hecho aislado. La herramienta Grok tiene un historial de errores, tomando como ciertas imágenes falsas durante inundaciones en Cataluña, España, o nevadas históricas en Rusia y Nueva York.

El problema principal, según los expertos, es que las respuestas de grok son públicas. Cuando comete un error, no solo desinforma al usuario que pregunta, sino a toda la comunidad de la plataforma, amplificando la falsedad a una escala masiva.

Pero a esto se suma que este escenario revela un riesgo sistémico donde la tecnología, en lugar de aportar transparencia, se emplea para sembrar dudas sobre eventos trágicos y vulnerar la veracidad informativa global. De hecho, el papel de plataformas como Grok, la IA desarrollada por y controlada por Elon Musk, añade una capa de complejidad ética debido a sus vínculos con agendas políticas específicas.

Estas estrategias buscan manipular la información y controlar masas, y este caso es un claro ejemplo, pues, aunque la agencia hizo la corrección, no tuvo el mismo impacto y alcance que la falsedad compartida por la IA.

¡Dale like, comenta, comparte, suscríbete a nuestros canales y pulsa la campanita de notificaciones para que te enteres de todo el contenido que tenemos para ti!

Únete a nuestro canal de teleSUR en WhatsApp
https://whatsapp.com/channel/0029VaCZ...

O forma parte de nuestra comunidad también en WhatsApp
👇https://chat.whatsapp.com/IrRjc06uPUR...

En el resto de las plataformas digitales estamos como:

https://www.youtube.com/channel/UCqzuvMYiF4TJktrXCNEqJPA
💬 https://bit.ly/telesurweb
www.youtube.com/@telesuralacarta
✖ https://bit.ly/telesurenX
📹https://bit.ly/teleSURenYoutube
📷 https://bit.ly/telesurenInstagram
💟 https://bit.ly/telesurenFacebook
📣https://bit.ly/teleSURenTelegram

Categoría

🗞
Noticias
Transcripción
00:05Gracias por seguirnos en edición central hoy en enclave mediática hablamos de la denuncia de los medios de comunicación internacionales
00:14que están acusando directamente a Grock la inteligencia artificial de la plataforma X por difundir información falsa y por supuesto
00:24enmarcado en el escenario de Oriente Medio y la agresión contra Irán.
00:29La denuncia expone los riesgos del uso de estas herramientas sin la supervisión y el rigor periodístico.
00:35A la crisis en Oriente Medio por las agresiones de Israel y Estados Unidos se suma la desinformación a favor
00:42de narrativas hegemónicas.
00:44Este es el caso de Grock y es que el conflicto inició cuando la inteligencia artificial de X calificó como
00:50falso un video verificado por F sobre el bombardeo a una escuela de niñas en Irán.
00:56Según la plataforma las imágenes correspondían a un suceso ocurrido en Kabul en el año 2021, una afirmación que el
01:04medio desmintió de forma contundente.
01:07A través de sus redes sociales el equipo de la agencia de noticias encargada de la verificación de información reafirmó
01:14que las imágenes sí corresponden con el bombardeo ocurrido en una escuela de Irán el sábado durante los ataques de
01:20Washington y Tel Aviv,
01:22desmintiendo la versión de Grock sobre unas imágenes viejas.
01:26Otros medios de comunicación también se pronunciaron al respecto, señalando que este no es un hecho aislado.
01:32La herramienta Grock tiene un historial de errores, tomando como ciertas imágenes falsas durante inundaciones en Cataluña, España o nevadas
01:40históricas en Rusia y Nueva York.
01:42El problema principal, según los expertos, es que las respuestas de Grock son públicas.
01:48Cuando comete un error, no solo desinforma al usuario que pregunta, sino a toda la comunidad de la plataforma, amplificando
01:55la falsedad a una escala masiva.
01:57Pero a esto se suma que este escenario revela un riesgo sistémico, donde la tecnología, en lugar de aportar transparencia,
02:05se emplea para sembrar dudas sobre eventos trágicos y vulnerar la veracidad informativa global.
02:11De hecho, el papel de plataformas como Grock, la IA desarrollada por Elon Musk, añade una capa de complejidad ética
02:19debido a sus vínculos con agendas políticas específicas.
02:22Estas estrategias buscan manipular la información y controlar masas.
02:27Y este caso es un claro ejemplo, pues, aunque la agencia hizo la corrección, no tuvo el mismo impacto y
02:34alcance que la falsedad compartida por Grock.
02:38Vamos ahora a los titulares sobre este escenario.
02:41El titular de Venezuela News dice, F acusa a la IA de Grock de poner en duda el asesinato de
02:47estudiantes en Irán.
02:48También informa este medio sobre el peligro de la desinformación generada por la inteligencia artificial Grock, señalando que la herramienta
02:55puso en duda la veracidad de este ataque contra una escuela en Irán, calificándolo de falso o de supuesta una
03:02puesta en escena.
03:03Algo que el medio resalta a través de la denuncia de la agencia EFE y que sostiene que la IA
03:09de Elon Musk está siendo utilizada para manipular la percepción pública sobre tragedias reales y borrando la frontera entre los
03:16hechos comprobados y teorías conspirativas.
03:19La noticia enfatiza que este incidente demuestra cómo la tecnología, bajo una supuesta libertad de expresión, se convierte en un
03:27instrumento para revictimizar a las poblaciones y deslegitimar el trabajo del periodismo profesional en el terreno.
03:34Por su parte, el medio Miraflores dice sobre el tema EFE desmiente a Grock y confirma que ataque a escuela
03:40en Irán fue real.
03:42Dice este medio que comparte la irresponsabilidad precisamente de las plataformas tecnológicas que están permitiendo que sus algoritmos difundan mentiras
03:53sobre crímenes de guerra y ataques a civiles.
03:57Subraya el desmentido categórico de la agencia EFE confirmando que el ataque contra estudiantes iraníes fue un hecho real, documentado
04:05y verificado por reporteros en el sitio.
04:06El medio destaca que la ceguera informativa de Grock no es un error técnico, sino una amenaza a la seguridad
04:12internacional, alertando que la negación de este tipo de eventos busca encubrir agresiones y proteger intereses geopolíticos mediante el caos
04:20informativo y la desacreditación de las fuentes oficiales de noticias.
04:26Por último, Alba Ciudad señala a través de este titular y hace una pregunta, se debe confiar en las inteligencias
04:35artificiales, la disputa entre Grock y la agencia EFE por el ataque a la escuela de Irán.
04:40Con el caso de la agencia EFE, el medio comparte que Grock actúa como una herramienta que es una guerra
04:46híbrida o dentro de una guerra híbrida que decide qué hechos son reales y cuáles no, basándose en sesgos ideológicos,
04:54sino en la realidad de los hechos.
04:56La noticia destaca que el intento de negar el asesinato de estudiantes en Irán es un ejemplo de cómo se
05:01pretende reescribir la narrativa de los conflictos en el sur global desde Silicon Valley, instando a ciudadanos a dudar de
05:09respuestas automatizadas que ignoran el sufrimiento humano en favor de la propaganda digital.
05:20Así las cosas, muy atentos a este escenario, nosotros finalizamos en Clave Mediática, siga con nuestra edición central, más adelante,
05:27información deportiva, no se retire.
Comentarios

Recomendada