Saltar al reproductorSaltar al contenido principal
  • hace 4 horas
Marc Amorós repasa en 'La Ventana' los bulos más compartidos en redes sociales.

Categoría

🗞
Noticias
Transcripción
00:00Y luego pues había muchos vips por allí, pero tenemos que confirmar que no es Ethan Hawke, vamos a decirlo
00:06continuamente en la cadena Ser, no era Ethan Hawke.
00:08Es un bulo, es un bulo. Marca Moros, buenas tardes.
00:11Hola, ¿qué tal? Buenas tardes.
00:11Es nuestro experto en bulos, no sé si te ha llegado este.
00:14No, este no me había llegado, Ethan Hawke estuvo en el concierto de Rosalía.
00:18¿Eso dicen? ¿Tú lo viste?
00:21No, no, no era Ethan Hawke, era Javier del Pino.
00:26Que es mucho mejor que Ethan Hawke.
00:28¿Cómo se habrá tomado él?
00:29O sea, Javier, yo creo que bien, ¿no?
00:32¿Y tú no estuviste?
00:34No, no estuve. Además, para mí pesar, porque no vi entradas y en el periódico, en el país, está todo
00:41el mundo como loco mendigando entradas, pero es absolutamente imposible.
00:46Pero sí, yo conocí a Rosalía, fíjate, hace muchísimos años, cuando empezaba, en una fiesta de la revista Icon, que
00:53le daban un premio, y estaba en el backstage totalmente...
00:58A mí me sorprendía muchísimo la capacidad que tenía de creerse a sí misma.
01:02O sea, en el mejor sentido de la palabra, en saber que estaba haciendo algo trascendente.
01:09Desde su vestuario, que me acuerdo que en aquella época iba vestida de María Que, una diseñadora española, tenía absolutamente
01:16la puesta en escena garantizada.
01:17Y estoy hablando de cuando todavía no era Rosalía.
01:20Era Rosalía, pero era la otra Rosalía. La Rosalía nuestra era Rosalía de Castro. Y lo sigue siendo.
01:25Pero es verdad que se ha hecho con ese hueco, lo ha creado y lo ha ocupado, ¿no?
01:32Y bueno, evidentemente, a unos gustará más y a otros gustará menos, pero no se puede negar ni el talentazo,
01:38ni la inteligencia, ni la estrategia de esta chica.
01:40Claro que sí.
01:40Y como todos los grandes personajes, los que están de actualidad y son influyentes, Marc, Rosalía ha sido víctima de
01:47bulos.
01:47Por ejemplo, una noticia falsa que la relaciona con las criptomonedas.
01:51Bueno, es que al final todos los famosos o famosas de gran alcance acaban siendo caras de noticias falsas que
02:00se utilizan para generar timos o estafar a la gente.
02:03En el caso de Rosalía, hay una noticia que la vincula con criptomonedas y también con un juego, una especie
02:10de juego rollo Candy Crush.
02:12Esta noticia circula de dos formas distintas.
02:15Le han generado un vídeo falso a Rosalía de ella en primera persona, un deepfake, un vídeo generado con inteligencia
02:20artificial en el que ella dice que ella se ha descargado un juego maravilloso,
02:26que ha ganado mucho dinero de una forma muy rápida y que, bueno, pues da el enlace para descargarlo.
02:35Creo que podemos escucharlo.
02:36Sí, si queréis lo podemos escuchar.
02:37Te contaré por qué recomiendo este juego a todos.
02:40Primero, tienes 99% de posibilidades de ganar.
02:43Además, si pierdes, te daré 2.000 euros.
02:47Descarga el juego y gana dinero ahora.
02:48¿Esto es inteligencia artificial?
02:49Esto es inteligencia artificial. Es totalmente falso, tanto la imagen como la voz. El mensaje es el que le interesa
02:57a los estafadores.
02:58El enlace que se da en la noticia no remite a una tienda oficial, digamos, de descarga de juegos, sino
03:04que es un enlace fraudulento.
03:06Lo que buscan es que tú entres allí, des tus datos bancarios, pagues un dinero y al final, pues nada,
03:12te quedas sin datos bancarios que se los has entregado a los estafadores y sin el dinero.
03:16Exacto. También circula esta misma noticia falsa vinculada a otro vídeo. En este caso no está hecho con inteligencia artificial,
03:24sino que se ha manipulado solo el audio.
03:26Se ve a Rosalía con María Casado. Tienen una entrevista televisiva. Se ha cambiado el audio tanto de María Casado
03:33como de Rosalía.
03:35Y ahí Rosalía también dice que se ha descargado un juego, que hizo un pequeño depósito, que ganó un pastón
03:42en tan solo unas pocas horas.
03:44Lo curioso de esta noticia es que se difunde como si fuera una noticia de la cadena SER. Es decir,
03:50que utilizan el nombre y el logo de la radio para difundir esta noticia, que es totalmente falsa.
03:57Aquí el tema es que si la SER quisiera demandar a los patrocinadores de este bulo, claro, ¿a quién denuncias?
04:04Claro, hay que encontrar el origen, ¿no? De quién ha manipulado, digamos, la imagen de la cadena SER en este
04:12caso.
04:13Pero la cadena SER no es la única. Es decir, que se han difundido bulos de este tipo abanderando timos
04:19con los membretes del país,
04:22de la vanguardia del mundo, de muchos medios. Es difícil rastrear el origen de quién está detrás de esto.
04:30También se creó, creo que lo contamos ya, una canción falsa de Rosalía sobre la dana de Valencia.
04:37El río pidió auxilio y nadie quiso escuchar. Gritaba el agua en la noche y el poder miró pa'l
04:54mar.
04:54Y esto también es inteligencia artificial.
04:56Sí, esto también está hecho con inteligencia artificial. Lo contamos en su día. Se hizo muy viral esta canción.
05:04Han circulado otras canciones con otros artistas, Manuel Carrasco, por ejemplo, sobre el accidente de Adamuz, el accidente de tren,
05:13con lo cual no es algo novedoso. Pero en el caso de Rosalía, vinculado con la dana de Valencia, fue
05:20una canción que se hizo bastante viral.
05:22Y una vez más estamos ante un contenido falso generado con inteligencia artificial.
05:27Marc, han publicado un nuevo estudio que apunta al algoritmo como el responsable directo de que las fake news se
05:32difundan más que las noticias reales.
05:34Bueno, es algo que ya intuíamos, que no nos ha sorprendido en exceso, pero es un estudio realizado en una
05:41universidad de Australia.
05:42Ha analizado el comportamiento de más de 4.000 participantes en distintos escenarios.
05:49Les pedían, por ejemplo, que eligieran alguna noticia. Había noticias reales y otras falsas.
05:55Que eligieran una para crear un mensaje que les sirviera para captar la atención de la gente y para intentar
06:02generar conversación a través de este mensaje.
06:05La conclusión del estudio muestra que sin que medie ningún algoritmo, las personas del estudio, más que tender a elegir
06:15noticias falsas,
06:16lo que hacían era elegir noticias verdaderas. Les parecían más creíbles y les parecían que les podría generar mucha más
06:24confianza si las compartían.
06:27Así que el algoritmo, según este estudio, tiene mucho que ver a la hora de, digamos, difundir y viralizar noticias
06:35falsas.
06:35En Estados Unidos, la organización fundada por el secretario de Salud, por Robert Kennedy Jr.,
06:41difunde la idea falsa de que la Wi-Fi es peligrosa para la salud.
06:46Sí, volvemos a las conspiranoias muy típicas en Estados Unidos y en el sistema de salud.
06:53Pues bueno, toda la radiación inalámbrica, que se le llama así, bueno, es pasto de bastantes bulos y noticias falsas.
07:02Ahora, esta organización se llama Children's Defense, está creada por Robert Kennedy Jr., que ahora es el secretario de Salud
07:10de Trump.
07:10Bueno, usa una encuesta online que se ha hecho en torno a 3.400 participantes.
07:18Se les preguntaba si se creían sensibles a la radiación inalámbrica y si creían que eso les afectaba la salud.
07:26Bueno, un 12,6% en esta encuesta online dijo que sí, que lo creía y a partir de ese
07:33dato ellos están haciendo, digamos, campaña
07:36y afirmando que la Wi-Fi, entre otras señales inalámbricas, pues son peligrosas para la salud.
07:44La salud, insisto, no son datos científicos comprobables, ni las enfermedades que la gente dice en esta encuesta que cree
07:51tener no están diagnosticadas,
07:53sino que simplemente sensaciones, opiniones que tiene una gente que ha participado en una encuesta online.
08:00Los periodistas estadounidenses hablan del método de desinformación que tiene la Casa Blanca, ¿no? Tiene una fórmula.
08:07Bueno, es que esto es maravilloso porque al final la desinformación se ejecuta desde el poder con fórmulas cada vez
08:15más sorprendentes.
08:16Esto es algo que si lo viéramos en alguna serie tipo Years and Years o otras series de estas distópicas
08:23sobre poderes autoritarios o gobiernos autoritarios,
08:26nos sorprendería y nos parecería casi un chiste, ¿no? Pero está pasando en Estados Unidos.
08:31En la secretaria de prensa y todo el equipo de comunicación del gobierno Trump, cuando se les pregunta por alguna
08:38afirmación que el presidente ha dado
08:40y que no es correcta o que es deliberadamente engañosa o falsa, responden siempre con la misma coletilla.
08:49Siempre empiezan diciendo Trump tiene razón en esto y luego nos dan una explicación un poco vaga,
08:55y ya nos responden con otros datos o colindantes que no, digamos, refutan al dato original que ha dado Trump,
09:04¿no?
09:04Por ejemplo, Trump puede decir Estados Unidos ya no tiene inflación.
09:09Cuando se le pregunta a la portavoz de la Casa Blanca por esta afirmación falsa,
09:15ella dice el presidente tiene razón.
09:17Los días de la crisis de inflación que dejó Joe Biden han terminado, desde que Trump es presidente la inflación
09:24se ha mantenido en una tasa estable del 2,3%.
09:28Bueno, claro, tener una inflación del 2,3% es tener inflación, no es no tenerla, ¿no?
09:34Insisten en esta fórmula de siempre decir el presidente Trump tiene razón.
09:39¿Os acordáis de una gorra que hizo Trump que ponía Trump is right, right, everything?
09:47Sí.
09:48Tenía razón en todo.
09:50Bueno, esa gorra ahora ya se ha convertido en un mantra que usan los jefes de prensa de la Casa
09:57Blanca para nunca llevarle la contraria al presidente.
10:00O sea, el argumentario es Trump tiene razón.
10:02Sí, eso es el argumentario.
10:03Como un muro, como un muro.
10:04Exacto.
10:05Es que ya no sé cuántos años llevamos diciendo que es que la realidad se lo pone muy difícil a
10:09la ficción.
10:10Sí.
10:10Madre mía.
10:11Vaya tela.
10:12Luego tenemos más deepfakes.
10:15Bill Clinton critica a Trump en YouTube por la guerra en Irán.
10:19Vamos a escucharlo.
10:29El problema es que no es Bill Clinton.
10:31No, no es Bill Clinton, estamos en las mismas que antes comentábamos con Rosalía.
10:36Es un deepfake, es un vídeo generado con inteligencia artificial, suplanta la identidad de Bill Clinton, su imagen, su voz.
10:44Llegan a circular hasta 144 vídeos.
10:47Hay contabilizados de Bill Clinton criticando a Trump por la guerra de Irán.
10:54Solo en YouTube están circulando estos 144 vídeos, acumulan ya más de 11 millones de visualizaciones.
11:02Los deepfakes están generando también muchos escenarios sorprendentes y muchos problemas a muchas personas.
11:10En este caso, Rosalía y Bill Clinton son dos ejemplos.
11:14El caso es que lo que dice es coherente y es sensato.
11:18O sea, el problema es no tanto lo que dice, sino que es que no lo ha dicho, que es
11:21mentira y que te la cuelan, ¿no?
11:23Sí, efectivamente. La fabricación de falsedad informativa busca que tenga algo de trazo de verdad, es decir, que tenga la
11:35posibilidad de ser creída.
11:37Entonces, el discurso de Bill Clinton puede encajar que Bill Clinton esté abanderando este discurso.
11:42El problema es que Bill Clinton públicamente esto no lo ha dicho y, por lo tanto, es totalmente falso.
11:48¿Tampoco es verdad que Pedro Sánchez haya dicho que cualquiera que insulte al Islam irá a prisión?
11:53No, y esto también se ha hecho muy viral esta semana, sobre todo en Equix.
11:58También en Facebook, en Trits y en TikTok esta noticia se ha hecho bastante viral.
12:03Dice que Pedro Sánchez afirma que cualquiera que insulte al Islam o que publique mensajes ofensivos contra el profeta Mahoma
12:14se enfrentará a una pena de cinco años de cárcel.
12:18Volvemos a un mensaje emocional de rápida respuesta que genera o una adhesión o una indignación
12:25y eso provoca, digamos, o facilita que sea muy viral.
Comentarios

Recomendada