Saltar al reproductorSaltar al contenido principal
  • hace 1 hora
¿Qué se esconde tras las virales caricaturas de ChatGPT?

Categoría

📺
TV
Transcripción
00:00Y ahora nos vamos a centrar, Nuria, en una tendencia que se ha hecho viral en redes sociales
00:04y no sé si tú has caído en la tentación o te has resistido.
00:07Pues mira, Sergio, de momento, y te digo de momento, me he resistido y me quiero resistir,
00:12porque es verdad que luego vais a abordar un poco los peligros que conlleva el dar tus datos a la
00:16inteligencia artificial,
00:18pero Sergio, yo de momento me resisto, ¿tú?
00:20Bueno, yo igual caigo un poquillo, no lo sé, yo soy carne de cañón para estas cosillas, ¿sabes?
00:25Bueno, bueno, pues hoy podías haber sido ejemplo de, y no lo has sido, Sergio.
00:29Sergio, pero sí lo han sido algunas imágenes, ¿no?, que hemos ido recopilando en redes sociales.
00:34Caricaturas hechas por inteligencia artificial.
00:36Y hechas por ellos mismos, por ejemplo, la presidenta del gobierno, María Chivite,
00:39fíjate la caricatura que publicó también en sus redes sociales, hecha con chat GPT en su despacho, muy mona, Sergio.
00:46Sí, muy institucional, todo.
00:48Y muy real, parece.
00:49Eso es, tampoco da muchos datos en este caso, ¿no?
00:51Se ciñe a su labor ejecutiva, como también el vicepresidente Javier Remire.
00:57También en su despacho son imágenes que ellos mismos han publicado en sus redes sociales
01:01y hechas efectivamente con esas caricaturas de chat GPT.
01:04Sergio, aquí está también.
01:05Si aquí habrán dado algunos pequeños datos, pues bueno, soy el vicepresidente del gobierno de Navarra,
01:10pues hago, no sé si muchas ruedas de prensa, detrás con las banderas institucionales.
01:15Te suena, te suena.
01:17Es que claro, nosotros no nos hemos puesto de ejemplos, pero sí hemos puesto a nuestros compañeros de Navarra Televisión,
01:22Blanca Basiano.
01:23Que le gusta el drama, que se le ve claramente, ¿no?
01:26Con todas las exclusivas.
01:26El sensacionalismo ahí.
01:28Las últimas noticias, su café diario también.
01:32No puede faltar, Sergio.
01:33El cóctel de Polotop ahí.
01:35Cómo le gustaban esos sucesos.
01:36Esta es otra de las imágenes creadas por Blanca Basiano, con inteligencia artificial.
01:42Y luego tenemos más ejemplos de la casa, ¿eh?
01:44Sergio, por ejemplo, a ver, ¿qué conoces?
01:47Su cabeza ladeada, ¿eh?
01:48Típico siempre que hace un directo, ahí todo chuleta, el tío con cabeza torcida.
01:55Efectivamente, Sergio, esto se hace a partir de una imagen.
01:59Tú pones en chat GPT, quiero que me hagas una caricatura a partir de la foto que yo misma le
02:05doy.
02:05Y ahí está luego ya la polémica de si le estamos dando o no los datos que abordarás con Policía
02:10Nacional.
02:11Pero a partir de esa foto te crea esta caricatura.
02:13Si en estos casos te gusta el café, te gusta la música, te gusta leer noticias.
02:18Le das un poco también datos sobre tu rutina, ¿no?
02:20Quiero que me hagas como reportera de Navarra Televisión.
02:23Me tomo todos los días mi café cubriendo mismamente un 6 de julio, vestida de blanco y rojo en San
02:29Fermín.
02:29Y bueno, el resultado que hemos ido viendo es este.
02:32Tenemos otro, ¿eh?
02:32El de nuestro compañero también, Yule Nuterga.
02:35Que es muy buena la imagen, Sergio.
02:36El editor de fin de semana, a ver, a ver.
02:38Ahí la tenemos.
02:39Ahí está, ahí está.
02:39Bueno, bueno.
02:40Polifacético en San Fermín, es luego un poco más serio y luego ya está pues con nuestra...
02:45Parece que le ha gustado bastante chat GPT, ¿eh?
02:47Porque lo tiene ahí compañero.
02:49Sí, es verdad.
02:49Sí, están hablando, también nos dicen los compañeros que la chapela, ¿no?
02:53La chapela que no es suya.
02:54Bueno, parecería, podría ser un Iker Sesma, por ejemplo.
02:57Así es, eso debe ser de producción.
02:58El compañero de producción con su chapela en Navarra Televisión.
03:00¿Qué te parece, Sergio?
03:00Muy bien, esta ya daba más detalles, ¿eh?
03:03Si te parece, vamos a abordar ahora qué es la huella digital, porque detrás de estas
03:07imágenes también hay mucho que contar.
03:09Y nos queda pendiente de verla tuya en el próximo programa.
03:11Así es, en el próximo programa la vemos.
03:13Imelda Rey, agente de Policía Nacional, responsable de Participación Ciudadana en Navarra.
03:18Muchas gracias por estar hoy aquí con nosotros.
03:20Estábamos un poco de cachondeo con nuestra compañera Nuria, pero ¿qué es la huella digital?
03:24También, porque a veces igual damos muchos datos a Internet.
03:27Sí, bueno, muchas gracias, buenas tardes.
03:30Y gracias por contar con nosotros hoy para hablar de este tema.
03:34Pues mira, la huella digital te vendría a decir que está encardinada dentro de un concepto
03:39que es aún más amplio y más básico, que es la identidad digital, ¿no?
03:43Entonces, vendría a responder un poco, para que todos me entendáis, ¿qué dice Internet
03:47sobre mí?
03:48Eso es la identidad digital y la crea cada persona.
03:51Y es toda la interacción que cada persona tiene en el mundo digital.
03:56Un WhatsApp que envío, una foto que lanzo a una aplicación informática, a una red social,
04:02una imagen, un vídeo que publico, un correo electrónico...
04:05Todo lo que una persona interactúa en el mundo digital, deja una huella digital.
04:11Y nos va a acompañar el resto de nuestra vida, prácticamente.
04:14Exactamente. Entonces, es súper importante controlar la privacidad y qué hacemos en el mundo digital,
04:21a dónde nos va a llegar, porque esa huella nos va a ir acompañando.
04:25Es como mi yo digital. Y eso va a generar una reputación online.
04:30Pero es que hoy en día, la interacción, que ya hemos visto, ¿no?, que es súper popular,
04:36que está en todos los ámbitos de la sociedad, que además tiene una parte, pues, divertida,
04:45creativa, efectivamente, pues, tiene que tener en cuenta unas medidas de seguridad.
04:50¿Y qué tenemos que tener en cuenta? Porque yo creo que no somos conscientes de todo lo que conlleva.
04:55Efectivamente, no somos conscientes de lo que conlleva cada clic que nosotros hacemos, ¿no?
05:00Ahora, por ejemplo, pues, una persona, cuando decide enviar o interactuar en Internet,
05:07tiene que tener en cuenta, lo primero, en edades más tempranas, por decirlo así, ¿no?,
05:12porque esto gusta a niños, niñas, adolescentes, a personas adultas, ¿no?
05:16A todo el mundo.
05:16A todo el mundo. Y además se envuelve, ¿no?, como en una esfera muy creativa, divertida, lúdica.
05:21Pero tenemos que saber que hay ciertas edades, ¿no?, porque la Asociación Española de Pediatría,
05:27tenemos expertos en pediatría que tienen unas recomendaciones.
05:30Entonces, tenemos unas edades para niños, niñas y adolescentes con un uso y que avanzar progresivamente
05:37y luego ya, en la edad adulta, pues, tenemos otro tipo de actividad.
05:42Tenemos que tener en cuenta, sobre todo, que el entorno digital, ¿cómo lo vamos a utilizar?
05:50¿Con quién lo vamos a utilizar? Porque eso va a marcar un poco ese uso seguro que hagamos.
05:56O sea, pero al final sí que está expuesta, ¿no?
05:59Aunque no queramos, como estamos en un mundo 100% digitalizado,
06:02es muy difícil librarse de esa identidad digital de la que hablas.
06:06Efectivamente, o sea, vivimos en un mundo hiperconectado.
06:09La diferencia va a estar en ser conscientes de qué plataformas utilizo,
06:14si realmente estoy preparado, si conocer las condiciones de uso de esa plataforma, ¿no?,
06:20cuando yo envío una imagen, cuando lanzo a través de WhatsApp unos comentarios,
06:25cuando escribo, ¿cómo va a afectar en mi vida?
06:27Y que siempre sea, desde un punto de vista, positivo.
06:30O sea, fomentar siempre la convivencia, la ciberconvivencia positiva.
06:34Los ejemplos que habéis puesto aquí ahora mismo son divertidos, son lúdicos, son respetuosos, ¿vale?
06:40Es el trabajo de personas, pero la tecnología bien utilizada es una herramienta que es para beneficio de toda la
06:47sociedad,
06:47de la humanidad, pero mal utilizada puede llegar a ser peligrosa y nociva para la ciudadanía,
06:55en ciertas edades sobre todo, ¿no?
06:56Ser consciente, formarse, saber hasta dónde va a llegar todo lo que yo hago en Internet
07:01y que nunca me perjudique ni haga daño a otras personas.
07:05Pues, Imelda, vamos a conectar de Madrid con la Unidad Central de Ciberseguridad.
07:11Ya tengo el placer de saludar a Gabriel, inspector de Policía Nacional,
07:14y también de acompañar a Rodrigo de Medrano,
07:17miembro del grupo de ciberataque de la Unidad Central de Ciberseguridad.
07:19Muchas gracias por estar con nosotros y acompañarnos en el otro lado de la pantalla.
07:24Buenas tardes.
07:25Buenas tardes.
07:26Os quería preguntar qué consecuencias tiene y qué riesgos el hecho, por ejemplo,
07:30de estas imágenes hechas por inteligencia artificial que hemos visto
07:34y que aparentemente parece, pues bueno, que son creativas, lúdicas, que hablaba aquí con Imelda.
07:40Sí, hombre, que es bonito, es divertido, es lúdico, como tú bien dices,
07:45pero la realidad es que el principal riesgo es la sobreexposición de los datos.
07:49Cuando nosotros subimos un dato, una imagen, nuestro perfil, lo que nosotros queramos,
07:55a una plataforma debemos confiar en que esa plataforma está guardando de forma segura la información,
08:00pero se ha demostrado que no siempre es así.
08:05¿Esta tendencia es más peligrosa que otras, por ejemplo, que otros trends que hemos visto?
08:10¿Por qué poco a poco vamos dando más datos personales y nos conocen mejor?
08:15Pues miren, en este caso opinamos que sí, que definitivamente es más peligroso.
08:20Sí que han existido trends muy parecidos relacionados con el mundo de la inteligencia artificial,
08:24sobre todo con respecto a imágenes, podemos recordar el de subir una foto nuestra
08:28y que aparezcamos como cómicos, o por ejemplo el de subir una foto nuestra
08:32y que aparezcamos con más edad.
08:34Este caso fue muy famoso porque meses después hubo una afectación de esos datos
08:39y se supo que todas esas imágenes estaban en público.
08:41En este sentido, vemos los riesgos que tienes.
08:44Y es que además, en este caso, estamos ante una profundidad de perfilado enorme.
08:48Es decir, nosotros estamos dando información de nuestro trabajo, de nuestra vida personal,
08:53de qué nos gusta, de qué no, absolutamente de todo.
08:56Tenemos que tener muy claro, como ha dicho el compañero antes,
08:58que dato que sale al exterior, dato del que nosotros perdemos el poder
09:03y que no sabemos realmente, aunque hoy nos fiemos de esa empresa o de esos servidores,
09:08que es lo que ocurrirá en el futuro.
09:10Habláis de que, claro, este tipo de situaciones abre las puertas a ciberdelincuentes.
09:15¿En qué sentido? ¿A qué os referís?
09:18Pues muy en relación a lo que hablábamos antes,
09:21nosotros estamos dando una gran cantidad y volumen de datos
09:24que hace que podamos llegar a hiperpersonalizar mucho
09:28cómo se nos ataca o por qué frente se nos puede entrar.
09:33Podríamos hablar de ataques personalizados de phishing,
09:36de ataques de relación de nuestras contraseñas también muy personalizadas,
09:40incluso suplantaciones de identidad.
09:42Es decir, estamos abriendo puerta a no un nuevo tipo de criminalidad como tal,
09:46sino de una hiperpersonalización de la criminalidad.
09:49¿Y hay algún patrón o denominador común en este tipo de casos?
09:54Sí, lamentablemente hemos visto que el patrón común es,
09:58como dice el compañero, la sobreexposición,
10:01el que cada vez los ataques van más dirigidos.
10:04Cuando una persona recibe una llamada telefónica
10:06y sin saberlo está siendo víctima de un fraude,
10:10la información que le están dando,
10:12obviamente la persona que lo recibe piensa que es,
10:15pues en este caso pensemos en su banco.
10:17¿Cómo no va a ser su banco si tiene todos sus datos?
10:20Eso hace que las defensas de las víctimas se vean reducidas
10:23y confíen aún más en la otra persona que está al otro lado de la línea.
10:27No pensemos solo en llamadas telefónicas.
10:30Nos hemos encontrado con phishing a través de correos electrónicos
10:35o incluso ya estamos dando un paso más
10:37y la aplicación de la inteligencia artificial
10:39a la generación virtual de salas
10:42para poder entrevistar a gente
10:44y de esa manera generar una confianza
10:48que haga que las defensas de la víctima se vean reducidas.
10:51¿Y hay alguna forma, por ejemplo,
10:53de tendencias como esta usarlas o caer en esa tentación
10:57pero que no haya riesgos?
10:59¿O es imposible ya en este mundo digitalizado?
11:02Es complicado.
11:03No hay una respuesta correcta a esta pregunta que nos planteas,
11:08pero sí que es cierto que quizá el kit esté en el llegar al balance
11:13entre lo que es lúdico y el riesgo.
11:17No dar mucha información,
11:18pero obviamente tampoco podemos quedarnos al margen
11:20de estos trends,
11:22de esta vorágine que es hoy en día la inteligencia artificial.
11:28Sí, en ese sentido tenemos que tener muy en cuenta también
11:30que todo lo que ha pasado hasta ahora
11:33es muy difícil de cambiar.
11:35Los datos que están ahí ya están ahí,
11:37pero lo que no es una utopía es pensar que de aquí al futuro
11:40nosotros podemos mejorar nuestras prácticas.
11:42Pasamos lo mismo que con las redes sociales, por ejemplo.
11:45En su día muchos de nosotros ni siquiera sabíamos
11:47que existían unas opciones de configuración de privacidad
11:51que permitían que no se traquease nuestra localización,
11:55dónde estábamos, con quién estábamos.
11:57Tenemos que intentar educarnos en todas estas plataformas,
11:59cómo se utilizan,
12:00qué opciones de privacidad tienen
12:02y utilizarlas de forma ética, segura y sobre todo con cabeza.
12:06Pues Rodrigo, Gabriel, muchas gracias por atendernos
12:08desde la unidad central de ciberdelincuencia y en Madrid.
12:12Y nada, estaremos muy pendientes
12:13porque la inteligencia artificial os va a dar mucho trabajo.
12:17Gracias a vosotros.
12:18Buenas tardes.
12:21Imelda, ¿qué consejos se puede dar a esa ciudadanía?
12:25Porque muchas veces sí que ponemos el foco en los más jóvenes,
12:28pero los boomers o los nativos digitales
12:30sí saben igual utilizar mejor las redes sociales
12:32y los boomers caemos más rápido.
12:35Bueno, yo soy milenial en este caso,
12:37estoy más o menos familiarizado con las redes sociales,
12:40pero siempre hay alguna noticia en la que caes
12:42o algún enlace en la que te dejas llevar.
12:45Bueno, pues un poco el hilo que están diciendo también mis compañeros
12:48que luego tienen mucho trabajo, desgraciadamente.
12:51Lo que tenemos que potenciar es el uso seguro,
12:54crítico, responsable y saludable.
12:56Esos cuatro pilares son la base fundamental.
12:59Y en el caso que hablábamos de esas redes sociales,
13:01de si las personas más adultas son usuarios y usuarias
13:06y tienen más medidas de seguridad.
13:09Mira, sobre todo saber qué red social estoy utilizando.
13:13En las personas adultas,
13:14cuando empiezan a utilizar un producto digital,
13:17en el entorno digital, ¿qué les recomendamos?
13:20El control de la privacidad,
13:23es decir, qué información lanzo a internet,
13:26qué información digitalizo.
13:28No tengo que digitalizarlo todo.
13:30Tener una línea roja,
13:31¿dónde está el equilibrio entre la seguridad,
13:33la popularidad, lo lúdico?
13:36Porque todo lo que pueda ponerme en riesgo,
13:39pues al final no está siendo productivo.
13:42A la larga me puede traer inconvenientes importantes.
13:45En las edades más tempranas,
13:48todas las familias, la adolescencia,
13:51niños, niños y adolescentes,
13:52tienen derecho al acceso de internet,
13:55al acceso digital.
13:56Pero es importante no solamente ir condicionando las edades
14:01y avanzando con ellos, acompañándoles, sino formarles.
14:04Y formarles es que el entorno digital
14:07va a tener un impacto muy importante en sus vidas
14:10y saber lo que van a utilizar,
14:13qué consecuencias tiene, para qué sirve.
14:16O sea, una educación como integral,
14:18no solo en el desarrollo de competencias digitales,
14:21el desarrollo en valores,
14:23el desarrollo en la netiqueta, la educación,
14:25los buenos modales en internet.
14:27Y ahí las personas jóvenes siguen siendo más vulnerables,
14:30porque las personas más adultas,
14:32como decías, los boomers, los millennials,
14:35pues son más maduros.
14:37O sea, tienen un desarrollo cognitivo
14:39pues ya con muchísimo más recorrido.
14:42Estas tendencias, lo que puede caer,
14:45pueden servir como un ejemplo
14:46de algo lúdico y divertido
14:48y que ya en edades tempranas
14:50quieran subirse un poco a esa tendencia.
14:52Pero antes tienen que conocer el medio.
14:54Tenemos que formarles, eso es,
14:57hay que echar el freno que conozcan el medio,
15:00formarles, saber en qué les va a condicionar en su vida,
15:03porque las edades, niños, niñas y adolescentes
15:06son nuestros adultos del mañana,
15:08son nuestras personas adultas del mañana.
15:10El cómo utilicen el medio digital,
15:12internet, las TICs,
15:13las tecnologías de la información y la comunicación,
15:16les va a acompañar siempre,
15:18pero sobre todo en el desarrollo de estrategias digitales,
15:22de políticas, de normativa,
15:24van a tener un peso muy importante.
15:26O sea que es fundamental
15:28que reciban una educación digital potente.
15:31Pues Imel Darri,
15:32nos queda mucho por aprender,
15:33Policía Nacional,
15:34responsable de Participación Ciudadana de Navarra,
15:36muchas gracias por estar con nosotros hoy aquí.
15:37A vosotros por este tema de actualidad
15:39y por fomentar la seguridad.
Comentarios

Recomendada