- 12 minutes ago
Category
🗞
NewsTranscript
00:00El presidente del gobierno de España, Pedro Sánchez, anunció esta semana que su ejecutivo
00:16va a lanzar una nueva ley para prohibir el uso de redes sociales a menores de 16 años.
00:22Una ley que endurecería la actual legislación española en el mismo sentido que lo han hecho
00:27en los otros países como Australia, Francia o Reino Unido.
00:31Magnantes tecnológicos como Elon Musk, dueño de X, o Pavel Durov, fundador de Telegram,
00:36se han volcado en las críticas mientras otros sectores defienden esta medida.
00:40¿Pero se debe o no se debe prohibir el uso de redes sociales a menores?
00:44¿Cómo se consigue hacer un monitoreo real de esa prohibición?
00:48¿Y hablamos de protección a los menores o se coapta también la libertad de expresión y de información?
00:53Bueno, son preguntas que vamos a intentar debatir hoy con María Paz Prendes Espinosa
00:59y es catedrática de Tecnología Educativa, coordinadora además del doctorado en Tecnología Educativa
01:03en la Universidad de Murcia.
01:05Nos atiende desde allí, desde Murcia, en España.
01:08Y Enrique Dans, profesor de Innovación, Sistemas y Tecnología de la Información
01:13en la IE Business School, nos acompaña desde Madrid.
01:16Antes de entrar en este debate, me gustaría recordarles que pueden comentar en nuestras redes sociales
01:22con el hashtag france24-es y, por supuesto, escucharnos en todas las plataformas de podcast,
01:30Apple Podcasts, Spotify, Deezer y TuneIn.
01:34Así que ahora sí, sin más dilación, quiero empezar con este debate tan interesante
01:40que nos plantea esta nueva medida de Pedro Sánchez en España,
01:43pero que, como decía también, han empezado a tomar otros países de Europa, también Australia.
01:49Quiero empezar preguntándole a Enrique si cree que hace bien o no España y esos otros países
01:55en prohibir las redes a menores de 16 años en este caso.
02:00A ver, creo que realmente lo que ocurre es que nos quedamos cortos con ello.
02:05Hay que proteger a los menores.
02:07Sí, dado que no hemos sido capaces de protegerlos vía educación,
02:12pues, obviamente, teniendo en cuenta el vertedero en el que se han convertido las redes sociales,
02:17es fundamental protegerlos.
02:19Pero eso es solo el principio.
02:21Realmente, en este momento, el problema no es solo proteger a los menores.
02:24El problema es que las redes sociales incumplen claramente la ley y la legislación europea,
02:29sobre todo en términos de privacidad.
02:31Se han convertido en un auténtico mercado persa en el que se venden,
02:36en el que se espía constantemente a los usuarios y en el que se venden los datos del mejor postor.
02:41Y, por tanto, lo lógico es, dado que no se les puede obligar a que cumplan la ley
02:45porque está en su naturaleza el incumplirlo,
02:49lo lógico sería no simplemente prohibirla a los menores de 16 años,
02:52sino directamente prohibirlas.
02:55Bueno, pues, desde luego, un melón mucho más grande el que nos está abriendo Enrique aquí.
02:59Y quiero ir también con nuestra otra invitada, María Paz.
03:02Le pregunto lo mismo, si cree que acierta en este caso el gobierno de España,
03:06pero también esos otros países,
03:08prohibiendo el uso de redes sociales a menores o no aciertan.
03:15Bueno, pues, muchas gracias, Rodrigo, por la invitación a este programa.
03:19Además, veo que creo que nos lo vamos a pasar bien
03:21porque, bueno, ya de principio mi idea es bastante diferente
03:25a la que presenta el compañero.
03:27Yo no creo que esto sea un fracaso de la educación
03:31porque realmente a la educación se le ha dejado poco espacio
03:35y creo que la prohibición no nos va a conducir absolutamente a nada,
03:40no va a servir absolutamente para nada.
03:43De hecho, tenemos muchos casos, ya ejemplos reales, anteriores,
03:46de prohibiciones y, al final, el agua siempre busca por dónde salir
03:51y acaba encontrando el camino, ¿no?
03:53Así que, bueno, vamos a tener ahora tiempo de debatir los porqués y los cómos,
03:58pero creo que la prohibición no es la solución.
04:01Creo, además, que en España ya están prohibidas a menores de 14 años
04:05y sabemos que los menores de 14 años están en redes sociales.
04:09Por tanto, esa es la mayor evidencia que tenemos de que no es útil prohibir
04:13y sigo defendiendo la educación.
04:16Así que, bueno, está bien que en un debate tengamos posiciones opuestas
04:21de cara a, bueno, a explicar los argumentos de unas y de otras.
04:26Y yo creo que el análisis de esta propuesta legislativa española
04:31tampoco se puede ceñir solo al debate sobre el impacto de redes sociales.
04:36Creo que hay muchas más cuestiones debajo, por encima y alrededor,
04:40que al final hacen que llegue este anuncio.
04:43Un anuncio que llega con mucho retraso, porque redes sociales tenemos desde hace 20 años,
04:48las venimos usando y ahora, de repente, nos preocupa esto
04:51cuando ya lo que estamos es en la era de la inteligencia artificial
04:55y en otra fase, ¿no?, de desarrollo de las tecnologías.
04:59Así que, bueno, creo que realmente la motivación no es tanto la protección de nadie,
05:04sino que hay otras aristas, flecos y aspectos que podremos ir comentando.
05:09Mira, pues María Paz, antes de ir con otros asuntos que también nos comentaba Enrique,
05:14si quiere entrar en este tema, en por qué cree que ahora mismo en España
05:18se ha dado esta propuesta del gobierno y nos dice que no cree que sea la solución,
05:24¿por qué cree en concreto que no es la solución?
05:26Bueno, pues es que vivimos en una sociedad impregnada absolutamente de todo tipo de tecnologías
05:36y, como decía, pues ya estamos en la era de la inteligencia artificial,
05:40entonces no le veo ningún sentido hablar ahora de legislar sobre el uso de redes sociales,
05:45cuando además ya en España está legislado.
05:47Es decir, esta legislación lo que viene a añadir es la prohibición para la franja de edad de 14 a 16,
05:53pero realmente hasta los 14 ya estaba prohibido y las usaban.
05:58Creo que es un problema que va más allá de las prohibiciones que quieran implantar
06:03nuestros gobernantes y nuestros políticos.
06:06Yo creo que es un problema social, es un problema familiar, es un problema educativo
06:10y que hay que abordarlo desde todas las instancias y desde la colaboración.
06:14Desde luego que los menores no están formados para acceder a muchos de los contenidos,
06:19pero no solo en redes sociales, sino en Internet en general.
06:23Es decir, prohibiendo las redes sociales no le estamos prohibiendo el uso y abuso
06:29y el que accedan a contenidos que no son adecuados para ellos en Internet
06:34o que usen aplicaciones de inteligencia artificial y que hagan un mal uso.
06:38Ya estamos viendo algunos casos de denuncias por imágenes desnudas de niñas
06:46que son imágenes generadas por inteligencia artificial, que las han hecho los compañeros de clase
06:50y eso no son redes sociales.
06:53Entonces, ¿qué sentido tiene?
06:54En Australia, por ejemplo, la ley prohíbe el uso de TikTok, YouTube,
06:59determinadas, lo que ellos consideran, herramientas que no son adecuadas,
07:06pero no prohíben en general el uso de las tecnologías ni el uso de Internet.
07:10Por tanto, no estamos protegiendo realmente a nuestros menores.
07:14Y como decía, ellos van a encontrar demás estrategias para seguir accediendo a contenidos.
07:19Si no es una red, será en otra.
07:21Si no es en un espacio seguro y controlado, pues será en otro.
07:24A lo mejor más oscuro y más opaco, pero acabarán encontrando cómo acceder.
07:29Pues Enrique, voy con usted.
07:30¿Qué piensa de esto que nos dice María Paz?
07:33Dice que quizás se nos ha quedado un poco obsoleto el pensar solamente en redes sociales,
07:38cuando tenemos ahora mismo una inteligencia artificial,
07:41que desde luego es un mundo de posibilidades, quizás en muchas ocasiones de malas posibilidades,
07:47también muchas buenas desde luego, pero si ha quedado obsoleto, ¿podría ir de la mano?
07:52No, en absoluto. A ver, las redes sociales no tienen exactamente 20 años a lo que consideremos redes sociales
08:00a cosas anteriores a, no sé, a Friendster o a MySpace, que comenzaron en 2004, más o menos.
08:08Y al principio las redes sociales tenían como propósito unir a la humanidad,
08:12permitir que expresásemos nuestro gráfico social de relaciones sobre Internet.
08:16El problema es a partir del momento en que las redes sociales se convierten en un sistema predatorio
08:22de captura de información, en el momento en el que esas redes sociales se vuelven contrarias
08:31a cualquier noción de privacidad, y desde luego a cualquier noción de privacidad
08:36expresada como derecho fundamental por la propia Unión Europea.
08:40Yo soy profesor, yo llevo en educación 35 años, y por supuesto que la educación ha fallado.
08:47La educación ha fallado porque se ha negado a formar a las personas en el uso de Internet
08:51y en el uso de las redes sociales. Es decir, ¿usan las redes sociales los jóvenes?
08:57Por supuesto, pero la han aprendido por su cuenta, porque nadie en ninguna institución educativa
09:01ha querido enseñarles cómo usarlas. Eso ha sido un horrible fracaso.
09:06Y dado que ese fracaso está ahí, no solo a nivel de los más jóvenes, sino a nivel de toda la sociedad,
09:12y hemos tenido que aprender a utilizar tanto Internet como las redes sociales como hemos podido,
09:18ahora el problema es que surgen enormes efectos secundarios.
09:23Tenemos un montón de problemas de todo tipo. Tenemos problemas de contaminación social,
09:29tenemos problemas de fake news y de un montón de personas que no son capaces de identificarlas,
09:34tenemos problemas de difusión de bulos, etc.
09:41Y por supuesto tenemos un problema fundamental, y es que toda la información,
09:45toda nuestra información personal, está en manos de compañías que la manejan
09:49de una manera completamente irresponsable.
09:52Completamente irresponsable en el sentido en que incluso una buena parte de la sociedad
09:56se ha vuelto completamente paranoica pensando que sus teléfonos móviles, por ejemplo,
10:00les escuchan en todo momento.
10:02Cosa que no ocurre, por supuesto, pero que mucha gente cree que es así.
10:06Lo hemos escuchado un montón de veces.
10:07No, es que comenté con un amigo su viaje a las Islas Maldivas y de repente me ofrecen
10:13anuncios de viajes y de hoteles en las Islas Maldivas.
10:17No, no te han espiado escuchándote, te han espiado de mil otras maneras.
10:21Entonces, ¿qué ocurre?
10:23Que lo que tenemos que tener claro es que si las redes sociales generan un montón de efectos secundarios
10:30y sobre todo no cumplen con la legislación europea de ninguna de las maneras,
10:35pues lo que hay que hacer es acabar con ellas y permitir que aparezcan otras redes sociales.
10:39Con respecto al argumento de que los jóvenes siempre acaban encontrando otra forma de acceder,
10:43por supuesto, se puede acceder con la VPN, se puede acceder con el móvil de tu abuelo cuando está descuidado,
10:51pero todas estas medidas introducen fricción y conseguimos que sean menos los que lo hacen.
10:58Lo que hay que hacer es desplazar el mercado y dar por cerrado el experimento social
11:04que han supuesto estas redes sociales que tenemos hoy en día,
11:07no todas, pero sí la gran mayoría y sobre todo las protagonizadas por Meta,
11:12las gestionadas por Meta, probablemente la empresa más irresponsable de la historia,
11:16y dar lugar a que surjan en el mercado redes sociales que sí cumplan con la legislación
11:22y que no se dediquen a la publicidad hipersegmentada, porque eso requiere un espionaje masivo y sistemático,
11:29cosa que va en contra de la legislación europea.
11:33Bueno, esto que nos indica ahora Enrique es interesante porque la ley que ha propuesto Pedro Sánchez,
11:38o lo poco que sabemos, al menos de esa proposición de ley,
11:42habla también de hacer pagar a los CEOs, a los grandes empresarios de redes sociales,
11:48por responsabilidades penales también, por no retirar ciertos contenidos
11:55que podrían ser nocivos o que podrían ser falsos en esas redes.
11:59Le pregunto también a María Paz, ¿cómo ve esto último que nos señala Enrique
12:04de que la responsabilidad de las empresas va más allá también de los menos,
12:10va de los contenidos, de que quizás hay que superar ciertas redes sociales?
12:13Sí, pues de nuevo, bueno, partiendo de lo que plantea Enrique,
12:21yo creo que esta ley no viene a resolver tampoco el problema de los bulos,
12:26de las noticias falsas o de la basura que circula en la información,
12:31porque además es que no es exclusivo de las redes sociales,
12:34es decir, hay basura en Internet, no es algo que se ciña solo al espacio
12:39de las redes sociales. En relación a lo que comentabas, lo que preguntabas,
12:47pues hoy también la Comisión Europea ha anunciado que España no puede culpar
12:52a los CEOs de las empresas, no puede penalizar a los CEOs de las empresas,
12:56porque realmente la legislación europea lo que hace es no personalizar en los CEOs,
13:01sino que la legislación la tienen que cumplir las plataformas, ¿no?
13:04Así que en ese sentido, pues bueno, la legislación española también está obligada
13:09a inscribirse en el marco de las leyes europeas y de la Unión Europea a la cual pertenecemos.
13:16Yo creo, y bueno, esto cualquier persona lo puede apoyar,
13:20que los argumentos de Enrique sobre que hay mucha información falsa
13:24y que hay muchos bulos y que hay mucha intoxicación informativa,
13:27todo eso es cierto, pero sigo planteando lo que yo decía al inicio,
13:32y es que la solución a esos problemas no viene de la mano de prohibir ahora
13:37el que determinadas compañías tengan una red social.
13:41Creo que aquí hay otros intereses, más allá de esa supuesta protección de la infancia,
13:48creo que, bueno, que está sirviendo en este momento,
13:52porque estamos hablando mucho de este tema y se deja de hablar de otros temas,
13:56cuando realmente, además, pues este asunto de las redes sociales
14:02viene preocupando desde hace tiempo, lógicamente, a familias, a sociedad,
14:07a los profesores, a todos nos preocupa,
14:10pero no hay ninguna evidencia científica que asocie redes sociales
14:15con problemas de salud mental o con determinados problemas,
14:19como se está intentando justificar para darle sentido a esta propuesta de prohibirlas, ¿no?
14:25Y si hay muchas evidencias científicas de que el uso de estas herramientas
14:30pues puede ser útil desde una perspectiva educativa.
14:33Yo creo que la medida nunca es prohibir, sino que la medida tiene que ser formar.
14:37Y si el argumento de Enrique es,
14:39la escuela ha fracasado porque no ha sabido formar,
14:42a lo mejor también hay que ampliarlo y decir,
14:44las familias no han sabido formar,
14:46la sociedad no se ha preocupado de esto,
14:48no solo culpabilizar la escuela,
14:50y a lo mejor la medida es reforzar los planes educativos
14:54desde nuestro sistema arreglado,
14:56reforzar los sistemas de ayuda y protección
14:59desde lo que es la educación de las familias
15:02y reforzar un poco todos los mecanismos y estrategias
15:05que la sociedad pueda poner en marcha
15:07para proteger a esos menores.
15:09Pero, como digo, es que prohibir no nos va a llevar a nada,
15:12ya se ha intentado prohibir.
15:13Hay países que tienen ya prohibido el acceso a la información,
15:17pues China, Corea del Norte, en Irán,
15:20y al final pues la gente busca estrategias
15:23para acceder igualmente a la información,
15:25pues buscando otras soluciones tecnológicas.
15:29¿Qué queremos?
15:30Que nuestros menores accedan a espacios
15:33donde realmente sepamos qué información pueden tener ahí,
15:37o que sean espacios más opacos, menos transparentes,
15:42y no digamos ya el tema de la verificación de la edad,
15:45que es otra patata caliente que la ley no viene a resolver.
15:48Con eso quería ir más adelante, María Paz,
15:51pero he visto a Enrique reaccionar
15:52a algunas de las cosas que nos comenta,
15:55así que vamos a seguir con esto,
15:56luego vamos con este otro tema.
15:58Enrique, creo que no está muy de acuerdo
16:00con eso de que no hay evidencia científica
16:02de que las redes sociales pueden ser dañinas
16:05para los más menores.
16:08Es que hay todo tipo de evidencias y casos concretos,
16:11incluso de suicidios, hay de todo.
16:13O sea, hemos tenido a Mark Zuckerberg
16:15teniendo que defender en el mismísimo Senado norteamericano
16:19los efectos secundarios que había provocado
16:21su red social o sus redes sociales
16:23en infinidad de jóvenes,
16:24y ha tenido que defenderlo incluso delante de las familias,
16:27donde con absoluta hipocresía dijo
16:29que intentarían evitar algunas cosas,
16:32cosas que jamás ha hecho.
16:34Hablamos de una compañía que dedica mucho más tiempo
16:36a excusarse que a cualquier otra cosa.
16:38Entonces, realmente, hablamos de efectos secundarios muy graves
16:41y hablamos de efectos secundarios, además, buscados,
16:44porque las redes sociales lo que intentan, por supuesto,
16:47es magnificar el tiempo de consumo.
16:49Intentan crear patrones para que se vuelvan
16:52completamente adictivas.
16:54Entonces, de acuerdo que esto no es exclusivo
16:56de las redes sociales, a lo largo de todo Internet
16:59se pueden encontrar contenidos dañinos, bulos, etc.,
17:02pero no están sujetos a una serie de patrones oscuros
17:07y de mecanismos adictivos
17:08para que pasemos cada vez más tiempo
17:10y recibamos descargas de dopamina
17:13cada vez que alguien nos da un like.
17:16Digamos que hay dos algoritmos
17:17en las redes sociales absolutamente perversos.
17:21El primero es un algoritmo
17:22que te da más de aquello que a ti te gusta,
17:26de aquello que a ti te hace reaccionar.
17:28¿Eso qué provoca?
17:29Eso provoca que cada vez consumas más
17:32y construyas una cámara de eco a tu alrededor.
17:35El segundo algoritmo te junta más,
17:37el famoso algoritmo Birds of a Feather,
17:39los pájaros de un mismo plumaje vuelan juntos,
17:43te da más, te junta con personas que piensan como tú.
17:46Eso hace que directamente no te sientas un rarito
17:50por pensar determinadas cosas,
17:52porque la red social te ha rodeado de personas
17:54que tienen la misma opinión.
17:56Esos grupos que se forman,
17:57lo que hacen es incentivarte a que cada vez te radicalices más.
18:00Cuanto más exageras, más likes recibes.
18:04Digamos que son el mecanismo de radicalización
18:06más refinado que se ha construido
18:09en la historia de la humanidad.
18:10¿Y todo para qué?
18:12Para que pases más tiempo ahí
18:13y puedas consumir más publicidad.
18:15Es un mecanismo completamente perverso.
18:18Entonces, decir que no se ha podido demostrar
18:20que causen efectos nocivos
18:22me parecía ampliamente irresponsable.
18:25Y por otro lado,
18:26pretender que sea la escuela
18:28o que sea la función educativa
18:31la que se dedique a formar
18:32cuando las cosas van justamente en dirección contraria,
18:36cuando los colegios lo que están haciendo
18:37es prohibir el uso de móviles
18:39y por lo tanto, ¿qué lo vamos a explicar?
18:40En la pizarra.
18:41Y hay aquí un botoncito que aparece,
18:44que le das y entonces haces esto.
18:46Eso es imposible.
18:48Pedirle hoy en día
18:49a una escuela que va en dirección contraria
18:51que forme a los niños
18:52en el uso de las redes sociales
18:54es completamente demencial
18:56porque llevamos fracasando
18:58en ese terreno muchísimo tiempo.
19:01Dicho esto,
19:02quiero puntualizar una cuestión.
19:04Yo tampoco estoy especialmente emocionado
19:07con la idea de prohibir
19:08el acceso a las redes sociales
19:10a menores de 16 años.
19:11Yo lo que creo es que hay que prohibir
19:13el acceso a las redes sociales
19:14o al menos a determinadas redes sociales.
19:17El problema de prohibirlo
19:18a los menores de 16
19:19es que el día que cumplen 17
19:21se meten como locos
19:23y nadie les ha explicado nada
19:24y por lo tanto son víctimas propiciatorias.
19:26Por lo tanto,
19:27la propia franja de edad
19:29no me parece una buena idea.
19:31Lo que me parece una buena idea
19:32es prohibir aquello
19:33que contraviene directamente
19:35la legislación de gobierno europea.
19:38Enrique, sigo con usted
19:39para avanzar en el tema
19:41que también nos abría María Paz
19:44y es cómo se prohíbe esto.
19:46Tenemos ahora varios países
19:47que lo plantean,
19:49pero cómo se consigue hacer efectivo.
19:50También hay personas
19:51que plantean la duda
19:53de si un sistema de verificación
19:55a su vez
19:56no podría contravenir
19:58las leyes españolas,
20:00en este caso europeas,
20:01en general,
20:01sobre protección de datos.
20:03¿Cómo se hace?
20:05Los sistemas de identificación
20:06son muy delicados
20:07porque se pueden convertir fácilmente
20:09en sistemas de control social.
20:10Es decir,
20:12si tú lo que haces
20:13es obligar a la identificación,
20:15pues lógicamente
20:16lo que estás es cargándote
20:17un derecho fundamental
20:18que es el derecho del anonimato.
20:19O sea,
20:19yo tengo que tener derecho
20:20a expresar mis opiniones
20:22de forma anónima
20:23en cualquier foro
20:23porque simplemente
20:25el revelar mi identidad
20:27podría sesgarme
20:29o podría sesgar
20:30la forma en la que
20:30me perciben las personas.
20:32Yo tengo una página en internet
20:33desde hace muchísimos años
20:34en la cual,
20:35por ejemplo,
20:36dado que yo trabajo
20:37en una escuela de negocios,
20:38intervienen muchos directivos
20:40de compañías.
20:41Muchos de esos directivos
20:42no pueden intervenir
20:44con su nombre y apellido
20:45porque no quieren vincular
20:47a sus compañías
20:48y poder sufrir
20:49algún tipo de problema
20:50derivado de su opinión.
20:52Yo defiendo el anonimato.
20:54Tenemos que buscar
20:55formas de identificación
20:56que no contravengan
20:58el derecho al anonimato
21:00y que no se conviertan
21:01o que no puedan,
21:02que no tengan el riesgo
21:03de convertirse
21:03en sistemas de control social,
21:05lógicamente.
21:06Este es un melón
21:07obviamente complicado.
21:09Se han buscado muchas cosas,
21:10se ha buscado biometría,
21:12tampoco me convence
21:13porque lógicamente
21:14es un problema adicional
21:16el comprometer
21:17cuestiones
21:19o, digamos,
21:20datos
21:21que no podemos cambiarnos
21:22más que haciéndonos
21:23después de hacer
21:24la cirugía estética.
21:24Es un poco absurdo.
21:26Entonces,
21:26es un melón complejo,
21:27indudablemente.
21:29Pero cualquier fricción
21:31que se introduzca
21:32dificulta,
21:33lógicamente,
21:33el consumo
21:35que no queremos
21:36que tenga lugar.
21:38Pues María Paz,
21:39voy también con usted.
21:41Creo que aquí
21:41probablemente
21:42estén un poco más de acuerdo
21:43en que es muy complicado
21:44hacer sistemas
21:45de verificación
21:46que a su vez
21:47no comprometan
21:48datos de las personas.
21:51Sí,
21:52absolutamente.
21:53Es decir,
21:53el planteamiento
21:54ya per se
21:55se desmonta
21:56por sí mismo
21:57en tanto en cuanto
21:58no tenemos
21:59ahora mismo
22:00una solución a eso
22:01porque además
22:01tenemos una ley
22:03de protección
22:04de datos
22:04en España
22:06y en Europa
22:07que precisamente
22:09protege
22:10a los ciudadanos
22:11de que esas grandes
22:11compañías
22:12hagan un uso
22:13ilícito
22:14de esos datos.
22:15Es una de las grandes
22:15preocupaciones también
22:17sobre la inteligencia
22:18artificial.
22:19¿Qué uso está haciendo
22:20la inteligencia artificial
22:21de toda la información
22:22que le proveemos?
22:23Y eso no está resuelto.
22:25¿Cómo esas plataformas
22:26van a controlar
22:27el acceso
22:28de los menores?
22:29Si son realmente menores
22:30o no lo son
22:31como decía Enrique
22:33la biometría
22:34tampoco nos da solución
22:35a esto.
22:36En España
22:37hace unos meses
22:38ahora un año así
22:40pues hubo un caso
22:40muy sonado
22:41que salió
22:42en todos los medios
22:43de comunicación
22:44de unos stands
22:46que se pusieron
22:46en la puerta
22:47de unos centros comerciales
22:49de varias capitales
22:50españolas
22:50y durante tres días
22:52estuvieron escaneando
22:53iris
22:53a cambio
22:54de criptomonedas
22:56que la equivalencia
22:57eran como unos 50 euros.
22:59Y hubo miles
23:00de personas
23:00en España
23:01que vendieron
23:02el escaneo
23:02de su iris
23:03para qué
23:04con qué finalidad
23:05quién va a hacer uso
23:06de esa información
23:07pues bueno
23:09a eso no hemos obtenido
23:10respuesta
23:11no lo sabemos
23:12ni tampoco nadie
23:13nos ha respondido
23:14aún cómo se va a hacer
23:15ese control
23:15y bueno
23:16todas las soluciones
23:17que se proponen
23:18ninguna llega a ser
23:20del todo
23:20adecuada.
23:21y en relación
23:22si me permites
23:24un pequeño inciso
23:27volver atrás
23:28por lo que decía
23:29Enrique
23:29de la cámara de eco
23:31de nuevo
23:31que lo ha comentado
23:32los algoritmos
23:34los clickbaits
23:34y todo esto
23:35esto pertenece
23:36al mundo digital
23:38vuelvo a repetir
23:40el argumento
23:40no es exclusivo
23:41de las redes sociales
23:43tendríamos entonces
23:44que prohibir también
23:45el acceso
23:46a los medios
23:47de comunicación
23:48cadenas de televisión
23:50prensa
23:51radios
23:52páginas web
23:52porque también
23:54utilizan los algoritmos
23:55para definir
23:56un poco los perfiles
23:57de los usuarios
23:58que entran
23:58para entender
23:59sus gustos
24:00para luego condicionar
24:02la información
24:03que reciben
24:03la publicidad
24:04que reciben
24:05sus gustos
24:05sus intereses
24:07entonces
24:07no es tampoco
24:09exclusivo
24:10de las redes sociales
24:11yo creo que
24:13vuelvo a mi argumento
24:15de origen
24:16creo que al final
24:17esta ley
24:18no va a ir
24:20más allá
24:21de bueno
24:22de servir a los políticos
24:23para darnos
24:24que hablar
24:24durante unos cuantos días
24:25pero
24:26ellos mismos
24:28yo creo que tienen
24:29sin resolver aún
24:30estos grandes interrogantes
24:31entre ellos
24:32por ejemplo
24:32pues este del control
24:33¿no?
24:34del acceso
24:34van a facilitar
24:36un DNI
24:37los menores
24:38y entonces
24:38las grandes compañías
24:40que queremos
24:41que no controlen
24:41nuestros datos
24:42y nuestra información
24:43van a tener
24:44todos los DNIs
24:45de los menores
24:46bueno
24:46en fin
24:47y el tema
24:48de la edad
24:49que planteaba
24:50Enrique
24:50es que no hay
24:51tampoco
24:52una franja
24:52clara de edad
24:53a los 15
24:54a los 14
24:55a los 16
24:55a los 13
24:56¿por qué?
24:57¿por qué de 14
24:58a 16?
24:59pues bueno
25:00no hay
25:01no se apoya
25:02tampoco
25:03en ningún
25:05tipo de evidencia
25:06científica
25:07en España
25:08además
25:08sabemos que
25:10la ley del aborto
25:11por ejemplo
25:12permite
25:12a las chicas
25:13con autorización
25:14paterna
25:16pues en situaciones
25:17especiales
25:18controladas
25:19en una serie
25:19de casuísticas
25:20y demás
25:20pero a menores
25:22de 14 años
25:23sin embargo
25:23a menores de 14 años
25:25ni siquiera
25:25en esa casuística
25:26de autorización
25:27de sus tutores
25:28legales
25:29ni nada
25:29van a poder acceder
25:30a redes sociales
25:32pues me parece
25:33que no sé
25:34que se le está
25:34dando a esto
25:35un foco
25:37que no es el correcto
25:38y en relación
25:39a los temas
25:40que planteaba Enrique
25:41por supuesto
25:41que hay
25:42problemas
25:43que ha habido
25:44casos de suicidios
25:45pero la pregunta
25:46que yo haría
25:47es
25:48más allá
25:49de casos
25:50particulares
25:51que yo no dudo
25:51que los haya
25:52es muy difícil
25:54extraer
25:55la consecuencia
25:57extraer
25:57inferir
25:58como conclusión
25:59que el único
26:00factor
26:00que provoca
26:01eso
26:02es la utilización
26:03de una red social
26:04no hay ahí
26:05ningún otro factor
26:06de tipo familiar
26:07de familias vulnerables
26:09de contextos sociales
26:10desfavorecidos
26:11no hay ningún otro factor
26:12podemos realmente
26:13aislar
26:14que la única causa
26:15sea
26:16que ese menor
26:17ha utilizado
26:18redes sociales
26:19me parece
26:20que es una
26:20simplificación
26:22excesiva
26:23de lo que es
26:24este problema
26:25que siempre va unido
26:27a una serie
26:28de elementos
26:28y de factores
26:29que al final
26:30acaban provocando
26:31no digo que no
26:32acaban provocando
26:33esas situaciones
26:34que en absoluto
26:35son deseables
26:36pero ni la culpa
26:37es exclusivamente
26:38del uso
26:39de redes sociales
26:40ni tampoco
26:41vamos a resolver
26:42ese problema
26:43exclusivamente
26:44prohibiendo
26:45el uso
26:46de redes sociales
26:47entonces creo
26:48que es una
26:49problemática
26:50que va mucho
26:50más allá
26:51que tiene
26:51muchos otros
26:53aspectos
26:53a considerar
26:54y no solamente
26:56porque usen
26:57redes sociales
26:58creo que eso
26:59es una
26:59simplificación
27:00excesiva
27:01de lo que es
27:02nuestra realidad
27:02social
27:03y de lo que
27:05afrontan
27:05nuestros menores
27:06nuestros adolescentes
27:07y nuestros jóvenes
27:08en la sociedad
27:10del año 26
27:11y de los próximos años
27:13todo lo que nos queda
27:15por ver
27:15en los próximos años
27:17pues venga
27:18Enrique
27:18le dejo
27:19que vaya también
27:20con este argumento
27:21y quiero pedirle
27:22también
27:22que nos hable
27:24de lo que nos ha dicho
27:25antes María Paz
27:25porque creo
27:26que difiere
27:27en lo que nos ha dicho
27:28de que habría
27:29les petaba
27:30que según su
27:30argumento
27:31habría que prohibir
27:32también
27:33bueno pues
27:33algunos medios
27:34de comunicación
27:35porque también
27:35crean esas cámaras
27:36así que háblenos
27:37primero de este tema
27:38luego vamos
27:38con el otro
27:39No, la primera cuestión
27:41es evidente
27:42a ver
27:42yo puedo ver la televisión
27:43y la televisión
27:44me va a poner
27:44un anuncio determinado
27:45en función de qué
27:46en función de a qué hora
27:47la estoy viendo
27:48y en función del contenido
27:49que rodea ese anuncio
27:50si estoy viendo deportes
27:51me pondrán anuncios
27:53que tienen que ver
27:54con
27:54los gustos de personas
27:56que consumen
27:57contenido deportivo
27:58pero para eso
27:59no necesitan espiarme
28:00en absoluto
28:01la televisión
28:02nunca me ha espiado
28:03entonces
28:04¿qué ocurre?
28:04que lo que hay que prohibir
28:05no es la publicidad
28:06evidentemente
28:07lo que hay que prohibir
28:08es la publicidad
28:08hiper segmentada
28:10y eso se hace
28:11en las redes sociales
28:12sobre todo
28:13que son las que se han convertido
28:14en detentadoras
28:16de una cuota de mercado
28:17enorme de la publicidad
28:18y por lo tanto
28:19toda la basura
28:21de brokers
28:22etcétera
28:22que rodean a eso
28:23eso implicaría
28:24que los
28:25los periódicos
28:26por ejemplo
28:26en internet
28:27pasarían a tener
28:27una publicidad
28:28mucho menos segmentada
28:30o segmentada
28:31en función
28:31del horario de consumo
28:33de los contenidos
28:33que rodean
28:34a esa publicidad
28:36pero no
28:37necesitando
28:38espiarme
28:39y saber quién soy
28:40y todos mis datos
28:42y a qué le he dado
28:43me gusta
28:43etcétera
28:44etcétera
28:44un modelo
28:46de publicidad
28:46mucho más sano
28:47y mucho menos perturbador
28:49y desde luego
28:49mucho más de acuerdo
28:51con lo que es
28:52la legislación
28:53de la privacidad
28:54de respeto
28:54a la privacidad
28:55que hay en España
28:56desde luego
28:59Mark Zuckerberg
28:59disfrutaría mucho
29:01escuchando
29:01escuchando a María Paz
29:02porque
29:02le está disculpando
29:05todo lo que ha cometido
29:06todos los problemas
29:07que ha cometido
29:08sabemos perfectamente
29:09que Instagram
29:10es una red social
29:11que fomenta
29:12la frustración
29:13que fomenta
29:14pues eso
29:15con sus
29:16con sus filtros
29:17etcétera
29:17que las
29:17muchas adolescentes
29:19se sientan
29:20pues
29:20no sé
29:22sientan
29:22incluso
29:22complejos
29:23o incluso
29:24que impidan
29:25hacerse
29:26la cirugía estética
29:27para poder ser iguales
29:29que lo que aparece
29:30en los filtros
29:31etcétera
29:31entonces
29:32me parece terrible
29:33trivializar
29:35el hecho
29:35de que hayamos tenido
29:36muchísimos jóvenes
29:38que han sufrido
29:39problemas psicológicos
29:41de todo tipo
29:41y llegando
29:42en algunos casos
29:42al suicidio
29:44pero no quiero
29:45no quiero entrar
29:45en esa parte
29:46me preocupa más
29:48otra cuestión
29:48y es cuando se difunden
29:49en bulos
29:50María Paz
29:51la empresa que decías
29:53que escaneaba Iris
29:54y que robaba Iris
29:55jamás robó nada
29:56esa empresa se llama
29:57World
29:57Sam Altman
29:58es uno de sus
29:59financiadores
30:00y propietarios
30:01la empresa es
30:02perfectamente legal
30:04simplemente no lo está
30:05haciendo ahora en España
30:06porque España
30:07no ha llegado todavía
30:08a una conclusión
30:10sobre el tema
30:12la empresa es
30:13perfectamente legal
30:13por ejemplo
30:14en muchísimos países
30:15y en Alemania
30:16que es uno de los países
30:17que más protege
30:18la privacidad
30:19y jamás robó
30:20ningún iris
30:21simplemente lo que hizo
30:22fue adquirir
30:23una parte
30:24de un iris
30:25hashearla
30:26completamente
30:26de manera criptográfica
30:28de manera que no se puede
30:29volver atrás
30:30ni identificar a nadie
30:31por su iris
30:32y no guardar
30:33en ningún caso
30:34esos iris
30:35esos iris
30:37escaneados
30:37eso sirve
30:38para crear una identidad
30:39de manera completamente
30:41criptográfica
30:42que seguramente
30:43tiene mucho que ver
30:44dado que eso se inscribe
30:45en la cadena de bloques
30:46con la capacidad
30:47de controlar
30:48si una persona
30:49es menor
30:50o no lo es
30:50sin necesidad
30:51de revelar
30:52su información
30:52seguramente
30:54muchas de las
30:55cuestiones
30:56que vamos a ver
30:57en el futuro
30:57que respetan
30:58el anonimato
30:59pero permiten
31:00establecer
31:01ciertas restricciones
31:02de uso
31:02vengan por el lado
31:04de la criptografía
31:04y World
31:05como compañía
31:06ha hecho mucho
31:07por hacer progresar eso
31:08he dado el caso
31:09de World
31:10en clase
31:10bastantes veces
31:11he tenido directivos
31:12de World
31:13explicándolo en clase
31:14y tienen
31:15todo un
31:16aparataje
31:17criptográfico
31:18que precisamente
31:20permite eso
31:21permite que yo pueda
31:22demostrar
31:22por ejemplo
31:23que no soy una máquina
31:24que no soy un algoritmo
31:26o que soy
31:26mayor de edad
31:28y eso sin que yo
31:29tenga que revelar
31:30mi identidad
31:31seguramente
31:32la criptografía
31:33tiene mucho que ver
31:33con la solución
31:34a este tipo de cuestiones
31:36pero en cualquier caso
31:37sigo de acuerdo
31:38con María Paz
31:39con María Paz
31:40en que
31:41prohibir a los
31:4216 y decidir
31:44arbitrariamente
31:45que a partir de los
31:4516 ya no pasa nada
31:47o que antes de los
31:4916 es terrible
31:50y muy nocivo
31:51es completamente absurdo
31:52con eso estamos
31:53muy de acuerdo
31:53Venga pues
31:55me queda aproximadamente
31:56un minuto y medio
31:57para cada uno
31:57me gustaría
31:58que cerráramos
31:59este debate
32:01si se nos queda corto
32:02muchas veces
32:02el debate
32:03María Paz
32:04voy a empezar
32:05con usted
32:06ya que estábamos
32:06hablando con Enrique
32:07no está de acuerdo
32:08con esta prohibición
32:09¿qué propondría
32:11qué le parecería
32:12la mejor manera
32:13para tratar
32:14el uso
32:15de las redes sociales
32:16por los adolescentes?
32:18Sí
32:18bueno un matiz
32:20con relación
32:21a lo que comentaba
32:22Enrique
32:22porque yo no he dicho
32:23que lo robara
32:24lo que he dicho
32:24es que estuvieron
32:25tres días
32:26cogiéndolos
32:27hasta que la agencia
32:28española de protección
32:29de datos
32:29dijo que no podían
32:30continuar
32:31pero yo no he dicho
32:32que lo robaran
32:32de hecho he explicado
32:33que pagaban
32:34pagaban por el escaneo
32:36del iris
32:36bueno
32:38en cualquier caso
32:39creo que en algunos aspectos
32:41más allá del fructífero
32:43interesante debate
32:44que hemos mantenido
32:45Enrique y yo
32:46creo que en algunos aspectos
32:48sí que estamos de acuerdo
32:49y es que realmente
32:50se toman a veces
32:51decisiones
32:52que no tienen
32:53una justificación clara
32:54como es el tema
32:55de la edad
32:56se toman decisiones
32:58sin una solución
32:59a los problemas
32:59como es el tema
33:01del control
33:02del acceso
33:03de prohibirlo
33:05sin poder controlar
33:06realmente
33:06la edad real
33:07que van a tener
33:08los sujetos
33:09los niños
33:09que quieran entrar
33:10en esas redes sociales
33:11y por tanto
33:13bueno pues esta ley
33:14creo que no viene
33:15a aportar muchas soluciones
33:16a la realidad
33:17del uso de redes sociales
33:19más allá de eso
33:20es que yo creo
33:21que la prohibición
33:23pues no va a ser
33:24de mucha utilidad
33:25y soluciones
33:26que me preguntabas
33:28pues yo creo
33:29que la solución
33:30viene de la mano
33:31de que seamos
33:32ciudadanos digitales
33:33sabiendo utilizar
33:35las tecnologías
33:36sabiendo las consecuencias
33:37que tienen
33:38y tomando
33:38en todo momento
33:39decisiones conscientes
33:41de esas tecnologías
33:42y creo que
33:43con los menores
33:44pues hay que asumir
33:46una
33:46evidentemente
33:47la necesidad
33:48de protegerles
33:49pero la necesidad
33:50de protegerles
33:51desde todas
33:51las entidades sociales
33:53no la ley
33:53no va a hacer nada
33:54hace mucho más
33:55el que los padres
33:56sepan realmente
33:57que están haciendo
33:58sus hijos
33:58y él hablaba antes
34:01hablaba Enrique
34:01también de la escuela
34:02yo creo que la escuela
34:03forma parte
34:04de la solución
34:05y no parte
34:05del problema
34:06el hecho
34:08de que bueno
34:08que si la competencia
34:10digital que tienen
34:11ahora los chicos
34:12que están saliendo
34:13de la escuela
34:14no es la deseable
34:14pues a lo mejor
34:15es que hasta ahora
34:16desde el sistema
34:17arreglado
34:17no se ha dado
34:18a los docentes
34:19el espacio
34:19o no se les ha dado
34:20la formación
34:21hay ahí también
34:22muchas dimensiones
34:23de análisis
34:23que darían
34:24para otro programa
34:25y para otro debate
34:26pero creo que
34:27escuela
34:27familia
34:28sociedad
34:29y todos en conjunto
34:31dando a los menores
34:32esa formación
34:34y esa capacitación
34:35para el uso
34:35de las tecnologías
34:36es una solución
34:38mucho más efectiva
34:39que una prohibición
34:40y una prohibición
34:41que hoy por hoy
34:42no sabemos muy bien
34:43ni siquiera
34:43cómo la van a implementar
34:45en el espacio real
34:47pues por desgracia
34:49nos estamos quedando
34:50sin tiempo
34:50quiero darle
34:51el último minuto
34:52también a Enrique
34:53para que nos plante
34:54qué haría él
34:55a partir de ahora
34:56Muchísimas gracias
34:59a ver
34:59aparte que ha sido
35:01todo un placer
35:02debatir con María Paz
35:04me parece
35:04una persona
35:05con unas ideas
35:06muy claras
35:07en este sentido
35:07creo que
35:08lo que de verdad
35:10hay que tener en cuenta
35:11es que lo que estamos
35:12trayendo
35:13a la mesa
35:15de diálogo
35:16es una presión
35:18cada vez mayor
35:18de cada vez más países
35:19por determinar
35:21qué se puede hacer
35:22en las redes sociales
35:23y qué no
35:24o si las redes sociales
35:25deben ser prohibidas
35:27o no
35:27y ya no tanto
35:28para menores o mayores
35:29de 16
35:29etcétera
35:30sino simplemente
35:31cómo hacemos
35:32para que las redes sociales
35:33que han convertido
35:34la sociedad
35:35en un sitio
35:37cada vez más polarizado
35:39que han manipulado elecciones
35:40y que han provocado
35:41incluso genocidios
35:42todos sabemos
35:43el caso
35:44de los rojiña
35:46en Myanmar
35:46que esas redes sociales
35:48se puedan poner
35:49bajo control
35:50y bajo control
35:51en muchos casos
35:52puede ser
35:52prohibir
35:54las redes sociales
35:55que no pueden ser
35:56puestas bajo control
35:57porque directamente
35:58su modelo de negocio
36:00no entra dentro
36:01del ámbito legal
36:02del marco legal europeo
36:03venga pues
36:05enrique dans
36:05maria paz
36:06prendes
36:07muchísimas gracias
36:08a los dos
36:08por haber estado
36:09hoy en este debate
36:10de france 24
36:11ha sido un placer
36:11gracias a vosotros
36:14gracias por la invitación
36:15nosotros nos despedimos
36:17de todos ustedes
36:18como siempre
36:18les invitamos
36:19a que vean este debate
36:20todos los episodios anteriores
36:22en nuestro sitio web
36:23en nuestro canal de youtube
36:23tengo que dar gracias
36:25a mi compañera
36:25laura garzón
36:26en la producción
36:27también
36:27a melisa sanmiguel
36:29productora de invitados
36:30y todo el equipo
36:31de cámaras
36:31luces
36:32y sonido
36:33les dejamos ya
36:33con el resto
36:34de nuestra programación
36:35así es asia
36:44reportajes
36:44entrevistas
36:45y análisis
36:46de los acontecimientos
36:47más destacados
36:48del continente
36:49su diversidad
36:50religiosa
36:50y cultural
36:51y su dinámica
36:52realidad política
36:53económica
36:54y social
36:55sus conflictos
36:56y sus soluciones
36:57todo con los análisis
36:58y los testimonios
36:59de los corresponsales
37:00de france 24
37:02así es asia
37:03presentado
37:04por paula jiménez correa
37:06en france 24
37:07y france 24
37:08punto com
Comments