- hace 11 horas
Pablo Simón examina en este Coordenada 25 la revolución tecnológica actual y su potencial transformador sobre la política y el poder. Además, la periodista especializada en tecnología y poder, Marta Peirano, se suma al análisis sobre la regulación en torno a las redes sociales y la Inteligencia Artificial.
Categoría
🗞
NoticiasTranscripción
00:01Ser Podcast.
00:04Pablo Simón, buenas noches.
00:05Buenas noches, Aymar.
00:25Coordenada 25, con Aymar Bretos.
00:30Seguro que se acuerdan de haber estudiado en el Instituto la reforma protestante, la democracia parlamentaria, la sociedad de masas.
00:38Todos esos momentos históricos tienen algo en común.
00:39Es el impulso definitivo se lo dio un cambio tecnológico.
00:43Y la pregunta es, ¿va a pasar lo mismo con lo que estamos viviendo ahora?
00:46¿Con la hiperconexión en la que estamos?
00:48¿Con la inteligencia artificial a la que le preguntamos prácticamente todo?
00:53Simón, hoy hablamos del impacto que tiene la tecnología en la política y en el poder.
00:57Dame un titular.
00:58Bueno, pues la respuesta es que sí, efectivamente.
01:00La tecnología tiene un impacto decisivo, sobre todo, toda aquella que tiene que ver con, no solo como nos organizamos
01:06internamente,
01:06sino muy particularmente todo lo que se conecta con transporte y comunicación.
01:10Tú date cuenta que al final somos seres sociales y todo aquello que acorta las distancias o hace que podamos
01:15comunicarnos
01:16o traspasar el conocimiento en el tiempo y en el espacio, necesariamente genera cambio.
01:20El ejemplo de la imprenta es perfecto, porque duplicar la idea era mucho más barato a partir de ese momento,
01:28¿no?
01:29Transmitirla era mucho más barato. ¿Qué otros ejemplos hay?
01:32Bueno, pero fíjate si es interesante que, claro, la imprenta permitía suprimir al intermediario.
01:36Bueno, ya no necesitabas un sacerdote que te interpreta la Biblia.
01:39Tú tenías tu propio texto y desde ahí podías tener una interlocución directa con Dios.
01:43No te quiero preguntar quién es el sacerdote que desaparece ahora.
01:47Bueno, los medios de comunicación, como bien sabes, ¿no?
01:49Por eso no te lo quiero preguntar.
01:51Pero la cosa es que, por ejemplo, lo mismo ocurre con los grandes imperios del siglo XIX.
01:55Si la máquina va por, sin el transporte, no lo podemos entender.
01:57La hiperglobalización contemporánea, por ejemplo, sin Internet,
02:01y esas transferencias que se pueden hacer de activos financieros de la noche a la mañana con un clic,
02:05tampoco podríamos concebir la organización del mundo.
02:08O sea que la tecnología está totalmente engarzada con nosotros.
02:11¿Qué puede ser más importante para configurar la humanidad del futuro?
02:15¿Diseñar nuevo tipo de armamento? ¿Diseñar nueva forma de comunicarse?
02:19¿Acaso no van de la mano, Aymar?
02:20¿Un satélite qué es, sino las dos cosas al mismo tiempo?
02:23En el fondo, todo está conectado.
02:25Internet de dónde viene, sino de un proyecto genuinamente militar de los Estados Unidos.
02:30Internet, acuérdate de esa cosa.
02:32Sobre todo para los que somos de esa generación que se acuerda de un mundo sin Internet.
02:36Pero es que esto ya está interiorizado como un hábito más, ¿no?
02:39Algunos hacen este meme frecuente de la pirámide de Maslow,
02:42poniendo debajo la base, base, base, acceso a Wi-Fi como necesidad fundamental para poder existir.
02:48¿Lo es?
02:49Para mucha gente sí, claro.
02:50Y no podemos hablar solo del tema de las adicciones, sino cómo estamos interconectados.
02:54Es decir, hasta qué punto nos hemos vuelto dependientes de apps,
02:58cómo hemos perdido el sentido de la orientación si no cogemos un Google Map.
03:01Es decir, todos esos elementos configuran nuestra mente.
03:04¿Cómo nos ha cambiado Internet?
03:05¿Tenemos perspectiva histórica suficiente ya para hacer ese análisis?
03:08Podemos hacerlo porque, Aymar, esta pregunta, claro, la planteamos los milenios,
03:12pero es que han pasado 26 años desde que Internet está con nosotros de manera generalizada.
03:16O sea, desde el momento del router de...
03:18Exacto.
03:18Desde ese momento en adelante.
03:20Tal vez para mí lo más interesante no es solo cómo nos ha cambiado en el día a día,
03:23que podríamos hacer un inventario,
03:25sino sobre todo cómo ha cambiado nuestra visión de Internet.
03:28Yo recuerdo perfectamente que había un momento cuando nació enormemente tecno-utopista.
03:34O sea, era un momento en el que hablamos de la wiki-democracia.
03:37Vamos a prescindir de los partidos.
03:38Nos vamos a meter en foros y vamos a discutir entre todas las leyes y cómo queremos organizarnos.
03:42Era un momento de pura evanescencia.
03:44Todo parecía posible.
03:45Pero ese optimismo se ha pinchado.
03:47Se pinchó sobre todo desde 2008 en adelante.
03:49Fíjate cómo se ha girado el clima.
03:51El instrumento sigue siendo el mismo.
03:52Ha cambiado, obviamente.
03:53Pero Cambridge Analytica, la República Tecnológica, Palantir,
03:59nos manipulan, nos tratan de influir controlando nuestros datos.
04:02Nuestra visión ahora de Internet es mucho más negativa de lo que era entonces.
04:06Cambridge Analytica fue la primera gran hostia que nos pegamos.
04:09Probablemente, sí.
04:09Yo entiendo sobre todo a nivel público.
04:12Ojo, porque la gente que estaba por el software libre y la gente que estaba en partidos pirata
04:15llevaba mucho tiempo ya en la vanguardia de la batalla.
04:19Pero es el momento en el que nos damos cuenta.
04:21Y si se pueden manipular resultados como el Brexit o como la elección de Trump
04:26desde gigantes tecnológicos.
04:29Y para mí eso yo creo que es parte de lo que cambia el debate
04:32y cómo nos aproximamos ahora también a Internet.
04:35Es curioso cómo con la tecnología surgen también relaciones de amor-odio.
04:37Y esto nos ha pasado con las redes sociales.
04:39Las redes eran las nuevas plazas públicas.
04:42Iba a convertir el mundo en algo muchísimo más abierto.
04:45Se le veía un potencial enorme.
04:47Y en los últimos años las hemos convertido ahora en el chico expiatorio de todo.
04:50O sea, el mal de todo, la culpa de todo la tiene las redes sociales.
04:52Sí, date cuenta que esto pasa incluso cuando discutimos de polarización.
04:56Decimos, oye, ¿qué es lo que genera polarización?
04:58¿Por qué la gente está tan enfadada?
05:00Entonces hay como siempre dos escuelas.
05:01La que tenemos más los politólogos de decir,
05:04hombre, han cambiado muchas cosas en el mundo.
05:05A lo mejor hemos tenido una gran recesión y una pandemia
05:08y la gente está un poco cabreada por eso.
05:10Por lo que sea.
05:11Pero también es verdad que eso es más difícil de meterle mano.
05:13Entonces es más sencillo discutir sobre las redes, sobre las fake news.
05:17Que no digo que no importen, por supuesto que importan,
05:19pero es tal vez lo que podemos capturar.
05:21Un poco no discutir sobre la evanescencia de la caballería,
05:25sino sobre los libros de caballerías.
05:27Pues es parte de lo que estamos viendo aquí también.
05:29Sabemos qué porcentaje de la población se informa a través de las redes.
05:32Sí, tenemos encuestas que señalan, Eurobarómetro y otras de aquí,
05:3670% de los menores de 24 años consumen información prevalentemente a través de redes sociales.
05:43Esto en el total de la población está en torno al 49%,
05:47más incluso que la televisión que está en el 44.
05:50Aquí hay una pequeña trampa en la estadística,
05:52que es que cuando tú estás utilizando internet y redes sociales,
05:56estás solo viendo productos de las redes
05:57o no estás escuchando también hora 25 a través de tu móvil
06:01o cogiendo un corte de televisión y viéndolo en X o en TikTok.
06:05Es decir, todo está mucho más integrado.
06:07Pero lo que es evidente es que lo que nos entra a través de estos dispositivos tecnológicos
06:10es la fuente prevalente de información hoy
06:12y muy particularmente entre las generaciones más jóvenes.
06:15¿Y muy particularmente qué red?
06:17Sobre todo TikTok e Instagram.
06:19Y esto es un bastante predictor claro
06:22de dónde estamos viendo mayor batalla también incluso entre las propias tecnológicas
06:27a propósito de la regulación, de qué contenidos y el juego del algoritmo.
06:30Fíjate que a veces seguimos hablando de redes sociales
06:33pero yo no sé si no deberíamos empezar a llamar las plataformas de contenido
06:36porque claro, a veces estás como un sujeto pasivo
06:39viendo una televisión configurada para ti a través del algoritmo.
06:43La interacción pasa un poco más a segundo plano
06:45y tú eres un consumidor que va viendo esos vídeos de manera regular.
06:49De manera, por cierto, acelerada
06:50porque los ciclos de atención también son muy cortos.
06:53Y entonces hablamos de toda esta narrativa que hay sobre la turbopolítica
06:57y cómo esto ha terminado afectando también
06:59a que en el debate público sea imposible profundizar.
07:02A que Rufián, cuando sube a la tribuna del Congreso de los Diputados
07:07no está compitiendo con la oposición.
07:09Está compitiendo con que cambies de canal.
07:11Entonces tiene que lanzar un mensaje que se pueda meter en un clip
07:14que pueda ser viralizable en redes
07:16y que llegue hasta ti de manera eficaz.
07:17Están cambiando los tiempos de la política
07:19por culpa de nuestro consumo de redes sociales.
07:22Bueno, seguimos dando el premio Emilio Castelar
07:24pero te aseguro que los discursos no duran lo mismo
07:26que duraban los de Emilio Castelar.
07:28Es decir, claro que está cambiando.
07:30Y a mí un poco lo que me preocupa de esto
07:32es que necesariamente genera desencanto
07:34porque, claro, los ritmos de la comunicación
07:36son cada vez más vertiginosos
07:38y los ritmos del cambio político son mucho más lentos.
07:41La paciencia de los votantes se acorta.
07:43No te quepa ninguna duda.
07:44¿Cómo podemos sino interpretar esta enorme volatilidad electoral?
07:46¿Cómo puedes tener hoy, por ejemplo,
07:48un grupo de Telegram y lanzar un partido
07:50y conseguir 800.000 votantes?
07:52Eso se puede conseguir gracias a esta plataforma
07:54que supone Internet para lo bueno y para lo malo.
07:56Es decir, los instrumentos son ambivalentes.
07:59Depende de cómo los empleemos
08:00podemos maximizar sus ventajas
08:02o, por el contrario, convertir esto en un terror tecnológico.
08:05¿La forma en la que una persona consume información
08:07condiciona la manera en la que se posiciona
08:09respecto a lo que le están contando?
08:10Sin lugar a dudas también
08:11porque tú date cuenta que los ciudadanos
08:14tenemos esos inputs de información de entrada
08:16y nosotros tradicionalmente
08:18tendemos a autoseleccionar la información que nos llega.
08:21Eso antes lo hacíamos de manera consciente.
08:23Si yo me fuera a preguntar a la gente
08:26qué medio de comunicación escucha,
08:28radio, tele, etcétera, hace 20 años,
08:30podría identificar fácilmente su ideología
08:32con saber, bueno, usted escucha la SER,
08:34compra el país, vale, no me diga más,
08:36vale, ya veo por dónde va.
08:37Ahora quien te la autoselecciona es el algoritmo.
08:39Escúchame, esta casa es muy plural.
08:40Por supuesto que sí.
08:41Pero las audiencias tienen determinadas orientaciones.
08:45Nosotros, es una relación bidireccional.
08:48Es decir, ellos vienen aquí
08:49porque creen que concuerda más con su visión del mundo
08:51y viceversa.
08:53Evidentemente también luego hay el morbillo, ¿no?
08:54Es decir, hay gente que se pone aquí a Jiménez Losantos
08:56y supongo que también habrá gente de Vox
08:58que se ponga ahora 25 para disfrutar.
09:00Pero creo que serán más extraños, ¿no?
09:01En cualquier caso, lo interesante es que muchas veces
09:04no tenemos agenda o no tenemos posición previa.
09:07Y por cómo nos entran estos temas,
09:10fijan esa posición y luego la retroalimentan.
09:12Y es toda esta teoría famosa que hay sobre las cámaras de eco
09:15y la polarización, ¿no?
09:16Es decir, ahora nosotros estamos a un clic de nuestros prejuicios,
09:20seleccionamos y filtramos la información que nos interesa recibir.
09:24Eso termina haciendo que construyamos categoría del mundo
09:27con esa información porque nos juntamos con gente parecida.
09:30Lo que nos llega de gente que tiene otra opinión
09:32es una caricatura, porque es lo único que entra en tu burbuja.
09:35Llega a la posición más extrema del otro lado.
09:37Y todavía peor, permite una cosa increíble, ¿no?
09:40Que es que hay unos 8.200 municipios en España
09:44y en cada uno de ellos hay un tonto.
09:46Entonces, antes el tonto estaba aislado, ¿vale?
09:49Pero lo que ocurre ahora con Internet
09:50es que el tonto se puede coordinar con los tontos
09:52de los otros municipios.
09:54Tienes 8.200 tontos coordinados
09:56que además en Internet tienen un cascabel
09:57y hace que tengamos que discutir sobre cosas
10:00que era impensable plantear
10:02que pudiéramos tener que discutir hoy en día.
10:04Y eso tiene que ver con que se han roto las jerarquías
10:07y se han roto los sacerdotes
10:09que administraban la palabra.
10:11Ahora no hay nadie que te lo organice.
10:13Y que aplacaban al tonto, ¿no?
10:14Exacto.
10:14No, pero era importante porque había unos filtros,
10:17pero esos filtros han desaparecido totalmente.
10:19¿Tiene esto una lectura también positiva?
10:21Por supuesto.
10:22Posiciones que antes eran ultraminoritarias
10:24pero que eran también marginadas socialmente,
10:26ahora no lo son.
10:27¿Cuánto ha hecho por la liberación, por ejemplo,
10:30de personas de minorías sexuales
10:32en municipios donde no había nadie con quien pudiera?
10:34O, por ejemplo, la oposición democrática
10:36en tantísimos países autoritarios.
10:38¿Qué es lo primero que hace un dictador
10:39cuando hay protestas?
10:40Cortar Internet.
10:41Porque es a través de lo que se coordina la gente
10:44para intentar derribar el régimen, ¿no?
10:46O sea, de nuevo, herramienta ambivalente.
10:48Marta Peirano, buenas noches.
10:50Buenas noches.
10:51Marta Peirano, periodista especializada
10:52en tecnología y poder,
10:53de lectura imprescindible cada vez que escribe en El País.
10:55Marta, la inteligencia artificial,
10:57¿qué efectos va a tener sobre este tablero cambiante
11:00que nos está describiendo ya, Pablo?
11:02Bueno, yo diría que es el mismo,
11:04pero todavía muchísimo más fino
11:06en el sentido de que las redes sociales
11:08han conseguido hablarnos al oído
11:11de tal manera que pensamos que estamos
11:14viendo el mundo como el resto de la gente
11:17que utiliza las mismas redes
11:18y, sin embargo, es un menú,
11:20es una visión del mundo
11:22que está siendo diseñada específicamente
11:24para cada uno de nosotros.
11:25Y para mí, la inteligencia artificial
11:28tiene la misma cualidad
11:31de hablarte al oído,
11:33pero te habla con tu propia voz.
11:34Es decir, tiene la capacidad
11:36de hablarte en tu propio lenguaje,
11:38a tu manera, ¿no?
11:40Porque conversa contigo y aprende de ti.
11:42Y entonces me parece mucho más insidiosa,
11:44y no solamente a mí,
11:45sino que ahora mismo
11:47las grandes agencias de desinformación
11:49están invirtiendo mucho más esfuerzo
11:52en contaminar a la inteligencia artificial,
11:54que por supuesto se entrena
11:56con contenidos de Internet,
11:57que en contaminarnos a nosotros.
11:59¿Por qué? ¿Para qué?
12:00Porque ya vamos a recurrir nosotros
12:02a esa inteligencia artificial contaminada.
12:04Exacto.
12:04He leído cuestiones contradictorias sobre esto,
12:06porque hay quien sostiene también
12:07que al revés que las redes sociales
12:09que tienen un algoritmo
12:10que premia los extremos,
12:12el contenido absolutamente polarizado
12:13y por lo tanto tiene un efecto polarizador
12:15sobre nosotros,
12:17la inteligencia artificial compensa
12:19en cierta medida eso,
12:20porque la IA no busca tanto la fricción,
12:23sino que da la respuesta más probable
12:25y por lo tanto nos lleva a todos
12:26a hacer una pequeña tortillita
12:28ahí en el centro.
12:29¿Tú crees que esto tiene base?
12:31Yo creo que en cierto modo sí,
12:34pero las dos premisas
12:35son no del todo ciertas,
12:38porque las dos obvian el hecho
12:41de que ambas cosas
12:42son plataformas publicitarias.
12:44Es decir,
12:45que estamos hablando
12:45de unas plataformas
12:46en las que pensamos
12:47como si fuera el buscador de Google,
12:49cuando hablábamos del buscador de Google,
12:50muy al principio decíamos
12:52las tiendas más populares,
12:55las que pincha más gente,
12:56son las que aparecen arriba de todo
12:57y sin embargo
12:58era el principal medio de financiación de Google
13:01y el que lo ha convertido en el imperio
13:03porque era una plataforma publicitaria,
13:05es decir,
13:05hay fuerzas de todo tipo
13:07haciendo que una información suba
13:10y que trabaje.
13:10Lo mismo pasa con la inteligencia artificial,
13:13esos sistemas están entrenados
13:15con contenidos que encuentran en Internet,
13:17probablemente de forma masiva,
13:19pero luego están educados
13:20por empresas concretas
13:22que tienen asociaciones
13:24y afinidades
13:27que ya sabemos cuáles son.
13:29¿Qué tipo de empresas
13:30están educando
13:32con sus propios intereses
13:34y su propia agenda
13:35a las plataformas
13:36de inteligencia artificial,
13:37a los modelos
13:37de inteligencia artificial?
13:38Pues si viste
13:39la inauguración
13:41del presidente
13:42de los Estados Unidos,
13:43pues las empresas
13:44que tenía detrás,
13:45en lugar de tener
13:46a los ministros,
13:47tenía un montón de CEOs
13:48a sus espaldas
13:49y yo te diría
13:50que esas son las empresas
13:51que están entrenando.
13:52Si la información
13:53en una democracia
13:54es un bien público,
13:55es decir,
13:55es algo que es fundamental
13:56que exista
13:57para que los ciudadanos
13:58podamos hacernos una idea
13:59de lo que está pasando,
14:00un bien público
14:01a priori necesita regulación.
14:03Entonces,
14:03la pregunta es,
14:04igual que hablamos
14:05de, por ejemplo,
14:05medios privados,
14:06medios públicos,
14:07de comunicación,
14:08igual que decimos
14:08hay un marco regulatorio,
14:11¿qué tecla
14:11no estamos pulsando
14:12en términos de la regulación
14:14que hay que hacer?
14:14Por ejemplo,
14:15esto que se plantea
14:15delimitar el acceso
14:17a la gente de 16 años
14:18o establecer
14:19algún tipo de restricción,
14:20¿eso tiene sentido?
14:22¿Estamos yendo
14:23en la buena dirección?
14:24A mí,
14:25personalmente,
14:26me parece que
14:28castigar
14:28a un corte demográfico
14:32específico
14:33para que sean ellos
14:34los que asuman
14:35un problema
14:36que está generado
14:36por grandes multinacionales
14:38es injusto
14:39para empezar,
14:40pero además
14:40es inapropiado,
14:41primero,
14:42porque la experiencia
14:43que estamos viendo
14:43en Australia,
14:44que han sido los primeros
14:45que han puesto
14:46en funcionamiento
14:48esa regulación
14:48es que los menores
14:50siguen entrando
14:51en las redes sociales
14:52y siguen utilizando
14:55estas plataformas
14:56de la misma manera
14:57que los niños
14:58de 5 años
14:58siguen viendo dibujos
14:59animados en la escena
15:00solamente para no molestar,
15:02es decir,
15:02usan los carnes
15:03de sus padres,
15:04lo que sea,
15:05usan nombres falsos,
15:07etcétera,
15:07o como dice el propio
15:08Mark Zuckerberg,
15:09les mienten.
15:10Entonces,
15:11lo que estamos viendo
15:12es que esta solución
15:14no es una buena solución
15:15porque no es efectiva
15:16y sin embargo
15:16se convierte
15:17en una fórmula
15:18perfecta,
15:19primero,
15:19para que las grandes
15:20plataformas
15:21consigan todavía
15:22más documentación
15:23y más información
15:24y además
15:26tengan una fórmula
15:27perfecta
15:28para discriminar
15:29a otro tipo
15:30de población
15:30que son los que
15:31no tienen papeles,
15:32es decir,
15:33si no tienes papeles
15:34para acreditar tu edad
15:35y entonces
15:37cualquier página web
15:38que ponga eso
15:39como condición
15:40pues ya está
15:40discriminando
15:41de forma legal
15:42a un sector
15:43de la población
15:44que ya está
15:45está en peligro
15:46de exclusión.
15:47Sobre el acceso
15:48a la inteligencia artificial
15:49va a haber una desigualdad
15:50por rentas
15:51en el acceso
15:52a la IA,
15:53quiero decir,
15:54que las que sean de pago
15:55se pongan
15:56a años luz
15:56de las gratuitas
15:58y ahí se abra
15:59un abismo
15:59entre ricos
16:00y pobres.
16:02Yo diría
16:02que ya está ocurriendo
16:03pero sobre todo
16:05ahora mismo
16:06hay un acceso
16:07bastante,
16:09no voy a decir
16:10que generoso
16:10pero hay un acceso
16:11a estas herramientas
16:12porque estamos
16:13en un periodo
16:14en el que todavía
16:15las están entrenando
16:16es decir,
16:17estamos entrenando
16:19a los modelos
16:20de inteligencia artificial
16:21que utilizamos
16:21todos los días
16:22esa fase de entrenamiento
16:24en algún momento
16:25se va a terminar.
16:26¿Y cuando esa fase
16:28termine?
16:29Es decir,
16:30¿restringirán el acceso
16:31a amplias capas
16:32de la población?
16:33¿Lo emplearán
16:33para finalidades
16:34estrictamente comerciales?
16:36A ver,
16:37es que es muy caro
16:39tener un servicio
16:40como ese funcionando
16:41porque cada vez que
16:42como ya sabemos
16:43cada vez que
16:44le preguntamos
16:45algo a ChatGPT
16:46se gasta agua
16:47se usa electricidad
16:48y se consumen
16:49una serie de recursos
16:49que son muchos más
16:51de los que
16:51consumía Google
16:53y entonces
16:53estas empresas
16:54están quemando dinero
16:57con mechero
16:58y gasolina
16:59porque están
17:01en un proceso
17:02de construcción
17:03del producto
17:04y en ese proceso
17:05estamos contribuyendo
17:06todos
17:06no solamente
17:07con todos los contenidos
17:08que han robado
17:09para poder
17:10entrenar
17:11a sus modelos
17:11sino además
17:12con el proceso
17:13al que estamos
17:15siendo todos cobayas
17:16de ir testando
17:18la IA
17:20según cada modelo
17:21que pase
17:22unos dan
17:23crisis mentales
17:24otros dan
17:25otro tipo
17:26de problemas
17:27en la noticia
17:28en la noticia que
17:28acabamos de conocer
17:29en Estados Unidos
17:30el fiscal general
17:31de Florida
17:31ha anunciado
17:33una investigación
17:33contra la empresa
17:35OpenIA
17:35que es ChatGPT
17:37básicamente
17:37porque ChatGPT
17:38estuvo aconsejando
17:39a un joven
17:40cómo tenía que ejecutar
17:41un tiroteo masivo
17:42le iba dando consejos
17:43un tiroteo
17:44que acabó con dos muertos
17:45en una universidad
17:46el año pasado
17:47Isabel Villar
17:48buenas noches
17:48buenas noches
17:48la investigación surge
17:49después de que la policía
17:50haya revisado
17:51el historial de conversaciones
17:52entre ChatGPT
17:53y este estudiante
17:54de 21 años
17:55que en abril del año pasado
17:56mató a dos personas
17:58e hirió a seis
17:58en un tiroteo masivo
18:00en la Universidad Estatal
18:01de Florida
18:01el fiscal del estado
18:02asegura que en esas conversaciones
18:04ChatGPT le dijo al tirador
18:05le dio toda clase de consejos
18:11qué tipo de arma usar
18:12qué munición
18:13tenía que emplear
18:14con cada arma
18:15si era mejor un ataque
18:16a corta o a larga distancia
18:23también
18:23qué momento del día
18:24sería el mejor
18:25para llevar a cabo
18:25el tiroteo
18:26y matar a más personas
18:27o qué parte del campus
18:28estaba más concurrida
18:30a cada hora del día
18:31el fiscal lo resume así
18:36que si lo que le dijo
18:37ChatGPT al tirador
18:39se le hubiera dicho
18:40una persona
18:40una persona de verdad
18:41a esa persona
18:42la acusarían
18:43de cómplice de asesinato
18:44y por eso
18:45investigan ahora la empresa
18:46no podemos tener
18:53a la inteligencia artificial
18:54aconsejando a personas
18:55cómo matar a otras
18:56ha dicho el fiscal
18:57la compañía
18:58se sacude cualquier responsabilidad
18:59la portavoz de la empresa
19:00ha dicho en la NBC
19:02que ChatGPT
19:03solo responde a preguntas
19:04con información
19:05que puede encontrarse
19:06fácilmente en internet
19:07pero en esa respuesta
19:08puede convertirse
19:08en cómplice del mal
19:09Marta
19:10si
19:11es interesante
19:12que precisamente
19:13porque han robado
19:14el contenido de internet
19:15se sienten
19:16menos responsables
19:17por cómo acaba
19:19ese contenido
19:19pero lo cierto
19:20es que
19:20ellos están
19:22abrazando
19:23una doctrina
19:24que es parte
19:25de internet
19:26desde el principio
19:27que es la famosa
19:28sección 230
19:29que hace que
19:30las plataformas digitales
19:32no sean responsables
19:33de los contenidos
19:34que circulan
19:34por sus servidores
19:35porque es contenido
19:36de los usuarios
19:37en este caso
19:38el contenido
19:39de los usuarios
19:39ha sido robado
19:40por las empresas
19:41de internet
19:42para poder entrenar
19:43a sus modelos
19:43y ellos lo utilizan
19:44como si fuera
19:45contenido
19:46que han generado
19:47los usuarios
19:48de forma voluntaria
19:50y que ahora
19:50les está generando
19:52un problema legal
19:53esto
19:55evidentemente
19:56es un problema
19:57de regulación
19:58entonces
19:59¿qué hacer?
20:00es decir
20:00¿qué regulación?
20:01¿qué es lo que necesitamos?
20:03¿dónde está esa tecla
20:03que no estamos pulsando?
20:04bueno
20:05en Europa
20:06hemos sido pioneros
20:07con una ley
20:08de inteligencia artificial
20:09que ahora estamos a punto
20:11de arrancarle
20:11todos los dientes
20:12y quitarle todas las uñas
20:14con un ómnibus digital
20:15que no solamente
20:17suaviza
20:18sino que además
20:19retrasa
20:20mucho
20:21la implementación
20:22de estas leyes
20:23pero además
20:23con la experiencia
20:25de la normativa
20:27de protección
20:28de datos
20:28con la GDPR
20:29que entró en vigor
20:30en 2018
20:30lo que estamos viendo
20:31es que no basta
20:33con tener una buena
20:34legislación
20:34sino que además
20:35necesitamos tener músculo
20:36para poder implementarla
20:38para poder ejecutarla
20:39para poder cobrar
20:40las multas
20:41que le podemos
20:41a estos
20:42a estos grandes señores
20:44de internet
20:45y sin embargo
20:45no lo tenemos
20:46con lo cual
20:47tenemos un problema doble
20:48no basta con
20:49legislar
20:49además tenemos que aguantar
20:51la legislación
20:52lo bastante
20:52como para que los lobbies
20:53no la retrasen
20:54y además
20:54tenemos que tener
20:55tenemos que tener policía
20:57para poder implementarla
20:59Marta Pirano
21:00muchísimas gracias
21:01buenas noches
21:02un placer
21:02para no perderte
21:03ningún episodio
21:04síguenos en la aplicación
21:06o la web de la SER
21:07Podium Podcast
21:08o tu plataforma
21:08de audio favorita
Comentarios