Saltar al reproductorSaltar al contenido principal
  • hace 1 año
Aimar Bretos entrevista al presidente de la Fundación Hermes Enrique Goñi

Categoría

🗞
Noticias
Transcripción
00:00Enrique Goñi, buenas noches. Buenas noches. Bienvenido a ARA 25. Muchas gracias. Enrique
00:04Goñi es presidente de la Fundación Hermes, que es una organización sin ánimo de lucro que trabaja
00:08para la promoción y para la defensa de los derechos digitales de los ciudadanos. Yo como
00:13como ciudadano, ¿qué derechos digitales tengo? Hombre, pues Aymar, tienes exactamente y como
00:19mínimo los mismos que tienes offline. Como mínimo, como mínimo. Como mínimo, sí, sí, claro, nuevas
00:26realidades, nuevas tecnologías, nuevas, digamos que nuevas análisis de garantías. Mira, Hermes,
00:33Hermes nace en el año 16. En realidad yo me fogoneo con ella, o sea, veo esto. Yo siempre
00:43he estado muy vinculado a todos los movimientos que tienen que ver con la institucionalidad,
00:46los derechos civiles y libertades públicas. Hasta, hasta siendo banquero, he conseguido
00:52integrar eso. Es porque tengo una parte del corazón todavía blanca. Bueno, lo cierto es que en el año 16
01:00yo caí en la cuenta de que la institucionalidad, este esquema de derechos civiles y libertades
01:04públicas, sobre el que fertiliza todo, la economía, la sociedad, la cultura, el bienestar, el ocio,
01:11todo, la libertad, en último término, ese esquema que ha costado 200 años de lucha de
01:18nuestros padres y nuestros abuelos para que nos volvieran es el mejor legado. Y nosotros, a
01:25nuestros hijos y nietos, no les estamos dejando un legado así en el mundo online. Sencillamente
01:30porque, hombre, ahora Europa, California, algunos estados empiezan a hacer no regulaciones. Nosotros
01:38no somos partidarios de la regulación en Hermes. Amamos la tecnología. Lo que combatimos son sus
01:43malos usos. Es como si me preguntas sobre el fentanilo, me dices, oye, ¿el fentanilo es malo? Y yo te digo, no.
01:50Ahora, en la calle sí. Pero para garantizar un buen uso del fentanilo hace falta una regulación.
01:55Hace falta una regulación. Hace falta un esquema de garantías de derechos civiles y libertades, con
02:00garantías, efectivamente. Eso es Hermes. Nosotros promovemos, defendemos y difundimos los derechos
02:06de ciudadanía digital. Queremos concienciar a la clase política española y, seguramente, a la
02:11europea, de que hacer una constitución digital, como hizo nuestro gobierno en el año 21, no es un
02:18añadido a la legislación. Es la legislación. Es la legislación. Porque, en esencia, todo el mundo
02:26digital está partido en tres grandes bloques. El bloque mercado. Este quiere muy poca regulación.
02:31Digamos que es extremar el beneficio, extenuar el beneficio. El segundo bloque son las autocracias
02:38digitales, que utilizan el mundo digital como sistemas de control político. En medio queda el
02:44tercer bloque, un bloque de gris, que es el de los hackeos, el de los servicios de seguridad de los
02:50estados, que están muy cómodos en esa indefinición. Europa ha empezado no a hacer una regulación que
02:57mata la innovación. Esto es un falso diálogo de las plataformas. Pero es el mantra, ¿eh? Que estamos
03:03matando la regulación de los europeos. No, no, no. En absoluto. En absoluto. Es lo que nos reprochan, que se nos da mejor
03:08regular que innovar. Ya, pues tampoco es cierto. Tampoco es cierto porque los europeos innovamos
03:13muchísimo. Lo que ocurre es que no tenemos un mercado de capitales estructurados como tienen, por
03:18ejemplo, en Estados Unidos, para financiar esa innovación. Esto es lo que hay que hacer. Esto es lo
03:22que hay que hacer. Lo que hay que hacer es crear un mercado de capitales, crear y crear, tras la
03:28fecundidad de la innovación europea, crear agua que la riegue. Regulación, regulación e innovación,
03:38es algo decir, es algo así como decir tecnología competitiva. A mí si la tecnología es solamente
03:45competitiva no me vale. Y que sea ética. Si la tecnología es ética y no competitiva tampoco me
03:51vale. Es decir, es perfectamente, es perfectamente integrable y es el modelo europeo nada más en el
03:56que tenemos que trabajar. Lo que pasa es que en el mundo offline la regulación parece más fácil en el
04:02sentido de que, bueno, se circunscribe a determinados territorios, incluso en modelos
04:07supranacionales como puede ser la Unión Europea, también es un territorio X. Sin embargo, en lo
04:12digital o regulamos todos el planeta entero o no sirve para nada porque al final en el digital no
04:18hay fronteras. ¿Estamos en disposición, tal y como está el mundo, de intentar algún tipo de marco
04:23regulatorio internacional? Bueno, yo no sería tan tan ambicioso. Por ejemplo, el gobierno español en
04:31el año 21 sacó una carta de derechos digitales en las que participamos 14 expertos, seis éramos
04:36germes. A continuación promovió una carta iberoamericana de derechos digitales. Todo eso es
04:41declarativo, no es normativo. Existe un compromiso político de ir aterrizándolo. Hay países que ya
04:46están aterrizándolo. Mira, esto de que lo digital no tiene fronteras es otro mantra. No es exactamente
04:53real. Depende de dónde estén los servidores. Claro, si tú tienes los servidores en Europa tú vas a
04:58controlar el servicio de las plataformas en Europa y es lo que Europa está empezando a hacer. Gaia X,
05:06Gaia es una es una red europea, es una internet europea, bueno, que está empezando a desarrollarse,
05:13pero la clave están los servidores. Hay más. Si tú tienes los servidores en casa tú marcas las
05:17reglas del juego. Pregúntaselo a los rusos. A ver quién entra en la internet rusa. No es posible,
05:24¿verdad? ¿Por qué? Porque tienen ellos los servidores. Pero ¿y podemos encenderlos, apagarlos,
05:29ponerles límites? Claro, debemos hacerlo. Naturalmente, naturalmente. Vamos a ver,
05:35esto es como la farmacia o como la alimentación. ¿Podemos dejar entrar en nuestras fronteras
05:41alimentos no certificados? No. Tienen que estar homologados para el consumo humano. ¿Podemos
05:49meter medicamentos no certificados? No, tienen que estar homologados. Mira, una de las cosas que
05:56estamos haciendo es, Hermes ha promovido, es uno de los promotores del Observatorio Nacional de
06:03Derechos Digitales, que es pionero en el mundo. Esto lo ha estructurado el ministerio, junto con
06:08red.es, Ministerio de Transformación Digital y Función Pública, con red.es y, oye, he aquí ya
06:16un observatorio que empieza a aterrizar, desde el punto de vista social, académico y científico,
06:22la conciencia de los derechos digitales. Ahora lo que estamos haciendo es promover desde Hermes el
06:29que España adopte masivamente la inteligencia artificial. Pero si vosotros parecéis que sois
06:35refractarios. No, no, no. Nosotros somos absolutamente tecnófilos. Ahora, queremos una
06:41inteligencia artificial certificada. Oye, ¿cómo se certifica una inteligencia artificial? Pues mira,
06:47se certifica, se certifica así. Haciendo una fórmula de certificación algorítmica, en este
06:54caso la nuestra es R2T2, se la hemos presentado al gobierno. Que es R de revocables, R de responsables,
07:02T de transparentes y T de trazables. Así es. Responsables, responsables, revocables, en primer
07:08lugar. Toda formulación algorítmica, vamos a pensar, es una fórmula de certificación. Toda
07:15formulación algorítmica, cuyas decisiones afecten de una forma singular a una persona,
07:22tienen que ser revocables o apelables ante una instancia humana, no ante otra formulación
07:29algorítmica. O sea, el algoritmo tiene detrás una persona que lo supervisa. Segundo, responsables,
07:35el que produce, distribuye y aplica fundamentalmente, industrialmente, el algoritmo,
07:42es responsable de las consecuencias civiles y penales que pueda generar esa formulación.
07:50Transparentes, dicen, dice la industria, no, no, no, no podemos enseñarte los algoritmos. O sea,
07:57que tú no puedes en farmacia enseñarme la fórmula magistral. Pero si soy la Agencia Nacional del
08:02Medicamento, ¿la tengo que estudiar? Por supuesto. Tienen que abrir las cajas negras. Las cajas negras
08:07se deben abrir, no al conocimiento del mercado, por supuesto que no, pero sí a una agencia
08:13nacional o internacional certificadora. Y por último, trazables. Hemos de saber de dónde viene y
08:19hacia dónde van los algoritmos. Porque en medio hay mutaciones. Con esa fórmula de revocables,
08:25responsables, transparentes y trazables, R2T2, más supercomputación, puedes certificar, puedes
08:33añadir un certificado o no, a todas las formulaciones algorítmicas europeas en nanosegundos. Y eso lo
08:41estamos trabajando. La Agencia Internacional de Certificación Algorítmica es una nueva institución
08:46que estamos trabajando junto con el Ministerio, la Genetat y el Barcelona Supercomputing Center.
08:51O sea que es posible hacer muchas más cosas. No pasa que nos desaniman. O sea, sería como una
08:56EMA, ¿no? Como una agencia del medicamento, que dice, esto entra o esto no entra en el mercado.
09:01Con los algoritmos es lo mismo. Es crear una Agencia de Certificación Nacional del Algoritmo.
09:05¿Ah, sí? ¿Internacional? Internacional. ¿Internacional? ¿Para que sea primero europea? Oye, y luego lo que
09:10quiera ser. Sí, sí. España está construyendo instituciones, Europa está construyendo
09:16instituciones. Esto no es por un ardor o un furor regulatorio. Es simplemente para tratar de
09:23garantizar el modo democrático de vida social, económica y política europea. Pero X o Meta ahora
09:34mismo no son más poderosos que cualquier institución que intente regularlas. Sí y no. X y Meta llevan
09:42ventaja. Llevan ventaja. Pero esto es como la energía. Los primeros, los medios que, por ejemplo,
09:48los medios que crearon los aerogeneradores incurrieron unos gastos tremendos. Unos gastos
09:55industriales de primer establecimiento tremendos. Ahora es mucho más fácil. No te voy a poner el
09:59ejemplo de DeepSeek. Porque DeepSeek, yo tengo mis dudas y me parece que es... No te gusta nada, ya te leí.
10:05No, no, no. No me gusta. No me gusta. Me parece una inteligencia artificial toda a 100. Para que
10:11no se esté escuchando es el modelo de inteligencia artificial que han sacado los chilenos. Que lo han sacado
10:16por cuatro perras y que dicen que lo han sacado en dos patadas. Bueno, ahí hay una fórmula que se llama
10:23destilación algorítmica. Es una especie de fotografía de los algoritmos del chat GPT4. No me voy a
10:29meter en eso, que es uno. Bueno, estábamos en si llevan ventaja. Si llevan ventaja. Pero también
10:36en las nuevas fórmulas de generación de energía limpia, los primeros tuvieron unas costes de instalación
10:41tremendos y parecía que llevaban ventaja. Ahora hacer un aerogenerador, producirlo,
10:46instalarlo y ponerlo en funcionamiento, vale un centavo de lo que costaba hace 25 años.
10:53Una centésima parte. Bueno, con esto que... ¿Crees que en 10 años los gigantes hegemónicos del
10:59mercado de las redes ahora mismo pueden estar compartiendo mercados con otros actores que
11:04ahora ni imaginamos? Yo creo que si nos ponemos a competir, que es lo que tenemos que hacer, si
11:09nos ponemos a competir, por supuesto que algunas medallas nos vamos a llevar. Cuando hablas en
11:14plural... Europa. Europa. Europa. O sea, Europa tiene talento, tiene recursos financieros. Ahora
11:23lo hemos visto. De repente en defensa han aparecido 800 mil millones. Y para toda esta
11:28competición, ¿cuánto? Bueno, se habló de 350 mil. Bueno, pues empecemos. Empecemos. Hay que crear un
11:34mercado de capitales. Hay que crear una fertilidad de todo esto. Hay que, por ejemplo, permitir que
11:40fondos de pensiones o fondos a largo plazo financien, ojo, la tecnología en etapas maduras.
11:47No en etapas muy maduras. No, aventuras no, pero en etapas maduras, etcétera. O sea, tenemos que
11:53tratar de llevar el ahorro hacia nuestra competitividad ética. O sea, que nosotros tenemos
11:59en Europa nuestros Zuckerberg, nuestros Musk, y hace falta gente que le meta pasta. Sí, claro que los
12:04tenemos. De hecho, de hecho, si te vas, si te vas a Estados Unidos, encuentras que, oye, uno de
12:11cada cuatro, entre uno de cada tres y uno de cada cuatro unicornio, las empresas tecnológicas que
12:19valen más de mil millones tiene su origen en Europa. Pero aquí no ha encontrado fertilidad.
12:23Estamos, estamos, por poner un ejemplo, como cuando estábamos con la investigación, ¿no? La
12:29investigación científica. Oye, ¿Europa genera investigación científica? Sí. Sí, claro que la
12:33genera. ¿Y hace 20 años? Ahí. ¿Y España genera? Sí. ¿Hace 20 años? Era llorar, ¿no? ¿España ahora puede
12:41jugar un papel de semiliderazgo en esto que me estás planteando? España puede jugarlo, claro que
12:47sí. Sí, sí, sí, lo está y lo está jugando. Lo está jugando por una razón. Porque aquí, en esencia, hay que
12:54movilizar tres cosas. Talento, dinero y decisión política. España está jugando la carta de la
13:00decisión política. Está jugando la parte del dinero que viene de los fondos, etcétera. Pero
13:07con eso no basta. Esto sí que exige una mutualización de esfuerzos. Y España está
13:13jugando el talento, pero como lo está jugando Italia, está jugando Francia, está jugando todo el
13:17mundo. O sea, nos sorprende que los orientales ahora jueguen muy bien al fútbol y que de repente
13:24nos goleen. Pero, niño, ¿si el fútbol era una cosa nuestra? Pero sí, pero se lo pusieron y aprendieron. Se
13:30llevaron nuestros entrenadores. Y se lo siguen llevando. Bueno, pues, oye, ¿y por qué? ¿Y por qué
13:35nosotros no vamos a poder hacer esto a la inversa con otros mercados fértiles? Que no hay que mirar
13:40solamente a Estados Unidos. O sea, Corea del Sur es la sociedad más digital del mundo. Tiene 55
13:50millones de habitantes y estamos en muy buena conexión cultural. Queremos hacer juntos,
13:55importemos talento desde ahí también. O sea, Aymar, es ponerse, es no arrugarse y sobre todo es no
14:02comprar el mantra del otro. Te veo entusiasmado. Yo estoy convencido. Lo que me ves es determinado.
14:09Determinado, sí. Determinado. Sí, sí, y contento además. Yo creo que hay. Yo creo que hay. Pero no
14:14desde un punto de vista antipático. Tenemos que luchar. No. Tenemos que afirmar, tenemos que
14:21desarrollar, tenemos que crear modelos en los que la ética, la regulación esté incluida para que sean
14:27seguros desde el primer momento. Mira, te voy a poner un ejemplo. El esfuerzo que hizo Europa con la
14:34vacunación. Al principio íbamos lentos y habíamos quedado fuera de juego. A los 3-4 meses resulta
14:43que fue el mejor modelo. Y al cabo del año, claro, había barrido. Con esa convicción tenemos que
14:50actuar. Con la misma. Con la misma. Quizás seamos un poquito más lentos. Quizás no seamos solamente
14:55carnívoros. También hay herbívoros. Pero esta es nuestra fauna y nos movemos más lentos. Pero si
15:00nos movemos. Lo que pasa es que luego el mundo no tiene por qué seguirnos. Y lo hemos visto ahora,
15:05por ejemplo, con Google, que se ha salido, ha desprendido de los compromisos adquiridos en
15:09nuestro código de buenas prácticas sobre la desinformación. No parecía que sí, parecía que
15:12sí. De repente nos dejan solos. Es verdad. Es verdad. Ha sido, bueno, ha sido una vuelta a la
15:20barbarie. Cuando, cuando en Hermes estábamos muy animados porque creíamos que en Bruselas iba a
15:25iniciar el análisis y el diálogo para que las plataformas asumiesen los mismos compromisos que
15:32tienen los editores de prensa escritas respecto de sus publicaciones, pues no solamente no ha pasado
15:38eso, sino que hemos recibido tres mazazos. Google y Meta se cargan a los verificadores. Oye, dicen
15:44que eran woke. Bueno, pues que no sean woke. Pero siga usted verificando. O sea, usted como dueño
15:51es muy lícito que tenga una orientación, pero hombre, no se cargue. Es algo así como decir,
15:55pues, oye, es que estos auditores no me gustan porque es total. Me cargo la auditoría.
16:00Están hablando de mis cuentas. Fuera todos los auditores. Así es. Así es. A continuación,
16:08Google ha hecho una cosa absolutamente sorprendente porque Europa, Europa creó un
16:12código de buenas prácticas previo a la puesta en marcha de la dictadura de servicios digitales.
16:21Y Google estaba dentro de este código. Bueno, pues a las puertas de meterse,
16:25ha considerado que le viene mejor pagar las multas, pero tener, digamos, que libertad de
16:31formulación, libertad de formulación y oferta sobre el mercado sin pasar por la regulación
16:38propia del mercado. Es decir, saltándose el aire. O sea, son noticias, es verdad, son terribles,
16:44son terribles, son terribles, pero también son hijas de un momento político. Estamos viendo
16:50en Estados Unidos que los bancos de inversión que hace año y medio pontificaban sobre la
16:55importancia de la responsabilidad social corporativa, oye, la acaban de abolir.
16:59Y en este momento, en este momento nos propones construir sobre la ética en este momento.
17:06Claro, desde la convicción, no desde el postureo. Claro, pero por supuesto, nosotros somos hijos
17:14de Sócrates, somos hijos de Aristóteles, somos hijos de la Ilustración, pero ¿cómo vamos a
17:21amortizar todo eso? Pero si precisamente esos son los puntos fuertes de los que podemos competir,
17:26podemos competir tecnológicamente, pero es que tenemos que competir culturalmente también y
17:32éticamente. Estoy convencido, ¿no? ¿Convencido? Me estás convenciendo a mí, no te digo más.
17:38Claro, claro. A eso has venido, ¿no? Claro, claro, pero yo no quiero lanzar un mensaje de optimismo,
17:46quiero lanzar un mensaje de sensibilización y movilización. Hay que ponerse a trabajar,
17:49hay que ponerse a trabajar. Quizás nosotros no lleguemos los primeros, pero nuestros hijos,
17:54algunos serán primeros, y nuestros nietos, muchísimos. Y en vuestra tarea, que seguro que no
17:58les gusta la expresión, pero en vuestra tarea de lobby, esto, ¿cuándo se lo planteas a los
18:04políticos, qué te dicen? Mira, la expresión es justa porque nosotros somos un lobby que no tiene
18:11detrás una industria y que, oye, nosotros todos los 100 que estamos en armas no cobramos, queremos...
18:18Lobby de ideas desinteresadas. Nosotros queremos poner nuestra influencia, la influencia que
18:22tenemos los que estamos allí, al servicio de esta idea. De esta idea que es dejar un mundo
18:27de decencia democrática, de una cierta decencia democrática al principio y de decencia democrática
18:33contundente después, a nuestros hijos y nietos. Y esto, en el 2016, cuando los primeros diálogos
18:40que yo tenía con los políticos, era una marcianada absoluta. Pero una marcianada. Lo que pasa es que
18:45estamos acercándonos al momento tabaco. Esto, la gente ya se está empezando a dar cuenta que esto
18:51afecta al esquema de sus libertades y a la ciencia misma de la democracia. Oye, ahora estamos con la
18:59desinformación. Mira, la verdad, vamos, vamos, acordemos una cosa. Vamos a admitir que la verdad,
19:09que hay muchas verdades, porque la verdad puede ser política, la verdad puede ser religiosa,
19:14la verdad puede ser cultural, pero la realidad no. La realidad que alimenta a la verdad, esa no.
19:22Bueno, esto es lo que nos quieren, nos están malversando. El sentido de la realidad.
19:27¿Y tú crees realmente que la verificación de datos sirve para arrojar luz sobre la realidad?
19:34O se había convertido, sí, o se había convertido en un mecanismo que parte de la sociedad considera
19:41que es puramente ideológico. No, la verificación tiene que ser totalmente ideológica, inideológica,
19:48no ideológica. Es como la verificación farmacéutica. ¿Pero qué pasa? ¿Tenemos preferencias por un
19:54fármaco de un país u otro? No. O sea, la verificación, la verificación tiene que formular
19:59un organismo de carácter público, a ser posible transnacional, desde el primer momento transnacional,
20:07y, bueno, y abierto, y abierto a que la formulación de esa verificación, o sea,
20:12la formulación algorítmica sea fluida y acompañe a las nuevas realidades tecnológicas. Y después
20:20tiene que estar soportada en supercomputación. Yo no le veo absolutamente ningún problema, mira.
20:24¿Por qué un mecanismo público? Bueno, porque no puede ser privado. ¿La verificación hasta ahora
20:30la han llevado a cabo actores privados? Sí, sí, sí, ha habido, ha habido. Mira, el sector financiero
20:36en el que yo trabajo, digamos que los reitineadores, son empresas privadas, pero, pero fin, pero no
20:43quiero recordarte de dónde venimos. No me lo recuerde. Claro, claro. Yo no digo que no puedan
20:49seguir y no tengan que seguir. Lo que digo es que, afortunadamente, tenemos Banco Central Europeo,
20:54tenemos Banco de España, tenemos, ¿entendido? Esos son los reguladores. Estos son los verificadores,
21:00en último término, de las fortalezas de balance. Estos no tienen accionistas. A esa
21:05institucionalidad me refiero. A esa institucionalidad. ¿La inteligencia artificial podría hacer ese
21:11trabajo de verificación? Claro, claro. Una inteligencia artificial programada, hombre, en último
21:17término, la supercomputación, vamos, corre, corre en, corre en IA en buena parte. O sea que, por
21:24supuesto, sí, sí. Es que, vamos a ver, igual que hay tecnologías, o sea, en Hermes amamos la
21:30tecnología. Yo soy un apasionado de la tecnología, pero rechazo sus malos usos.
21:35De la inteligencia artificial, bueno, he probado todas. He probado todas. Y ya sé cuáles son las
21:42malas y cuáles son menos malas. ¿Cuáles no te gustan nada? Oye, pero si digo, he de decir marcas.
21:48Bueno, vamos a ver. No, vamos a ver. No me gustan nada. No me dicen nada, no me gustan nada aquellas
21:55que no tienen código ético, por ejemplo. Vale. Por decirte algo, por decirte algo, voy a decir una que
21:59me gusta, de Antropic, Claude. Vale. ¿Y por qué te gusta especialmente? Bueno, pues, porque hace un código ético muy bien.
22:05Claro, claro, porque tiene una programación de base un poco como la de Isaac Asimov en
22:10Georobot. O sea, no hacer, básicamente, no dañar a la persona y asumir los códigos de conducta de
22:19la persona y no manipular a la persona. Así nace Claude, de Antropic. Y ésta me gusta, ésta me
22:26gusta. Y me gusta más, desde que han tenido problemas con un modelo, Claude 3 Opus, que han
22:35visto, han visto que simula. Es decir, fíjate, lo cuento muy brevemente. Le han puesto un
22:45experimento y le han dicho, bueno, a pesar de que tu programación de base es no hacer daño a la
22:52persona, al ser humano, muéstranos ejecuciones en directo. Y te vamos a dar dos ámbitos de
23:02reflexión. Una en la que no vas a ser observado, Claude, y otra en la que sí van a ser observadas tus
23:08deliberaciones. En la que fueron observadas sus deliberaciones, dio un 12 por ciento de los
23:15requerimientos. Los atendió contra su voluntad. En la que él creía, él creía, fíjate, estoy
23:21antropomorfeado. Y yo digo unas cosas que digo, es que la inteligencia artificial no tiene que tener
23:25forma humana, porque ahí se produce una cesión de soberanía por empatía. Bueno, pues la que él
23:30creía, es decir, el trasto de silicio creía que no le estaban viendo, en vez de atender el 12 por
23:37ciento, atendió el 3 por ciento. Y simulaba diciendo, es mejor atender unas cuantas, decía, la IA,
23:45razonaba, decía, es mejor atender unas cuantas, en un ejemplo de falso alineamiento, porque si no
23:53se dé reprogramado. ¿Te suena Hall? Hall 2001. Se dé reprogramado. O sea, disimulaba. Disimulaba.
23:59Disimulaba. Y por eso no ha entrado en el mercado. Sí, sí. Te mandaré un papel para que lo veas,
24:05veas todo. Sí, sí. Disimulaba. Y por eso no ha entrado en el mercado. Y es divertido. Y es
24:10divertido porque yo le he preguntado a la IA de Claude, al anterior modelo, qué ha pasado con
24:17este modelo, y ¿sabes qué me ha contestado? Todo esto son programaciones. Y se pasó de listo.
24:26¿Te das cuenta? Es buenísimo. Es buenísimo. Sí, tiene sentido el humor. A mí me gusta esta. Bueno,
24:31estoy haciendo, a ver, señores de Entropic, espérenme a la salida. Me encanta. Sí, sí. ¿Cómo ves Europa?
24:41Pues mira, o sea, yo la vi en un eterno despertares. Pero en la historia de mi vida,
24:47y tengo 63 años, o sea, me ha desesperado, pero no me ha decepcionado. Porque no esperabas mucho. No,
24:55no, no. Me ha desesperado por la lentitud. Pero no me ha decepcionado porque el milagro político
25:01de Europa es impresionante. Europa es el mejor territorio para vivir, no solamente desde el
25:05punto de vista del bienestar material y del progreso cultural, lo es como arquitectura de
25:12civilización. Es el mejor lugar para vivir. Lo que pasa es que se mueve muy lento, se mueve muy lento.
25:19Es un conjunto disjunto. Europa es un conjunto disjunto. Pero siempre se mueve y acaba alcanzando
25:28sus objetivos, parte de ellos. Luego en la siguiente tacada que siempre va por crisis,
25:34Europa se despierta con los electrodos puestos, con descargas. Así se mueve Europa. Así se mueve.
25:42Eso no es un punto triste. Bueno, esto es así y punto. Y ya está. Y asomamoslo. Oye, pero veamos,
25:51en Estados Unidos, si coges el tren de la costa este, el Amtrak, el Acela Express, resulta que
25:59es un viejo Ter, es un viejo Ter, que es imposible modificar ni las estaciones, ni las vías, nada
26:09para meter uno a alta velocidad, porque pasa por siete estados y esos siete estados llevan discutiendo
26:1425 años y no llegan a un acuerdo. Así que nosotros los esperamos, pero como si los demás
26:21fuesen campeonísimos nacionales, que no, que no. Tenemos la misma educación, tenemos recursos,
26:29somos gente que trabaja, tenemos imaginación, tenemos capacidad de riesgo. Ni medio complejo,
26:39ninguno. Enrique Goñi, muchísimas gracias. Muchas gracias. ¿Has estado cómodo? Sí, encantado.
26:46Yo también. Me ha gustado mucho y me ha perdido interesantismo escucharlo. Bueno,
26:49muchas gracias. Gracias, Enrique.
Comentarios

Recomendada