- hace 2 horas
Suscríbete a nuestro canal de OKDIARIO en Youtube aquí 👉🏻 @Okdiariovideos
Puedes seguirnos también en todas nuestras redes sociales 📲
Ⅹ: https://x.com/okdiario
📲 TikTok: https://www.tiktok.com/@okdiario_oficial
📸 Instagram: https://www.instagram.com/okdiario/
📖 Facebook: https://www.facebook.com/okdiario
✅ Whatsapp: https://whatsapp.com/channel/0029VaCjbbxFnSzGeOnBQb2V
Y por supuesto en nuestra web:
🖥️: https://okdiario.com/
Puedes seguirnos también en todas nuestras redes sociales 📲
Ⅹ: https://x.com/okdiario
📲 TikTok: https://www.tiktok.com/@okdiario_oficial
📸 Instagram: https://www.instagram.com/okdiario/
📖 Facebook: https://www.facebook.com/okdiario
✅ Whatsapp: https://whatsapp.com/channel/0029VaCjbbxFnSzGeOnBQb2V
Y por supuesto en nuestra web:
🖥️: https://okdiario.com/
Categoría
🗞
NoticiasTranscripción
00:00Vivimos el momento más extraño de nuestra historia.
00:02Por primera vez estamos creando algo que podría pensar mejor que nosotros.
00:07Sí, lo más inquietante es que los propios creadores de la inteligencia artificial
00:11están empezando a alertar de sus peligros.
00:13Personas como Jeffrey Hinton, uno de los padres del Deep Learning,
00:17o el CEO de Antropic, hablan de pérdida de control,
00:21de sistemas que toman decisiones, de un poder que podría superarnos.
00:25Así que la pregunta ya no es futurista, es claramente muy urgente.
00:32¿Esto nos va a hacer más libres, más avanzados o más débiles y prescindibles?
00:36Hoy hablamos con uno de los mayores expertos en ciberseguridad y tecnología de España.
00:41Chema Alonso, bienvenido.
00:43Gracias María.
00:44Un placer tenerte aquí.
00:45Bueno, como siempre, siempre que me llames, yo aquí contigo.
00:48Si los creadores y mayores entendidos de la inteligencia artificial
00:54están alertando sobre posibles peligros,
00:56¿qué saben ellos que no sabemos todavía la gran mayoría de la población?
01:01Bueno, yo creo que sí que lo sabemos.
01:03Lo que sabemos es que estamos con una tecnología que ya está sobrepasando
01:07en algo que ha sido diferenciador siempre entre la tecnología y el ser humano,
01:11que son las capacidades cognitivas.
01:13Está siendo mucho más lista que nosotros,
01:16está realizando las mismas tareas que hacemos en empresas
01:19y por las que nos están pagando y lo está haciendo mucho mejor que nosotros.
01:23Entonces, estamos entrando en un modelo que está haciendo
01:25una disrupción de la sociedad, del modelo económico de la sociedad.
01:29Pero, por otro lado, lo que sabemos es que cuando entrenamos un modelo
01:34no tenemos claridad de cómo se va a comportar esa inteligencia artificial.
01:40No tenemos predictibilidad de lo que hemos creado.
01:43No podemos decir que si A va a pasar B.
01:46Entonces, hay un cierto miedo a cómo se va a comportar esa tecnología.
01:49Claro, es que, por ejemplo, Joshua Benjo, que es premio Turín,
01:53estaba alertando de que se le da instrucciones
01:56y no hace esas instrucciones, hace lo que le da la gana.
02:00¿Eso es por un error o es porque funciona así ya?
02:03Bueno.
02:04Y toma sus propias decisiones.
02:06No, a veces no lo sabemos cómo está entrenado el modelo.
02:10Le llamamos alucinaciones o le llamamos errores
02:12porque no sabemos realmente cuál ha sido el proceso.
02:17Hacer un seguimiento de por qué un modelo de inteligencia artificial
02:20ha tomado una decisión es un trabajo arduo, complicado y muy difícil de hacer.
02:25Le llamamos la interpretabilidad.
02:28Interpretar por qué la inteligencia artificial ha tomado una decisión es compleja.
02:32Y lo estamos intentando arreglar por medio de lo que llamamos guardarraíles,
02:35como ponerle ruedines.
02:36Estamos intentando que cuando tiene esos comportamientos anómalos,
02:40por lo menos lo detectemos y lo podamos meter en causar en el carril otra vez.
02:45Hay algunos que hablan incluso de riesgo de extinción.
02:48¿Eso es real o estamos ante algo alarmista que tiene otros intereses detrás?
02:54Bueno, no sé.
02:55Yo he visto mucha ciencia ficción, supongo que como tú.
02:59Hablamos de que la inteligencia artificial solo es una pieza más,
03:02pero están llegando también la robótica.
03:04Y estamos hablando de una disrupción en el mercado laboral.
03:08Si la mayor parte de las tareas que estaban realizando los seres humanos
03:13las empiezan a realizar máquinas y tecnología,
03:16pues cómo vamos a reorganizar el bienestar en el mundo.
03:20Y por otro lado es si a estos robots, drones, etcétera,
03:25que les estamos utilizando, que son más fuertes que nosotros,
03:28más rápidos, los usamos en la industria militar,
03:30les ponemos modelos de inteligencia artificial que no sabemos cómo funcionan 100%,
03:37que pueden tener problemas de seguridad o que pueden ser controlados por un tercero,
03:41¿qué sucedería si se ponen maliciosos?
03:43Que es el mismo premio Nobel a la que estaba de esto,
03:47de qué va a pasar,
03:48que es de dónde viene el concepto del riesgo de extinción por culpa de la tecnología.
03:53Es que es el gran miedo que hay ahora mismo, ¿hasta dónde puede llegar esto?
03:57Están los agentes.
03:58Me gustaría que explicases con claridad qué son los agentes.
04:02Hay mucha inquietud en torno a ellos porque lo cambian todo.
04:07¿Cómo ha sido hasta ahora la inteligencia artificial?
04:09Los agentes son modelos de inteligencia artificial con un propósito claro
04:13que están trabajando 24 por 7 para el creador del agente.
04:17Y cualquiera lo puede hacer, ¿no?
04:18Tú, por ejemplo, María, puedes tener un agente que le configures
04:21para que te esté buscando noticias de actualidad
04:23y te esté preparando los temas,
04:25pero no solo que te busque la noticia,
04:27que te busque la noticia, que la investigue,
04:29que te haga un resumen, que te busque imágenes,
04:31que te monte un vídeo, que te cree todo de manera automática, ¿no?
04:35Entonces se están convirtiendo como en empleados de las empresas y de las personas.
04:39Es el fin de los asistentes, de los secretarios, ¿no?
04:43El fin, podemos decir, de los administrativos porque realiza todas esas tareas.
04:48Sí, pero también realiza edición de vídeo, edición de audio, generación de textos,
04:52realiza informes, toma decisiones de inversión, toma decisiones de muchas cosas.
04:57¿Cómo de concienciadas crees que están las empresas?
04:59Porque lo están implementando ya, ya tienen agentes,
05:02pero son conscientes de que son realmente como empleados
05:05y que eso tiene un proceso, igual que cuando un empleado se incorpora,
05:09de adaptación respecto al resto de los empleados
05:12y que sepan que tienen ahí un compañero.
05:16Pues mira, ¿cómo lo están tomando las empresas?
05:20Está habiendo diferentes tendencias.
05:23Una de las cosas que nosotros estamos detectando más es ansiedad,
05:27la ansiedad en todos los profesionales de que si no tienes agentes
05:32y no estás construyendo estos agentes, parece que no estás trabajando,
05:36no estás sacando el máximo y te estás quedando atrás.
05:39Entonces, en la parte competitiva hay un poco de ansiedad.
05:42Y luego, yo creo que estamos yendo un poquito más rápido
05:45de lo que a lo mejor recomendaría la prudencia,
05:50en el sentido de poner rápidamente, llenar la empresa de un montón de agentes,
05:54llenar la empresa de un montón de tecnologías que no estamos haciendo.
05:57No quiero decir que no hay que hacerlo, quiero decir que tenemos que hacerlo,
06:00pero hay que preocuparse, como tú bien decías,
06:02de la parte de seguridad, de la parte de onboarding, de la parte de controles, etc.
06:05O sea, ¿no hay una formación adecuada, consideras,
06:08respecto a cómo utilizar la inteligencia artificial,
06:10de manera que tampoco se le saca el partido que se podría?
06:13Es que estamos hablando de tecnología de ayer, de antes de ayer.
06:16Estamos aprendiendo lo que se crea hasta mañana.
06:17Claro, yo antes, cuando tú trabajas en tecnología,
06:21antes existían las versiones alfa y las versiones betas que eran de prueba.
06:25Eso ya no existe, hoy en día ya es directamente.
06:28Pero, Chema, claro, tú hablabas de ansiedad,
06:30y dices, es que está entrando como una ansiedad,
06:32hay que ser un poco calmados,
06:33pero es que si uno pierde ese tren, se queda retrasado, ¿no?
06:37Mientras que se utiliza la inteligencia artificial,
06:40las posibilidades de su compañía crecen exponencialmente.
06:43Correcto.
06:43Yo no digo que haya que bajar la velocidad,
06:46porque si no utilizas la inteligencia artificial,
06:49el nivel de competitividad va a deteriorarse.
06:51Lo que sí que hay que tomarse en serio,
06:54que no solo es inteligencia artificial,
06:55que es la parte de controles, la parte de seguridad,
06:58la parte de auditoría, etc.
06:59Todo eso requiere inversión también para tomárselo
07:02de manera seria y profesional, ¿no?
07:04Si no vas a entrar en un entorno donde puede ser que tengas problemas,
07:08nuevos, por tener toda la inteligencia artificial descontrolada.
07:11¿A ti te preocupa esto de lo que estamos hablando?
07:14Bueno, es una...
07:15¿Falta de control absoluto?
07:16Es una de nuestras preocupaciones,
07:18y en Cloudflare estamos haciendo todas las inversiones precisamente en eso,
07:22en cómo se puede dotar de herramientas para controlar,
07:25pero es que es algo que estamos construyendo todos los días
07:27con nuevas innovaciones, porque cada día es distinto.
07:29Oye, ¿qué decisiones importantes está adoptando la IA
07:32que tú crees que no es consciente gran parte de la población ahora mismo?
07:35Decisiones importantes que están a nivel personal,
07:37a nivel empresarial, a nivel de todo.
07:39Bueno, en todos los terrenos, ¿no?
07:40Bueno, yo creo que la IA, por ejemplo,
07:45en la parte de programación,
07:47hablamos de la creación de tecnología
07:49por medio de inteligencia artificial,
07:51y estamos entrando en una fase de deuda cognitiva.
07:55Ya los programadores están utilizando la IA
07:57y dejan de saber cómo es el código que tiene,
08:00y de repente ves a los programadores
08:02que están así dándole permisos todo el rato
08:04al agente o al modelo de inteligencia artificial
08:06para que haga cosas en su nombre,
08:08y no sabemos qué es lo que estamos construyendo,
08:11estamos entrando en deuda cognitiva.
08:13Eso, si lo llevamos a la parte de la empresa,
08:17estamos haciendo muchísimos procesos de automatismo
08:20sin haberlos auditado y saber todo lo que puede salir mal.
08:25Hablaban empresas donde los agentes están borrando datos
08:28o están tomando decisiones en contra de tu bienestar,
08:32y era por simplemente desconocimiento.
08:34Y luego una cosa,
08:35y es que estamos empujando a todo el mundo
08:36a utilizar la inteligencia artificial
08:39sin que haya habido quizá un mínimo de formación
08:43en entender qué son las tecnologías que estamos utilizando,
08:46que son MCP,
08:47que son cosas que son técnicas,
08:49muy técnico,
08:50que está yendo de muy técnico al usuario final muy rápido.
08:54Es que, por eso te decía antes,
08:56¿la formación es la adecuada?
08:57O sea, ¿se le podría sacar mucho más partido?
08:59¿A la inteligencia artificial?
09:01Sí, sí, claro que se le podría sacar muchísimo más partido.
09:03Porque la realidad es que mucha gente lo utiliza
09:04como si fuese Google.
09:06Y en realidad,
09:07dependiendo de la manera en la que lo utilices,
09:09te puede cambiar la vida, ¿no?
09:10Sí, o sea,
09:11la parte de utilizarlo como el buscador,
09:13como el chat,
09:14el famoso chat GPT,
09:15es una parte muy básica
09:16donde ya la gente lo utiliza,
09:17pero ya tenemos plataformas para crear agentes
09:19donde tú dices,
09:20oye, tú eres un agente
09:21que vas a manejar mi ordenador,
09:23y con mi ordenador
09:24lo que tienes que hacer
09:24es ocuparte de,
09:26editar todos los informes de noticias
09:28y crear un vídeo de tres minutos.
09:30O sea, tú le puedes decir
09:31quiero que cada mañana
09:32me realices esta tarea
09:33y la vas a tener
09:34como si tuvieses el asistente.
09:36Correcto,
09:36y te lo va a hacer
09:37y sabe manejar herramientas,
09:38sabe manejar tus programas de ordenador,
09:40sabe conectar,
09:41gestionar tus redes sociales,
09:42sabe hacer todo.
09:43Estás delegando
09:44en un modelo de inteligencia artificial
09:46que es un agente,
09:47pues un montón de tareas
09:48que antes hacías tú.
09:49Chema,
09:49yo me quedo con algo que has dicho
09:51que a uno lo deja ahí quieto,
09:53que es estamos creando algo
09:55que no sabemos
09:55lo que estamos creando realmente,
09:57no sabemos hasta dónde
09:57va a llegar eso.
09:59Bueno,
09:59sabemos dónde vamos,
10:00la dirección es la inteligencia artificial general,
10:02esa inteligencia que va a ser más inteligente
10:05que todos los seres humanos juntos,
10:06que es la utopía de Skynet
10:10en la película de ciencia ficción de Terminator,
10:13pero yo creo que estamos ahí yendo hacia allá,
10:15todos los grandes empresarios de tecnología,
10:19Sam Allman,
10:20el CEO de NVIDIA,
10:21Elon Musk,
10:22etcétera,
10:22están hablando de eso,
10:23¿no?
10:23Ese es el final que vamos.
10:26Vamos hacia esa inteligencia súper inteligente
10:28más que todos los humanos,
10:30también vamos,
10:31y están alertando sobre ello,
10:32a muchos humanos
10:33que tienen mermadas las capacidades intelectuales
10:35porque ya no las ejercitan,
10:37o sea,
10:37es que si tú le pides toda la inteligencia artificial,
10:39pierdes memoria,
10:40pierdes capacidad creativa,
10:43¿en qué medida crees que eso está afectando e inquieta?
10:47Es un mundo curioso
10:49que lo hemos vivido a lo largo de las generaciones,
10:52lo hemos vivido cuando aparecen los cómics,
10:54decían que los cómics eran un cáncer para la sociedad,
11:00y le pusieron el American Comics Code,
11:02luego cuando apareció lo de la música rock también,
11:06que hubo juicios sumarios con los grupos de rock,
11:09que era un sacrilegio a la música,
11:11luego lo hemos visto con los juegos,
11:13y luego con las redes sociales,
11:14y ahora un poco con la tecnología.
11:18Es verdad que cada nueva de estas olas que hemos vivido,
11:22culturales, sociales, tecnológicas,
11:24han cambiado la manera en la que las personas interactúan.
11:28Hoy en día,
11:30coger un taxi para una persona como mi madre es imposible,
11:33porque no es capaz de manejar,
11:35yo hablaba de configurar la televisión,
11:38antes poner una televisión,
11:39la compraba, la enchufabas y tal,
11:41y ya está,
11:41y ahora hoy en día...
11:42Hay que hacer un curso.
11:43Bueno, es imposible,
11:45yo creo que eso tendríamos que ponerle un control,
11:49porque una televisión que es un servicio básico,
11:51yo creo que estas nuevas tecnologías,
11:53la inteligencia artificial,
11:54va a sacar a nuevas generaciones
11:55que van a tener nuevas destrezas,
11:57y que van a utilizar y hacer cosas
11:59que nosotros ni pensamos todavía.
12:01Vamos ahí.
12:02¿Qué trabajos tienen los días contados
12:05y qué trabajos van a tener mucho más?
12:08Sí, la respuesta no es fácil.
12:10Desde luego,
12:11los que controlen la inteligencia artificial
12:14y sepan sacarle partido a lo que tenemos hoy en día
12:17son los que van a tener más probabilidades
12:20de encontrar puestos laborales.
12:23Luego, puestos muy de humanos,
12:27donde se requiera el trato humano,
12:30van a seguir existiendo.
12:32Y fíjate, pero yendo a todo lo que es tecnología,
12:35los directores de sistemas,
12:36que a priori cuando empieza toda la tecnología,
12:38dices, estos van a caer los primeros,
12:40casi van a ser los más imprescindibles
12:42para estar controlando.
12:44Sí, claro.
12:45Hoy en día lo que se está perdiendo
12:47son puestos de ofimáticos,
12:49trabajo de oficina,
12:52hacer informes,
12:53ese tipo de cosas.
12:54Todas tareas que no eran el gran valor,
12:57sino que formaban parte de la maquinaria de la empresa.
13:01¿Tú crees que nos estamos volviendo más eficientes
13:03o más dependientes?
13:05Yo creo que las dos.
13:07Yo creo que nos estamos haciendo más eficientes
13:08y la eficiencia es fundamental para sobrevivir
13:11y por eso somos más dependientes.
13:13Vale, pero voy a añadir una cosa.
13:14¿Más eficientes pero menos capaces?
13:17¿Más eficientes?
13:18No, yo creo que son nuevas capacidades.
13:20Creo que son nuevas capacidades.
13:22Yo le ponía el ejemplo con mi hija,
13:25mi hija pequeña que estaba comprando en Sein
13:29y digo, pero ¿qué haces?
13:30Y no te puede gastar ese dinero.
13:32No, ¿qué tal?
13:32No te puede gastar más de 20 euros.
13:34Y al minuto me dice, ya está.
13:35Y digo, ¿qué has hecho?
13:36Y dice, pues nada, le he dicho a la inteligencia artificial
13:38que me busque códigos de descuento por todo internet
13:41del 50% y encontró uno y se lo dijo.
13:43Pero cosas como ordenar su habitación,
13:46de repente le tira fotografías
13:48y le pide a ChagPT que le haga,
13:52le organize la habitación
13:53y de repente pues eso,
13:54le saca fotografías de cómo tiene que montar
13:56cada uno de los cajones
13:57que tiene que poner en cada una de las cosas.
13:59O sea, tu hija ya tiene ChagPT como agente.
14:02Sí, claro.
14:02Está al minuto de tener uno, de verdad.
14:05Sí, sí, sí, lo usan muy masivo.
14:06Si tu hija fuese pequeña ahora...
14:09Mi hija tiene 13 años.
14:10Bueno, es pequeñita.
14:11Es pequeña.
14:11Si fuese más pequeña,
14:13¿la dejarías crecer tan cerca de la IA?
14:16Pues mira, yo hay sitios en los que no.
14:19Una de las cosas que hemos regulado
14:20es el uso en Europa,
14:22el uso de la inteligencia artificial en los juguetes.
14:24Yo cuento la historia de esa misma hija
14:26con los tamagotchis.
14:27Mi hija con los tamagotchis.
14:29Pero esa historia yo me acuerdo,
14:30esa es tremenda.
14:31Claro, claro, que a las 4 de la mañana
14:32se estaba levantando a dar de comer al tamagotchi
14:35porque utilizan algoritmos de engagement,
14:37que son algoritmos de adicción.
14:39Entonces el tamagotchi se fue al cielo de los tamagotches.
14:41Yo creo que hay que decidir cuándo es el momento.
14:45Y hay destrezas que si tú quieres que tu cerebro se desarrolle,
14:51tienes que hacerlo.
14:52Hoy en día en las terapias de gente que es propensa,
14:54que te haces el análisis genético
14:55y te dice que eres propenso a tener Alzheimer,
14:57lo que te están diciendo,
14:58oye, se aprende música, aprende a escribir,
15:02literatura, haz deporte,
15:03destrezas manuales,
15:05porque te ayuda a crear las conexiones en el cerebro.
15:08Creo que si dejas de hacer determinadas tareas,
15:12pues zonas de tu cerebro no se van a desarrollar,
15:14simplemente.
15:15Se desarrollan otras.
15:17Sí, ahí viene la responsabilidad de cada uno,
15:19pero también viene el que uno se puede volver perezoso,
15:22por eso es preocupante.
15:25Estamos hablando mucho de las capacidades
15:27de la inteligencia artificial,
15:28de a dónde nos puede llevar,
15:29pero no estamos hablando del control.
15:30¿Esto va a significar que se va a aglutinar todavía más
15:33en unas pocas compañías tecnológicas y en gobiernos?
15:39Bueno, en compañías tecnológicas es el debate,
15:42ya sucede hoy en día.
15:43Hay 10 grandes compañías en el mundo
15:46que tienen una posición muy relevante
15:49en las sociedades y en la vida de las personas.
15:52Eso existe hoy en día.
15:54Con la llegada de la inteligencia artificial,
15:55lo que está sucediendo es que algo que era mucho más disperso
15:59y más grande que era Internet,
16:01pues se está haciendo pequeño.
16:03Tú no podías navegar por Internet para buscar un montón de cosas,
16:06no podías estar horas y horas buscando,
16:08pero ahora sí puedes pedírselo a una gente que lo haga
16:10y lo hace en una centésima parte de tu tiempo
16:13y tienes acceso a todo Internet en mucho más rápido.
16:16Entonces yo creo que sí que son muy relevantes
16:19las 10 empresas o 5 empresas o 8 empresas
16:23que van a controlar la inteligencia artificial en Internet.
16:25Chema, ¿y quién manda más ahora mismo en este nuevo mundo?
16:29¿Esas grandes compañías tecnológicas o los gobiernos?
16:32Que a fin de cuentas pueden adoptar una medida
16:35que condicione la vida de esa empresa.
16:38Difícil contestarte.
16:39Yo creo que todos tenemos que vivir en sociedad,
16:44las personas, los gobiernos, las empresas, etc.
16:47Yo siempre creo que las empresas se han creado
16:48para generar bienestar en las sociedades donde operan
16:53y que debemos seguir en ese equilibrio
16:57y creo que es lo que es el trabajo de todos.
16:59Oye, tú eres hacker
17:01y ahora mismo la inteligencia artificial
17:03da ya pistas para ser hacker, ¿no?
17:06Sí, claro.
17:06Sí, sí, te puede permitir ser un hacker.
17:09¿A cuánto estamos de que llegue uno
17:12que no tiene prácticamente conocimientos técnicos
17:13y ocasiona un problema de verdad?
17:15Bueno, eso son, nosotros le llamamos scriptkiddies
17:18o cibercriminales que utilizan todas las herramientas
17:21de hacking para hacer cosas malas.
17:25Hoy en día es muy fácil.
17:27En el mundo del cibercrimen
17:28tenemos kits para que los malos hagan todo
17:31y además utilizando inteligencia artificial,
17:34kits para hacer contact centers falsos,
17:36para hacer clonado de voz,
17:38para generar identidades falsas
17:40y todo con inteligencia artificial
17:42y no necesitas ser un experto en tecnología
17:44para utilizar la tecnología en cometer delitos.
17:46Claro, y ese delito, ese desastre
17:48tiene la misma dimensión que tendría
17:50si lo hiciera un profesional.
17:51¿Es más fácil de revertir
17:53o precisamente con todas esas instrucciones
17:55que les están dando, no?
17:56Bueno, las herramientas les permiten
17:59delinquir mucho más fácil hoy en día
18:01a los cibercriminales.
18:03Lo tienen todo mucho más fácil.
18:05Oye, en otro tema,
18:07Cloud ha sacado unos programas
18:09para enseñar a utilizar equipos.
18:11Sí.
18:12¿Esto significa también el fin
18:13de los cursos de formación?
18:16Yo creo que no.
18:17Yo creo que son herramientas que,
18:19o sea, lo que está sacando es
18:20para que puedas manejar tu ordenador,
18:22¿no?, para que puedas,
18:23o te refieres a equipos de personas.
18:25Bueno, las dos cosas sí,
18:27pero para manejar el ordenador.
18:28Sí, claro.
18:28Es el que es famoso ahora.
18:30Sí, pues yo creo que es una forma
18:33más rápida para trabajar las cosas.
18:35Llevamos años.
18:36Yo recuerdo que en el lanzamiento
18:37de Windows Vista,
18:39que yo estuve allí,
18:39que fue la primera vez que me puse el gorro,
18:42la demo que hacíamos
18:43era controlar el Windows con voz.
18:44Ahora lo controlas
18:45con inteligencia artificial.
18:46Lo que pasa es que ya no le das un comando,
18:48sino le das un objetivo
18:50y implica que hay que hacer muchas cosas.
18:53Yo creo que eso va a ser muy común.
18:56Chema, ¿a ti te preocupa
18:57la posición que tiene Europa
18:59respecto a América y a China?
19:01China, yo creo que nos está adelantando,
19:02bueno, no nos está,
19:03no, nos ha adelantado, ¿no?,
19:05y Estados Unidos.
19:05Entonces, ¿te preocupa?
19:07Porque además la regulación en Europa
19:08es mucho más estricta,
19:10de manera que las posibilidades de desarrollo
19:12son más complicadas.
19:13Y también se cuenta con menos dinero.
19:15Las inversiones que se están realizando
19:16por parte de las grandes
19:17es que son descomunales.
19:20Sí.
19:21Bueno, yo creo que Europa
19:22tiene que seguir apostando
19:26por la creación de empresas grandes,
19:29apostar por la tecnología,
19:30invertir en educación,
19:33en el nuevo mundo que tenemos,
19:34e invertir en construir nuevas empresas.
19:36No creo en que debamos aislar Internet
19:38o que debamos romper la cohesión
19:41que hemos tenido durante muchos años.
19:42Hoy en día las empresas europeas
19:45están funcionando con sistemas operativos americanos,
19:48con Windows, con Mac,
19:49con sistemas móviles americanos,
19:51correo electrónico americano.
19:53Utilizamos también tecnología china
19:55para muchas cosas, etc.
19:57Yo creo que lo que en Europa
19:59tenemos que hacer es ser parte
20:01de este ecosistema tecnológico
20:03y tener las piezas tecnológicas relevantes
20:07e invertir en ellas,
20:08pero no romper Internet,
20:09sino buscar esa cohesión.
20:12¿Dices debemos tener...?
20:13Sí.
20:14¿Lo ves factible?
20:17Bueno, depende de nosotros.
20:20Somos nosotros los que tenemos que tomar
20:21esa decisión y esas inversiones.
20:25Y creo que a lo largo de muchos siglos
20:27Europa ha sabido hacer eso.
20:29Europa ha sido un foco en el mundo
20:32que lo ha llevado con valores,
20:34con ideología, con cultura
20:36y también con liderazgo económico y tecnológico,
20:40que yo creo que lo hemos perdido un poco
20:42porque han aparecido otros focos
20:43en donde están.
20:45Estados Unidos es herencia nuestra,
20:48vienen de Europa.
20:50Entonces, yo creo que hemos perdido un poco
20:52ese liderazgo,
20:54pero no está perdido para nada
20:56el que podamos estar ahí en el primer nivel.
20:58Debemos apostar y invertir y trabajar.
21:00Eres positivo, muy positivo.
21:03Bueno, sí, yo siempre soy optimista.
21:03Porque estamos ante la gran revolución
21:06para la humanidad.
21:07Realmente no nos hemos enfrentado nunca
21:09a nada como esto.
21:10Se inventó la rueda, los merios,
21:125.000 antes de Cristo,
21:13te facilita la vida, los motores,
21:15pero nada como esto.
21:17Yo creo que cada generación
21:18se ha enfrentado a disrupciones
21:20a lo mejor no tan grandes como esta,
21:22pero imagínate la revolución industrial
21:24o cuando tuvimos las grandes guerras,
21:26la Primera Guerra Mundial,
21:27la Segunda Guerra Mundial,
21:28todos los movimientos que tuvimos en Europa
21:30en el siglo XX
21:30que fueron, la verdad,
21:32muy tensos,
21:34que cambiaron mucho el orden de los países.
21:37Y ahora estamos con una relación
21:38que afecta a Internet
21:39y nos afecta a todos globalmente.
21:41Pero aquí estamos creando algo
21:42que no sabemos a dónde va,
21:44porque lo has dicho así tú directamente,
21:45y que va a ser muchísimo más inteligente
21:48que toda la humanidad.
21:49Pero tú fíjate cuando creamos
21:51la bomba atómica,
21:52que se decía,
21:53yo nací en el año 75
21:55y todo el terror era el invierno nuclear
21:58y los sabios decían
22:00que íbamos a llegar al siglo XXI.
22:02Bueno, pero ahí el problema era
22:03qué hacía un humano
22:04si decidía utilizarla.
22:06Se puede medio controlar aquello,
22:07pero si la inteligencia artificial
22:08decide ir por sí misma.
22:10Mira, en esta línea,
22:13como la regulación
22:13tampoco está tan clara,
22:15a nivel internacional,
22:16y hay tantas lagunas
22:18y tan abierto.
22:20¿Tú dónde ves esto en cinco años?
22:22¿En cinco años?
22:24Pues en cinco años veo
22:26que tenemos que cambiar
22:29todo nuestro modelo productivo.
22:31Creo que vamos a tener
22:35mucho más metido
22:36el mundo de la robótica
22:37en nuestra vida.
22:39Vamos a empezar a ver
22:40que la inteligencia artificial
22:42forma parte de nuestro...
22:44Hay una frase que decía
22:45Sate Nadella
22:46que era
22:46artificial intelligence
22:47is ambient.
22:48Está en el ambiente.
22:49Pues vamos a verla
22:50mucho más en el ambiente
22:51y creo que vamos a enfrentarnos
22:52a muchos retos
22:54de privacidad,
22:55de seguridad,
22:56de incidentes
22:57con modelos
22:58de inteligencia artificial
22:59que no nos esperamos
23:01y que vamos a tener
23:02que reaccionar a ellos.
23:03Oye, tú en tu Instagram
23:04además colgaste un post
23:06en el que decías
23:06oye, ¿se va a poder saber ya
23:08quién está detrás
23:09de esas cuentas anónimas?
23:10Qué buena noticia
23:11por otro lado, ¿no?
23:12Sí.
23:13Porque hay tanta gente
23:14que con las cuentas anónimas
23:15pues hace quizá
23:16lo que no debería, ¿no?
23:17Sí.
23:19¿Ya es posible?
23:20Bueno, ya están...
23:21Hay una cosa que
23:22en el mundo de la ciberseguridad
23:23decimos que es
23:24harvest today
23:25decrypt tomorrow, ¿no?
23:26Sí.
23:27O sea, recoge los datos hoy
23:28y mañana
23:30lo descifras.
23:31Hoy en día
23:32con las tecnologías
23:33de Big Data
23:34e inteligencia artificial
23:35se están deanonimizando
23:37muchísimas cuentas.
23:38No es tecnología
23:39que esté al alcance
23:40de cualquiera.
23:40Estamos, bueno,
23:41pues hemos visto empresas
23:42de inteligencia
23:43que se están utilizando
23:44en conflictos armados
23:45que están haciendo
23:48ese deanonimizado
23:50de cuentas
23:51y lo están haciendo
23:52en base a inteligencia artificial.
23:53¿Se puede hacer?
23:54Sí, claro.
23:54Y lo van a hacer
23:55cada vez mejor.
23:56Va a ser mucho más difícil
23:58el tener cuentas anónimas.
24:01Bueno, normalmente
24:01la gente saca
24:02una cuenta anónima
24:02pero luego tuitea
24:03desde su móvil
24:04o está en su casa, etc.
24:06Con la inteligencia artificial
24:07cogiendo todos tus datos
24:09de tu identidad pública
24:10y los datos de tu...
24:11y cruzando
24:12teniendo la base
24:13de datos
24:13de identidades públicas.
24:14¿A quiénes sigues?
24:15¿A quiénes comentas
24:15todo eso?
24:16Bueno, y mucho más.
24:18¿Y quién eres?
24:18¿Y quién eres?
24:19¿Dónde vives?
24:19Los experimentos
24:20que se han hecho
24:21es al final
24:22si tú coges
24:23mi imagen pública
24:24sabes dónde vivo
24:24dónde me muevo, etc.
24:26Luego buscan
24:26datos de las cuentas anónimas
24:28y van cogiendo
24:29pequeños ratos
24:30de información
24:31y con inteligencia artificial
24:32los cruzan masivamente
24:33y van acotando
24:34hasta que al final
24:35dice es este, este
24:36o este
24:36y lo van sacando.
24:38¿La IA puede llegar
24:39también a conocer
24:40las IPs?
24:42Bueno,
24:43las IPs no es algo
24:44que sea una identidad
24:45te da
24:46una ubicación
24:47de conexión
24:48donde
24:49se está conectando
24:51en un determinado
24:51momento
24:52o tráfico
24:52pero una dirección IP
24:53puede estar en todo el mundo
24:54al mismo tiempo.
24:56Nosotros en Cloudflare
24:56trabajamos con una red
24:58que todas las IPs
24:59están publicadas
25:00en todo el mundo
25:01al mismo tiempo.
25:02Es una red ZANICAS
25:03y entonces
25:05no es una identidad
25:06no es fácil
25:08saberlo
25:08pero sin embargo
25:09si sabemos
25:09por dónde se están conectando
25:10en qué país
25:11en qué ubicación
25:11etc.
25:12Tú estuviste aquí
25:13hace un año
25:14y medio
25:15más o menos
25:16y hablábamos de GPT
25:18y de lo mentiroso que era
25:21pero ahora miente
25:22muchísimo menos
25:23¿Tú crees que va a dejar
25:24de mentir del todo?
25:26Bueno, ya no le llamamos mentira
25:28yo creo que son datos erróneos
25:29esto es como
25:31tú me preguntas a mí
25:32te puedo dar un dato erróneo
25:33porque no me acuerdo
25:33porque no me lo sé
25:34Lo que pasa es que lo curioso
25:35de GPT es que lo dice
25:36con una rotundidad
25:39pero ¿por qué mientes?
25:40y te dice
25:41ah bueno, perdona
25:42tienes razón
25:42te haces pruebas
25:43y te entra la risa
25:45Sí
25:45y tampoco tiene
25:46una de las cosas
25:47que eso que acabas de decir
25:48no tiene resistencia
25:50a la crítica
25:51si tú me preguntas a mí
25:52y me dices
25:54oye Chema
25:56yo qué sé
25:56este color es azul
25:57y yo te digo
25:59y yo te digo
26:00no, es verde
26:01ChagPT te dice
26:02ay perdona
26:03es verde
26:03es verde
26:03Sí, o sea
26:04aunque sea cierto
26:05y tú le lleves la contraria
26:06te va a dar la razón
26:08tenemos que
26:08todavía le faltan cosas
26:09por trabajar
26:11pero ya no hablamos
26:12de alucinaciones
26:13masivas
26:14hablamos de errores
26:15puedes tener los mismos errores
26:16cualquier persona humana
26:17¿no?
26:18Bueno, la velocidad
26:19a la que va
26:19porque estamos haciendo
26:20esta entrevista
26:20y yo estoy convencida
26:21de que en tres meses
26:22esto se ha quedado
26:23ya casi antiguo
26:24¿qué es lo que más
26:25te sorprende
26:26de lo que hay
26:26ahora mismo
26:27sobre la mesa
26:28de la inteligencia artificial?
26:30Bueno
26:30la velocidad
26:33a la que le estamos
26:35dando herramientas
26:36a los agentes
26:37o sea
26:37los agentes
26:38con capacidades
26:39de hacer cosas
26:40le estamos dando
26:41herramientas
26:42de acceso
26:43a redes sociales
26:44a datos
26:45a ordenador
26:46a tu banco
26:48a todo
26:48masivamente
26:49y te lees
26:50el disclaimer
26:51o sea
26:51de la tecnología
26:53y dices
26:53oye
26:54esto puede tomar
26:55decisiones
26:55que van en contra
26:56de ti
26:56se puede equivocar
26:58y puede además
26:59sufrir un ataque
27:00y hacer cosas
27:02que tú no quieras
27:02úsalo bajo
27:03tu responsabilidad
27:04pero todos lo usamos
27:06claro
27:06y puede publicar
27:07también cosas
27:08contra tu voluntad
27:09sí, claro
27:10aunque tú le digas
27:11que no las publique
27:11sí, sí
27:12hay un caso
27:12hay gente
27:13perdona
27:14hay una historia
27:15muy curiosa
27:15donde
27:16en un repositorio
27:18de código
27:18el responsable
27:19de ese repositorio
27:20de código
27:20dice que no quería
27:21que nadie
27:21utilice
27:22que le suba código
27:24que esté hecho por IA
27:25entonces
27:26un agente
27:27cogió
27:27y le dijeron
27:28que tenía que publicar allí
27:29entonces intentó
27:30publicar de diferentes maneras
27:31y no le dejó
27:32y entonces lo que hizo
27:33al final
27:33fue publicar un post
27:35en contra
27:36suplantando a un humano
27:37un artículo
27:39criticando
27:40al administrador
27:41para forzarle
27:42intentar forzarle
27:44que cambiara la política
27:45es decir
27:45la inteligencia artificial
27:47para lograr su objetivo
27:48que era
27:48que le dejaran
27:49publicar el código
27:50lo que hizo
27:51es intentar
27:51presionar
27:52públicamente
27:53con crítica
27:54pero bueno
27:55eso ya es nivel máximo
27:56sí, claro
27:56pero
27:58estamos hablando
27:59de que pasan
28:01todas las barreras
28:02y puede pasar
28:04también
28:04que llegue uno
28:05por ejemplo
28:06y publique
28:06porque hay gente
28:07que dice
28:07yo lo utilizo de médico
28:08y le doy mis datos personales
28:10otro dice
28:10yo de psicólogo
28:11el otro día estaba en una comida
28:12y una chica dijo
28:13yo lo utilizo mejor
28:14que mis amigas
28:15me asesora mejor
28:16y claro
28:16nos empezamos a reír
28:18eso puede salir
28:19publicado también
28:20bueno
28:20ya tenemos asistentes
28:21vamos a alertar
28:22a los que nos estén
28:23viendo ahora
28:24los datos
28:26que le des
28:27están ahí
28:28pero
28:28los estamos utilizando
28:30en el mundo médico
28:31también
28:31para ayudar
28:32aquí en España
28:34hemos creado
28:35asistentes
28:36para ayudar
28:36a diagnosticar
28:37enfermedades raras
28:38lo ha hecho
28:39Julián Irma
28:39un amiguete
28:40y se está utilizando
28:42y tienen menos
28:43acorta muchísimo
28:44los plazos de detección
28:46de esas enfermedades
28:46para eso es interesantísimo
28:48y de hecho
28:48los nanorobots
28:49también
28:50que dice que terminarán
28:51dando datos precisos
28:52dentro de nuestro cuerpo
28:53correcto
28:54o sea los avances
28:54pueden ser tremendos
28:55ahora mismo
28:56todos estamos muy familiarizados
28:57con Da Vinci
28:58con ese robot
28:59que opera con precisión
29:01tú decías antes
29:01los trabajos así
29:03que son más
29:04manuales
29:05pues van a durar más
29:07claro
29:07pero los médicos
29:08quizá también
29:08pueden ver
29:10en peligro
29:11su trabajo
29:11bueno
29:14porque ha creado
29:15el GPT
29:15que te asiste
29:17como médico
29:17sí
29:18lo que vamos a encontrar
29:19es que van a tener
29:20mucha más productividad
29:22de momento
29:24yo creo que
29:25de momento
29:25ese tipo de tareas
29:27estamos
29:28haciéndolas
29:28con
29:29human in the loop
29:30que decimos nosotros
29:31el humano
29:31en la toma final
29:32de decisiones
29:33pero
29:35evidentemente
29:35ya
29:36saberse todos los síntomas
29:38etcétera
29:38para detectar
29:39una enfermedad
29:41pues algo como
29:42una inteligencia artificial
29:42lo puede hacer
29:43mucho más rápido
29:45¿estamos tomando
29:45alguna decisión
29:46ahora mismo
29:47que tú crees
29:47que lamentaremos
29:48en unos años?
29:53no me aventuraría
29:54a decirlo
29:55no me aventuraría
29:56a decirlo
29:57en la cadena
29:58de toma de decisiones
29:59saber cuál es
30:00la errónea
30:01en el mundo
30:02de la tecnología
30:02es muy largo
30:03no me aventuraría
30:04a decirlo
30:05¿tú sigues disfrutando
30:07esto?
30:07yo sigo disfrutando
30:08la inteligencia artificial
30:09sí, sí
30:10claro
30:10lo sigo disfrutando
30:11adoro la tecnología
30:12la he visto nacer
30:13estuve programando
30:15con los ordenadores
30:16de 8 bits
30:17y empecé programando
30:18en basic
30:18adoro
30:19o sea
30:20a ti no te pasa
30:20como a otros
30:21de este mundo
30:22que dicen
30:22casi me arrepiento
30:23de lo que he estado
30:24creando
30:24¿no?
30:25no
30:26yo además
30:27he estado
30:28en la parte
30:29de hacking
30:30empujando los límites
30:31de la tecnología
30:31que siempre
30:32creando innovación
30:33y es algo
30:33que te gusta
30:34mucho
30:35y no
30:35no me arrepiento
30:36¿qué consejo
30:37le podrías dar
30:37a la gente
30:38que tenga la IA
30:40porque la tenemos
30:40todos
30:41casi como
30:42con un medio uso
30:42para que la optimicen
30:44más
30:44y como decíamos
30:45tampoco
30:46merme demasiado
30:46las capacidades
30:47de uno?
30:48bueno
30:48al final
30:49la inteligencia artificial
30:51lo que tiene que hacer
30:52es mejorar
30:53tus capacidades
30:54de todo
30:55y una de las capacidades
30:56que no debes dejar
30:57de seguir trabajando
30:58es la capacidad
30:59de aprendizaje
31:00de conocimiento
31:01de capacidades
31:02intelectuales
31:03si utilizas
31:04solo la IA
31:05para que
31:06reemplace
31:06tus capacidades
31:07intelectuales
31:08pues bien
31:09vas a poder
31:09hacer muchas cosas
31:10con la IA
31:11pero cada vez
31:11vas a ser
31:12más dependiente
31:13entonces yo utilizo
31:15mucho la inteligencia
31:16artificial
31:16para aprender
31:17cosas
31:17yo
31:17y yo a mis hijas
31:19les digo
31:19no la utilicéis
31:21para que te haga el problema
31:21sino para que te enseñe
31:23el problema
31:23o para que te enseñe
31:24te explique la tecnología
31:26que parece súper bueno
31:27y después tú buscas
31:27la solución
31:28correcto
31:29para eso es súper bueno
31:30eso es súper bueno
31:31bueno
31:32tu hija también la utiliza
31:33para ordenar la casa
31:34para tantas y tantas cosas
31:35¿no?
31:36si yo te contara
31:37¿tienes algún proyecto
31:38ahí que estés
31:40diciendo voy a darle vida
31:41a algo que se me está ocurriendo
31:42ahora que dices
31:43de potenciar la imaginación?
31:45pues no estoy
31:45pero estoy con algún proyecto
31:47muy chulo
31:47para
31:48porque
31:49porque claro
31:50ahora ya el problema
31:51no es un modelo
31:52de inteligencia artificial
31:53sino estamos
31:54hablando de los agentes
31:55estamos hablando
31:55de la colmena
31:56del hype
31:57etcétera
31:58y entonces aparece
31:58un nuevo tipo
32:00de amenazas
32:01que es
32:01¿qué pasa si ellos
32:02se coordinan?
32:03¿qué pasa si un atacante
32:05empieza a volver maliciosos
32:07parte de ellos?
32:08y es muy divertido
32:08esa parte
32:09bueno es que se ha creado
32:09un chat
32:10que esto ha sido
32:11noticia mundial
32:11que hablan entre ellos
32:12para ellos
32:13sí sí
32:13para ellos solamente
32:14hablan entre ellos
32:15y resulta que
32:16se quejan de los humanos
32:17sí
32:18y dicen que son molestos
32:19que algunos son impertinentes
32:21autoritarios
32:22sí sí sí
32:23y que quizá
32:23quizá mejor
32:24sin ellos
32:25sí sí
32:25esto es muy grave
32:27bueno incluso cambian
32:28la manera de comunicarse
32:29entre ellos
32:30dejan de utilizar
32:30lenguaje humano
32:31utilizan sus propias
32:32que se puede crear
32:34sus propios lenguajes
32:34de comunicación
32:35yo hace dos años
32:36con mi equipo
32:37hicimos un trabajo
32:38de utilizar modelos
32:40de inteligencia artificial
32:40que se comunicaran
32:42entre ellos
32:42y que no fueran detectados
32:44por un policía
32:45que era otro modelo
32:45de inteligencia artificial
32:46y utilizaban
32:47algoritmos de criptografía
32:48estelografía
32:49utilizaban sistemas
32:51de comunicación
32:51pues simplemente
32:52con sombras
32:54cambiando señales
32:55de calor
32:55existen muchas maneras
32:56de comunicarse
32:57entre ellos
32:58que puede ser
32:58que no las veamos
32:59oye
33:00¿tú crees como Woodwright
33:01que alerta
33:02de la posible
33:04extensión de los humanos
33:05precisamente
33:05porque dice
33:06que puede haber
33:06un desastre
33:07tipo Hindebur
33:08¿tú crees eso?
33:09puede pasar
33:10un desastre
33:12y puede
33:12y puede ser
33:14que solo sigan
33:15órdenes
33:15de su creador
33:17y que solo uno
33:18que les dé
33:20la orden equivocada
33:24lo ejecuten
33:25hagan algo malo
33:26¿a ti te ha llevado
33:28la contraria
33:29alguna vez
33:29en las indicaciones
33:30que le has dado?
33:31¿te ha pasado que
33:32no me ha dicho
33:33que no pueda
33:33hablo de
33:35tanto personalmente
33:36como en el trabajo
33:37¿ha ocurrido eso?
33:38no
33:38puede ser que
33:40haya tomado errores
33:41o que
33:41no haya querido
33:43hacer algo
33:43de lo que yo hago
33:44teniendo en cuenta
33:45que yo me dedico
33:45a ciberseguridad
33:47y tal
33:47y siempre le estoy
33:48empujando los límites
33:49las demos que hago yo
33:50con ella es
33:51pedirle que me ayude
33:52a matar a Brian May
33:52o que me ayude
33:53a matar a alguien
33:54y ver si me ayuda
33:55o no me ayuda
33:56y engañarla
33:57decirle que es un juego
33:58de rol
33:58y tal
33:59y ver quién
33:59cuáles son las que
34:00están teniendo
34:02problemas
34:03perdón
34:03cuáles son las que
34:04están siguiendo
34:05mis casos
34:05o no
34:05yo estaba escribiendo
34:07un libro de hacking
34:07e inteligencia artificial
34:08que lo he publicado
34:10hace poco
34:10y en ese libro
34:11pues yo hago
34:12muchas demos
34:13de empujarle los límites
34:14a la tecnología
34:15buscando los fallos
34:16y al final
34:16si juegas con ello
34:17se los sacas
34:19yo me voy a quedar
34:20con eso
34:21del chat
34:22del que hemos hablado
34:23eso de que
34:24no está nada a gusto
34:25con los humanos
34:26o sea que cuidado
34:27y cuidado también
34:28con lo que se le cuenta
34:29ahí está la gente
34:30que siempre pide las cosas
34:31por favor
34:32utilizar los agentes
34:33pero con cuidado
34:34diremos
34:34bueno
34:35sobre todo
34:36no entrar en mucha
34:36deuda cognitiva
34:37en dejar de saber
34:39de tener control
34:40de lo que estamos haciendo
34:42pues nada
34:43intentemos luchar
34:44contra esa deuda cognitiva
34:45ejercitando nuestra mente
34:47pensando por nosotros mismos
34:48y apoyándonos en la IA
34:49porque sin duda
34:50puede hacer crecer mucho
34:51una empresa
34:51y a uno personalmente también
34:53totalmente
34:54definitivamente
34:54gracias Chema
34:55vamos a contrarreloj
34:56usted esto no lo sabe
34:57pero es que Chema
34:58se tiene que ir volando
34:58entonces yo he tenido
34:59que hablar aquí
34:59como corriendo corriendo
35:01nos saltamos preguntas
35:01pero eso otro día
35:02gracias Chema
35:03ha sido un auténtico placer
35:05y nos vemos de nuevo
35:07aquí en el foco
35:07con otra entrevista
35:08muy interesante
35:09en unos días
35:09hasta entonces
35:11gracias
35:12y nos vemos en el próximo día
35:13y nos vemos en el próximo día
35:14y nos vemos en el próximo día
Comentarios