Saltar al reproductorSaltar al contenido principal
  • hace 4 días
La ley europea de inteligencia artificial pone el foco en la protección de datos. ya que podrías estar compartiendo información sensible.

Categoría

🗞
Noticias
Transcripción
00:00La mayor parte de la gente entiende que como no es famosa o poderosa,
00:03sus datos personales no tienen importancia.
00:05Es decir, mi foto ahora de pronto está alimentando una base de datos de una IA
00:08y yo no había decidido hacerlo.
00:10Cogen información de las redes sociales para decidir si te dan un préstamo o no.
00:14Que porque tú hayas publicado fotos de un viaje a India,
00:17te digan que no te dan el préstamo porque gastas mucho en viajes.
00:20No introducir datos personales y siempre, siempre, siempre corroborar las fuentes.
00:24Actualmente en Europa estamos básicamente como pioneros en el proyecto de regular la inteligencia artificial
00:34y como en otros sentidos, por ejemplo con el RGPD y con otras normativas de cumplimiento,
00:40se espera que en ese sentido seamos un poco como potencia legislativa
00:43y que podamos exportar, por así decirlo, todos estos principios que hemos regulado
00:48y todo este debate legal que se ha abierto en cuanto a la IA a otros países.
00:52Entonces queda por ver un poco hasta dónde podemos llegar en ese sentido.
00:57Y por otro lado, sí que es verdad que a raíz de la regulación de la IA
01:01ha salido como el debate de, oye, ¿hay que regular? ¿no hay que regular?
01:06¿Cómo podemos regular pero sin desincentivar la innovación?
01:09Y todas esas cosas que están en la palestra, al ser nosotros los pioneros,
01:14efectivamente puede que tengamos que hacer reajustes y cambiar ciertas cosas en la normativa,
01:18pero ya con haber abierto ese debate y haber intentado regular todas estas cuestiones,
01:23al final vamos a estar pasos por delante en comparación con otros países
01:29y sobre todo de cara a ver qué retos van a poder surgir y cómo los vamos a enfrentar.
01:37Entonces bueno, estamos en un momento muy bonito y a la vez frente a un reto muy grande
01:42y bueno, pues un poco ese es el panorama.
01:46Y luego en España, por otro lado, ya tenemos montada, bueno, ya está montada
01:51la Agencia Española de Inteligencia Artificial, la ESIA.
01:55Por otro lado, la AEPD ya puede empezar a multar en base al tratamiento de datos
02:00y conforme al reglamento de IA y sí que sé también que se están empezando a montar
02:06los espacios de datos, los sandboxes que llaman para las pymes, para la innovación,
02:12se están creando grupos de trabajo para aterrizar la normativa a los distintos sectores regulados
02:17y se han nombrado 22 agencias de supervisión, o sea, autoridades de supervisión del mercado
02:24que van a estar centradas también en resolver problemas de IA.
02:27Ahí, por ejemplo, queda el ver cómo garantizamos la seguridad jurídica
02:31y la coherencia entre los distintos pronunciamientos de todas esas autoridades.
02:35Esos son un poco los retos.
02:36Y bueno, por otro lado, también tenemos el anteproyecto de ley
02:39que todavía no ha salido, pero estamos en ello y se espera que dentro de poco se apruebe.
02:46Hay dos partes, ¿no?
02:48Por un lado, podemos hablar a nivel legislativo, a nivel legal,
02:51de cómo coordinamos normas como la protección de datos, el RGPD
02:56o cómo hacemos para trasladar todos los principios de propiedad intelectual e industrial
03:02a una era en la que no son los seres humanos muchas veces los que crean esas obras.
03:06Ahora mismo creo que era Open Eye, había lanzado una película hecha íntegramente
03:11con inteligencia artificial, pero en la mayoría de los sistemas
03:14no se protegen las obras creadas por sistemas de inteligencia artificial,
03:20solo las que están creadas por humanos.
03:21Por otro lado, en protección de datos, pues vemos que, oye, habíamos legislado
03:26para obtener principios como el de minimización de datos, que se utilicen solo los datos necesarios
03:32y claro, eso choca mucho con el hecho de que para entrenar una IA y para que efectivamente
03:37no haya sesgos, no haya, sea una IA eficaz, que los parámetros sean ajustables y demás,
03:43tiene que haber un uso de cantidades masivas de datos.
03:47Entonces, ¿cómo compaginamos el principio de limitación con esa necesidad de obtener datos de todas partes?
03:53Y a la vez, ¿cómo conseguimos recoger todos esos datos de forma que sea legítimo?
03:59Es decir, pues ¿cómo informamos de que eso luego va a ser para entrenar IA,
04:03hasta qué punto podemos determinar a priori todas las finalidades con las que vamos a utilizar esos datos
04:10o hasta qué punto vamos a entrenarlos? Entonces, bueno, pues ahí hay muchísimos debates que abrir
04:16y muchísimas cuestiones que empezar a aterrizar, pero sobre todo yo diría que al final es el tema
04:22de la protección de datos y de ver cómo podemos garantizar la protección de datos
04:26y a la vez garantizar una IA que no esté sesgada, que no le falte efectividad, que sea efectiva, que sea útil.
04:38Y un poco eso es lo que tenemos, protección de datos, propiedad intelectual y a nivel de derechos fundamentales,
04:46pues efectivamente que la IA, al automatizar ciertos procesos que siempre habían hecho humanos,
04:51garantizándose en principio que se cumpliera la normativa, que se cumplieran los derechos fundamentales,
04:56cómo hacemos para trasladar al modelo esa capacidad ética del ser humano
05:01y esos principios que habíamos introducido en nuestra sociedad.
05:08¿Y qué responsabilidades tienen las grandes empresas que desarrollan inteligencia artificial?
05:12Has hablado de OpenIA, Meta sabemos que también desarrolla inteligencia artificial, Google...
05:19Para empezar, tienen que ser muy transparentes en cuanto a los modelos que utilizan,
05:25en cuanto al entrenamiento, qué datos se han utilizado, para qué, cómo...
05:32Y aquí, por ejemplo, queda por ver cómo conjuga eso con el secreto empresarial de las empresas,
05:37hasta qué punto Google debe dar código fuente o no debe dar el código fuente si es un secreto empresarial.
05:42Hace unos días salió una sentencia en la que se obligaba a la administración pública a ser transparente y facilitar los modelos y el funcionamiento de los modelos
05:54que habían utilizado de inteligencia artificial para determinar quiénes tenían derecho al bono eléctrico social,
06:02energético, entonces, bueno, pues ahí, por ejemplo, el tribunal dijo, no, como sois administración,
06:09vuestros modelos tienen que ser muy transparentes y tenéis que facilitar toda la información necesaria
06:13para que la persona entienda cómo se ha tomado la decisión respecto de si es merecedora, por así decirlo,
06:19de ese bono social o no.
06:21Entonces, bueno, pues, ahí, ya te digo, queda luego en Google, en Meta,
06:26hasta qué punto van a querer ellos dar todas esas explicaciones y si van a ser suficientes
06:30y también la complejidad de esas mismas explicaciones, hasta qué punto, por mucho que expliques lo que es un modelo,
06:36un código fuente o cómo funciona la IA, la gente va a ser capaz de comprenderlo sin tener un conocimiento reglado,
06:44por así decirlo, una carrera o esté especializado en ese sector.
06:49Entonces, bueno, pues, ahí hay muchos retos también en cuanto a la transparencia, sobre todo.
06:53Se ven dos factores y es el uso descontrolado de la IA en las empresas y luego el uso personal de la IA.
07:00En cuanto al uso personal de la IA, por ejemplo, no hay más que ver todas las noticias que han salido sobre deepfakes,
07:05sobre utilizar fotos de menores para cosas horribles.
07:11Lo que puedes ver es que, por un lado, las personas cuando utilizan ChatGPT, pues,
07:17introducen imágenes con amigos, datos personales de gente, oye, un papel en el que he escrito nombres de un montón de personas
07:25o un contrato en el que aparecen nombres, todo eso es vulneración de la protección de datos de esas personas.
07:32En el ámbito, podemos decir, doméstico, no tiene incidencia el RGPD, pero sí que tiene incidencia
07:37en la medida en que puedes estar vulnerando derechos de otros sin darte cuenta.
07:41Un ejemplo, pues, hace poco un amigo subió a ChatGPT una foto nuestra para hacer que la cambiara a...
07:49¿Cómo se dice? A este modelo de...
07:50Sea un dibujo.
07:51Sea un dibujo.
07:52El caso es que, en ese caso, yo no había dado el consentimiento para que eso se hiciera.
07:56Es decir, mi foto ahora de pronto está alimentando una base de datos de una IA
08:00y yo no había decidido hacerlo.
08:03Ahí queda por ver mucho, o sea, queda por hacer mucho de concienciación.
08:07De decir, oye, en el momento en el que estás introduciendo estos datos,
08:11si son tuyos, te pones a ti en peligro.
08:13Si son de otros, además, pones a otros en peligro muchas veces.
08:17Entonces, bueno, pues, ese es por el lado doméstico, ¿no?
08:20Por el lado personal.
08:21Y luego en las empresas vemos que cada vez hay más usos completamente descontrolados de la IA.
08:26Desde un administrativo que a lo mejor introduce un Excel con datos para que la IA haga conclusiones,
08:34a un profesor que a lo mejor corrige con ChatGPT el examen de un alumno,
08:39o un departamento de recursos humanos que utiliza Gemini o Copilot
08:44para analizar el currículum de una persona desde su fotografía
08:49y cosas que puedan tener en cuenta de cómo mira o el rostro y demás,
08:54a temas que ya incluso, o sea, a más temas que incluso tengan muchísima menos incidencia
09:00en cómo va a trabajar esa persona, pero que sean determinantes a la hora de contratarle.
09:04Entonces, bueno, pues, en ese sentido, además, dentro de las empresas,
09:08ahí sí entra el RGPD y entra el RIA, el reglamento de IA,
09:12y pueden ser multadas.
09:14Si un abogado, por ejemplo, se está viendo, utiliza ChatGPT para buscar sentencias,
09:19no las corrobora, no corrobora las fuentes, y lo introduce en un escrito para un juzgado,
09:26ya se ha dado que ese juzgado, analizando las sentencias que aparecen,
09:31se da cuenta de que son inventadas porque ha sido una alucinación de la IA.
09:34Y ahí, ¿qué hacemos? Porque el que sale más perjudicado es el cliente, en ese sentido.
09:38Y en otros muchos sectores se puede ver, ya te digo, médicos que a lo mejor introducen
09:42información confidencial o que determinan un diagnóstico en base a la IA
09:47y a lo mejor ese diagnóstico estaba completamente, era completamente erróneo.
09:52Y el tema de la responsabilidad, ¿hasta qué punto es responsable la persona que utiliza,
09:57la empresa o el proveedor en la medida en que el modelo no fuera correcto?
10:01Bueno, pues hay muchísimo, hay por dónde pillar.
10:04Por la parte de las empresas, yo diría que, para empezar, rodearse de un equipo multidisciplinar
10:09que consiga crear sinergias, olvidarse de esa forma de compartimentar cada aspecto de la IA,
10:18es decir, IT, la parte de IT tiene que colaborar muchísimo con legal,
10:23pero legal también tiene que entender a negocio y negocio tiene que acudir a legal, a IT,
10:28a seguridad de la información, cada vez que tenga una nueva idea o un nuevo proyecto.
10:34Es decir, crear sinergias y entender que esos departamentos que están para apoyar
10:38pueden ser un cinturón de seguridad para cualquier proyecto,
10:41porque un proyecto fuera de la legalidad o fuera de los límites de la ley está condenado a fracasar.
10:47Entonces, ese es uno de los consejos que doy.
10:50Y luego, por otro lado, dar pasos firmes, pero entender que al final no se trata de activar Copilot y ya está.
10:57Para activar Copilot, primero tiene que haber una gobernanza de las bases de datos con las que se integra,
11:02una formación de los empleados, repensar toda la organización y el trabajo dentro de la empresa.
11:09Véase, pues cambian roles, cambian responsabilidades, cambian funciones.
11:13Entonces, en ese sentido, concienciar, formar y tener una cultura de cumplimiento clara de,
11:19oye, ¿para qué queremos la IA? ¿Cómo vamos a utilizarla?
11:23¿Y qué es lo que no estamos dispuestos a delegar?
11:26¿O qué riesgos no estamos dispuestos a asumir en el uso de la IA?
11:30Y, por otro lado, a nivel personal, no introducir datos personales.
11:36Y siempre, siempre, siempre corroborar las fuentes.
11:40Pues fíjate que aquí creo que ha habido, que se podría hacer más,
11:44hay área de mejora en cuanto a cómo transmitimos el peligro que puede conllevar el uso de los datos personales.
11:50La mayor parte de la gente entiende que como no es famosa o poderosa,
11:53sus datos personales no tienen importancia.
11:55Y, en realidad, son esos datos personales los que más importancia tienen, por lo que dices,
12:00porque al introducir fotos en Instagram o publicar posts en X o en cualquier otra red social en Facebook,
12:09lo que estamos haciendo es dar a los algoritmos datos con los que nutrirse
12:13y luego todos esos datos nos van a devolver en forma de decisiones,
12:16de cómo nos presentan la realidad, de hasta qué punto nos informan de una cosa
12:22o nos dan información sobre una cosa y no sobre otra.
12:24Es decir, al final no se trata de que, oye, se publiquen tus datos y de pronto te vuelvas famoso, poderoso o lo que sea,
12:34sino porque seas famoso o poderosa y alguien quiera publicar esos datos,
12:38sino que se trata de que esos datos se utilizan de forma muy oscura muchas veces
12:42o poco transparente para fines que no tenemos ni idea de cuáles son.
12:47Y muchas veces luego eso redunda en que se tomen decisiones injustas hacia nosotros.
12:53Por ejemplo, ya se han dado casos de, oye, empresas que cogen información de las redes sociales
12:59para decidir si te dan un préstamo o no.
13:01Pues hasta qué punto, oye, no es completamente desproporcionado
13:05que porque tú hayas publicado fotos de un viaje a India te digan que no te dan el préstamo
13:10porque gastas mucho en viajes.
13:11Es decir, todas esas cosas cobran cada vez más sentido.
13:15Y luego también el tema de los deepfakes.
13:16Al final los deepfakes funcionan porque se realizan en base a saber todos los intereses de la sociedad,
13:23los miedos de la sociedad y lo que a la sociedad le preocupa.
13:26En el momento en el que sabes que a millones de personas le preocupa Donald Trump
13:30y haces un deepfake de Donald Trump para conseguir que esas personas se levanten contra él
13:36porque tienen miedo, porque están asustadas, ya estás utilizando todos esos datos personales
13:41para realizar una manipulación que luego además puede tener muchísimas consecuencias
13:46ya no solo a nivel tecnológico, sino lo que se ve es que a nivel personal y a nivel social
13:51de, oye, manifestaciones, problemas de gobernanza.
13:54Es decir, cada vez hay más problemas y no se derivan de que tengamos los datos
13:58de gente determinada, concreta, que tiene determinado poder,
14:02sino de que tenemos muchísimos datos de millones de personas que en sí mismos
14:06un solo dato no va a servir de nada, pero que si los hacemos en conjunto
14:10y hacemos estadísticas y tomamos decisiones en base a ellos, ahí se pueden dar muchos problemas.
14:14O sea, que podemos entender que los datos actualmente tienen más valor incluso que el oro, ¿no?
14:19Sí, definitivamente, pero definitivamente.
14:22De hecho ahora se conoce la sociedad hoy en día como la sociedad de la información.
14:26O sea, se ha visto que la información es esencial desde para planes de negocio
14:32y para entender si es viable un proyecto hasta precisamente para temas de publicidad.
14:41Es decir, a Google la sancionaron porque sus algoritmos de SEO-SEM,
14:45de cómo mostraban la publicidad en Google, eran poco transparentes
14:49y en ese sentido, pues oye, hay que ir viendo, pero sí que es verdad que los datos personales
14:57de las personas cobran muchísima importancia y valen muchísimo más que el oro
15:01o que efectivamente muchísimos metales pesados.
15:04Pues es que el catálogo es amplísimo.
15:06Tú ten en cuenta que se cogen datos incluso de los píxeles que expulsas,
15:10de la publicidad en la que marcas.
15:12Es decir, ya no se trata solo de, oye, el color de pelo, el nombre, el apellido,
15:16con quién puedas estar relacionado en redes sociales y la información.
15:20Es decir, se trata de que si pulsas un anuncio y no otro,
15:24ya estás dando a la empresa un dato personal, o no personal,
15:29pero normalmente personal porque se puede asociar a ti,
15:32que ella va a utilizar.
15:34Es decir, pues oye, mira, es que la gente pulsa muchísimo este tipo de publicidad.
15:37Bueno, pues ahora de pronto se presenta ese tipo de publicidad a todo el mundo.
15:42Una cosa se hace famosa de la noche a la mañana porque millones de personas
15:48han pulsado un anuncio y entonces ese anuncio empieza a aparecer en más y más pantallas.
15:56Es decir, hay infinidad de datos y de todos los datos se pueden sacar más datos y metadatos.
16:03Es decir, ya no se trata de eso, lo que te digo, del nombre, apellido, dónde vives, domicilio,
16:08que efectivamente eso tenemos que tener mucho cuidado donde lo publicamos.
16:13Se trata también de cómo interactuamos con las redes sociales, de cómo interactuamos con internet.
16:17Esos datos hoy en día valen oro.
16:20Pues a nivel usuario hay una cosa que el reglamento obliga
16:23y es lo que se conoce como la alfabetización, que no deja de ser la formación y concienciación.
16:27Es esencial.
16:29Es decir, al final de lo que se trata, lo que yo creo que es esencial es que la gente entienda
16:33qué está utilizando, los riesgos que se derivan de la utilización
16:38y hasta qué punto pueden estar expuestos.
16:41Y cuando sepamos todo eso y cuando nos demos cuenta y seamos conscientes
16:46en base a formarnos, a informarnos,
16:50creo que muchos riesgos se van a mitigar
16:53por el propio hecho de que nosotros seamos conscientes de que existen.
16:56Y luego, por otra lado, en las empresas,
16:59volvemos un poco a lo mismo.
17:02Es decir, formación también,
17:03tener una cultura corporativa clara
17:06y saber lo que queremos
17:09y cómo lo queremos respecto de la IA
17:11y qué es lo que estamos dispuestos a dar
17:12y lo que no estamos dispuestos a ceder.
17:14Pues muchas gracias, Carla.
17:16¡Gracias!
17:18¡Gracias!
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada