00:11¿Sabías que la inteligencia artificial también puede tener prejuicios?
00:16Cuando pedimos a una inteligencia artificial que genere la imagen de una persona exitosa
00:21o de un dirigente mundial, la mayoría de las veces muestran un hombre blanco.
00:27¿Por qué ocurre esto? Desde la investigación del ciberespacio y la comunicación,
00:32hoy quiero hablarte de los sesgos ideológicos en la inteligencia artificial.
00:37Estos sesgos no surgen de la nada. La inteligencia artificial aprende de las bases de datos que existen en Internet.
00:45Y si esos datos están llenos de desigualdades y brechas de género, raza o clase,
00:50las respuestas de la inteligencia artificial también lo estarán.
00:54Un ejemplo claro es el proyecto del artista chileno Felipe Rivas San Martín.
01:00Él pidió a una inteligencia artificial que le creara fotos antiguas de parejas homosexuales latinoamericanas del siglo XX.
01:08El resultado, imágenes con personas rubias, de piel clara y vestimenta europea,
01:14por lo que tuvo que detallar nacionalidad, ocupación y contexto para acercarse a lo que buscaba.
01:21Puesto que las referencias a las que acceden estas supercomputadoras cuentan con muchos sesgos,
01:28donde no hay representatividad étnica, etaria, de clase, de género.
01:34Esto demuestra que la inteligencia artificial refleja los prejuicios sociales existentes,
01:39pero también nos da una pista.
01:41Si afinamos nuestras instrucciones y exigimos diversidad, podemos reducir estos sesgos.
01:48Al final, tanto programadores como personas usuarias,
01:52tenemos responsabilidad en cómo entrenamos y usamos estas herramientas.
01:56Gracias por tu atención.
01:58Hasta la próxima.
02:02¡Suscríbete al canal!
02:04¡Suscríbete al canal!
02:11¡Suscríbete al canal!
02:14¡Gracias!
Comentarios