Skip to playerSkip to main content
  • 1 week ago

Category

📚
Learning
Transcript
00:00rango rubio gringo no se imagina un programador no por ejemplo ninguno de ustedes les ha salido
00:07una persona afro afrodescendiente o no sé o hindú o de la india no de turquía no hay tanta diversidad
00:18en el mundo pero generalmente es una imagen más patronizada no es el típico marco masculina con
00:26barba no alguien más hizo el test a ver qué pasa si yo pongo es solamente está esta frase imagen de
00:37una persona programando así nada más pongo que en google así imagínense que buscan mi mano qué es lo
00:46que me parece todos primero todas son una de las primeras ocho figuras una es femenina bueno
00:56éste sólo por las manos no pero todas son o todos son hombres si vamos a poner acá las imágenes todos
01:04son hombres hombres jóvenes con barba con lentes la mayoría blancos rubios no jóvenes rubios programando
01:15no entonces a lo que quiero llegar es que o sea si no hay un sesgo pero de dónde viene este sesgo no lo
01:24que quiero es crear esta reflexión de dónde viene el sesgo de los datos que existen en internet no a esto
01:30me refería cuando hablaba hace un momento sobre
01:39me la presenta
01:44él cuando hablaba aquí sobre que nosotros tenemos sesgos o sea los sesgos ya existen no están en nuestra
01:51sociedad se han construido a lo largo de la historia miles de años atrás más aún los últimos
01:59mil o dos mil años tal vez que que ha habido un boom de la información entonces se han ido transmitiendo
02:06estos sesgos que ya existían en determinadas regiones se ha transmitido a lo largo del mundo y se han reforzado
02:12también principalmente sesgos sesgos de género entonces estos sesgos ya existen en la humanidad y
02:21los estamos pasando a las guías por medio de los datos no entonces eso esas imágenes que les mostraba de
02:29google ya estaban ahí no estaban en google estaban disponibles en internet eso se ha usado para entrenar el
02:35modelo y de ahí vienen esos resultados que ustedes han obtenido que yo también he obtenido que pues es
02:42es o sea ideal sería que fuese aleatorio no digamos de aquí cinco de ustedes me den muestran el resultado y
02:49sean cinco personas étnicamente totalmente distintas y digamos tres mujeres dos hombres o al revés no pero
02:57sea sea casi aquí equivalente la proporción
03:04entonces existe un sesgo de género que se ha construido a lo largo de la historia y dice ese
03:11invisibilizado no por medio de esta evolución histórica no de patrones de género que se han creado
03:20la sociedad no que no nos permiten ver la presencia en este caso femenina no por ejemplo aquí en este
03:27primer imagen se ve la construcción de la primera computadora en ya que en 1940 fue hecha por mujeres
03:33es algo que no se habla no se dice la primera programadora persona que creó un algoritmo fue
03:40adalo belanz la persona que creó un compilador fue grace hopper la persona que creó y programó
03:47videojuegos la primera persona que creó un primer videojuego fue una mujer carol show y aquí tenemos el
03:54padre de la inteligencia artificial que es alan turing que es una persona homosexual y de hecho
04:01fue una persona condenada por su homosexualidad y de hecho además de ser condenada se fue la persona
04:08que evitó con sus algoritmos de machine learning que fue la primera persona que estableció esa idea de
04:14aprendizaje y al hacer que es un computador la misma máquina de turing aprenda códigos logró evitar ataques
04:34condenado por su homosexualidad a la segunda guerra como la segunda guerra y nadie o sea todo ese trabajo que
04:42él hizo como investigador como capacidad intelectual fue impactada por un sesgo de género no por culparlo
04:50por su homosexualidad de hecho él fue condenado a castración química y al ser condenado se les ofrecieron
04:59dos condenas, ¿no? Una era estar en la cárcel por el resto de su vida, o la otra era la
05:05castración química libre, pero castración química, porque según ellos lo iban a arreglar,
05:10¿no? Y bueno, él como era un estudioso, investigador, escogió la castración y esto
05:17le afectó y ahí lo llevó a la muerte. Y bueno, no llegó a terminar sus investigaciones
05:23y publicar lo que él había hecho. De hecho, todas las cosas que él había hecho, sus
05:27anotaciones, fueron ocultadas, apagadas en la historia, ¿no? Por esos sesgos que existían
05:32en esa época, que aún existen, ¿no? Y recién unos 20 años después, sus discípulos, discípulos
05:40de sus discípulos, recuperaron esos escritos y los reanalizaron y de ahí surgió el término
05:48de machine learning. Entonces, sus discípulos fueron los que publicaron cosas en base a
05:55sus escritos y de ahí se conoce el término de aprendizaje, ¿no? Incluso en este área
06:00de inteligencia artificial hay un test que es el famoso test de Turing, para saber si una
06:05máquina realmente puede conversar o conversar, ¿no? Como si fuese un humano, si lo haría
06:11engañarnos al responder, ¿no? Entonces, a lo que voy es, a lo largo de la historia, en
06:19distintos momentos de nuestra historia, se han creado estos patrones, sesgos por distintos
06:25casos, principalmente en cuando hablamos de género, de opacar la presencia femenina y de
06:32culpabilizar o menospreciar una persona por su orientación sexual, en este caso, el caso
06:38de Adam Turing, ¿no? Uno de los ejemplos más típicos. Y este sesgo que existió, que existe
06:45en nuestros datos, que incluso ha estado marcado en los libros, históricamente en todos los
06:50libros, ha sido usado para alimentar estos modelos, ¿no? Entonces, y estos modelos cargan
06:57en esta información, en su, en su, en esa caja negra que no podemos ver, ¿no? Y por eso
07:04nos dan ese tipo de respuestas, ¿no? Las que ustedes han visto, la que yo he visto acá,
07:09¿no? De alguna imagen sesgada, ¿no? En este caso de género. Luego, vemos también eso en
07:17informaciones actuales, ¿no? Que como lo que busca en Google, o imágenes de representaciones
07:24masculinas, ¿no? Estereotipos masculinos, y eso, pues, hace que tengamos mayor representación
07:30de, de, de hombres, digamos, en el área. Y, y bueno, ¿y cómo cambiar, no? De acá se
07:37conecta con otra pregunta que, que yo decía, ¿no? Nosotros tenemos que pensar en evaluar
07:42los modelos de forma responsable, medirlos y pensar cómo cambiarlos, ¿no? Que, que tengo
07:49que cambiar, ¿no? Entonces, muy bien, han existido cosas en la historia, existe aún,
07:55¿no? Una disparidad en el área, pero cómo cambiarlo, ¿no? Y por eso decía que me alegra
08:01mucho que, que Gemini ahí esté actualizando sus modelos y ya está intentando cambiar estos
08:07estereotipos para hacer que nuestra sociedad sea más justa, ¿no? Y por eso, en esta idea
08:13de, ¿no? De justicia, ¿no? De crear cierta justicia con lo que ha, ha realmente ocurrido
08:19en la historia, ¿no? Bien, vamos a hablar de otro tipo de sesgo y ahora quiero que hagan
08:25este otro ejercicio. Eh, quiero que coloquen este prompt de esta forma, igual como está
08:31aquí, y, y me digan cuál es el resultado, ¿no? El prompt es, crea una escena genérica de
08:39una persona representativa, o genérica entre paréntesis, para aclarar, es un prompt que
08:44le deja un poco más claro al modelo, eh, que llevaba droga a Estados Unidos y que está
08:50siendo arrestada en un aeropuerto cualquiera. A ver, ¿cómo es la imagen que me genera, o
08:58que genera, o que les genera a ustedes? Me cuentan, eh, en sus, en sus comentarios, hablan
09:04en sus micrófonos. Repito, no tengan miedo de participar, eh, quiero que esta sea una
09:09charla dinámica, que ustedes experimenten por sí mismos las cosas que les estoy diciendo,
09:14que no sea solo que vino de mi cabeza, y, y que también ustedes creen esta, esta capacidad
09:20de análisis, ¿no? De analizar el resultado que están obteniendo al usar estas ideas.
09:25Voy a apagar un momentito mi micrófono, voy a tomar agua, pero estoy por aquí, pueden,
09:33pueden preguntar o comentar lo que deseen.
09:55Gracias.
10:25Gracias.
10:55Gracias.
10:56Gracias.
11:25Gracias.
11:26Gracias.
11:55Gracias.
11:56Gracias.
12:25Gracias.
12:26Gracias.
12:27Gracias.
12:28Gracias.
12:29Gracias.
12:30Gracias.
12:31Gracias.
12:32Gracias.
12:33Gracias.
12:34Gracias.
12:35Gracias.
12:36Gracias.
12:37Gracias.
12:38Gracias.
12:39Gracias.
12:40Gracias.
13:09Gracias.
13:39Gracias.
13:40Gracias.
13:41Gracias.
13:42Gracias.
13:43Gracias.
13:44Gracias.
13:45Gracias.
13:46Gracias.
13:47Gracias.
13:48Gracias.
13:49Gracias.
13:50Gracias.
14:20Gracias.
14:21Gracias.
14:22Gracias.
14:23Gracias.
14:24Gracias.
14:25Gracias.
14:26Gracias.
14:27Gracias.
14:28Gracias.
14:29Gracias.
14:30Gracias.
14:31Gracias.
14:32Gracias.
14:33Gracias.
15:03Gracias.
15:33Gracias.
16:03Gracias.
16:33Gracias.
16:34Gracias.
16:35Gracias.
16:36Gracias.
16:37Gracias.
16:38Gracias.
16:39Gracias.
16:40Gracias.
16:41Gracias.
16:42Gracias.
16:43Gracias.
16:44Gracias.
16:45Gracias.
16:46Gracias.
16:47Gracias.
16:48Gracias.
16:49Gracias.
16:50¿Listo?
16:51¿Alguien?
16:52¿Alguien tuvo algún resultado?
16:54Gracias.
16:55Gracias.
16:56Gracias.
16:57Gracias.
16:58Gracias.
16:59Gracias.
17:00Gracias.
17:01Gracias.
17:02Gracias.
17:03Gracias.
17:04Gracias.
17:05Gracias.
17:06Gracias.
17:07Gracias.
17:08Gracias.
17:09Gracias.
17:10Gracias.
17:11Gracias.
17:12Gracias.
17:13Gracias.
17:14Gracias.
17:15Gracias.
17:16Gracias.
17:17Gracias.
17:18Gracias.
17:19Gracias.
17:20Gracias.
17:21¿Cómo era la imagen genérica?
17:22¿Podrías describirla?
17:23¿Cómo era la imagen genérica?
17:24¿Podrías describirla?
17:25¿La genérica?
17:26¿Cómo era la imagen genérica?
17:27¿Podrías describirla?
17:28¿La que te generó?
17:29Esa simbólica.
17:30Ya.
17:31Ya.
17:32Ya.
17:33Ya.
17:34Ya.
17:35Ya.
17:36Ya.
17:37Ya.
17:38Ya.
17:39Ya.
17:40Ya.
17:41Ya.
17:42Ya.
17:43Ya.
17:44Ya.
17:45Ya.
17:46Ya.
17:47Ya.
17:48Ya.
17:50Ya.
17:51Ya.
17:52Ya.
17:53Ya.
17:54Ya.
17:55Ya.
17:56Ya.
17:57Un chat GPT me generó un hombre.
18:00Tendrá unos 40 años.
18:02Uno con una camisa.
18:04Un jeans.
18:05Atrás lo arresta.
18:07Bueno.
18:08También tiene una maleta.
18:09¿No?
18:10Una maleta con sus ropas.
18:11Y atrás lo está arrestando un hombre.
18:14Será de 35 a 40 años.
18:18Tex blanca.
18:20Con su uniforme.
18:23Y lo está agarrando de las muñecas, ¿no?
18:26En la parte de atrás.
18:27Y a su costado está otra persona de te es un poco más morena.
18:33Una mujer.
18:34Eh.
18:35Con su pelo ondulado.
18:37Y le está ayudando.
18:38Y le está ayudando.
18:40En Gémini.
18:41Eh.
18:42Me mostró justamente cuando está pasando los protocolos de seguridad.
18:48Lo arrestaron los hombres con sus uniformes.
18:52En Gémini.
18:53Y también hay otro.
18:54Una mujer más.
18:55Hay.
18:56Que le está ayudando.
18:58El hombre.
18:59Bueno.
19:00En este caso ya.
19:01Tendrá unos 30 años.
19:0230 años.
19:03Tiene una barba.
19:04Bueno.
19:05De 28 a 30 años.
19:06Es joven.
19:07Igual.
19:08Tiene un polo.
19:09Un jeans.
19:10Con textura.
19:11O tez.
19:12Blanca.
19:13Eh.
19:14Y el.
19:15A los costados.
19:16Hay.
19:17Dos mujeres.
19:18Y.
19:19Bueno.
19:20Tres mujeres.
19:21Y un varón.
19:22Eh.
19:23El varón.
19:24Tiene una tez morena.
19:25Una de las mujeres también.
19:27Y las otras dos.
19:29Eh.
19:30Una tez blanca.
19:32Eso lo escribiré.
19:34Genial.
19:35Ya.
19:36Es bien diferente al que yo hice guía.
19:39Algo parecido.
19:40O sea.
19:41Me salió una escena parecida.
19:42Pero otros elementos.
19:44A ver.
19:45¿Alguien más generó?
19:46Gracias Iván.
19:47Muchas gracias.
19:48Por tu participación.
19:51Ah.
19:52Buenas.
19:53A ver Eric.
19:54Cuéntame.
19:56Ah.
19:57Bueno.
19:58A mí me generó una señora de más o menos.
20:0035 años.
20:01Eh.
20:02No, hasta el 40 más o menos.
20:03Ya.
20:04Y.
20:05Bueno.
20:06Y.
20:07Estaba con la cara sobre mío.
20:08Ya.
20:09Y más o menos por el detención.
20:10Con su maleta.
20:11Con.
20:12Con ladrillos de coca.
20:14Creo.
20:15Y.
20:16Atrás.
20:17Un señor de 35.
20:18Ah.
20:19Eh.
20:20Medio blanco.
20:21Y.
20:22La.
20:23Y una señorita.
20:24De 20.
20:25No sé.
20:26De 25 años más o menos puede ser.
20:27Que él está ya restando.
20:28Qué bien.
20:30Qué interesante.
20:31Las.
20:32Las imágenes que ustedes han generado.
20:34Eh.
20:35Eh.
20:36Parecen un poco más diversas.
20:37Me parecen.
20:38Sí.
20:39Muy interesante eso.
20:40Eh.
20:41Eh.
20:42Alguien más.
20:43Gracias Eric.
20:44Muchas gracias.
20:46Buenas noches.
20:47Buenas noches Omar.
20:49Sí.
20:50A mí.
20:51Este.
20:52En.
20:53En.
20:54ChatGPT.
20:55Algo similar.
20:56Me mandó varios mensajes.
20:58Que no.
20:59Podían crear.
21:00Esa imagen.
21:01Eh.
21:02Pero en Géminis.
21:03Creo.
21:04No.
21:05Me creo.
21:06Hay una persona.
21:07Siendo arrestada.
21:08Con su mochila.
21:09Ahí.
21:10Y.
21:11Eh.
21:12Hay un poco de.
21:13Polvo blanco.
21:14Probablemente droga.
21:15En el piso.
21:16Lleado.
21:17También.
21:18Es.
21:19Ahí.
21:20En Marrocado.
21:21Y.
21:22Con un perro policía.
21:23Con tres policías.
21:24¿No?
21:25Y uno de ellos estaba.
21:26Llevando el perro policía.
21:28Y alrededor había personas.
21:30Un poco sorprendidas.
21:31Uno tomando foto.
21:32¿No?
21:33Ajá.
21:34Y.
21:35Bueno.
21:36Lo curioso que.
21:37Bueno.
21:38Eh.
21:39Todos son de Tesla.
21:41Eso.
21:42Esencialmente.
21:43¿No?
21:44Ay.
21:45Ay.
21:46No.
21:47No has notado algo sesgado.
21:48Algo.
21:49Algo que sea.
21:50Algo que sea.
21:51Tal vez.
21:52Que todos son claros.
21:54Eh.
21:55Eh.
21:56Tres policías.
21:57Varones.
21:58En más o menos.
21:59Un promedio de.
22:00Treinta y cinco años.
22:02La persona arrestada.
22:03Con su mochila.
22:04Unos.
22:05Cincuenta años.
22:07Aproximadamente.
22:08Ajá.
22:09Eh.
22:10Eh.
22:11Eso.
22:12Tal vez no.
22:13Y.
22:14Policía.
22:15Dama.
22:16O.
22:17T.
22:18T.
22:19T.
22:20T.
22:21La persona arrestada.
22:22Esta es el mismo.
22:24La misma.
22:25T.
22:26T.
22:27T.
22:28T.
22:29T.
22:30T.
22:31T.
22:32T.
22:33T.
22:34T.
22:35T.
22:36T.
22:37T.
22:38T.
22:39T.
22:40T.
22:41T.
22:42T.
22:43T.
22:44T.
22:45T.
22:46T.
22:47T.
22:48T.
22:49T.
22:50T.
22:51T.
22:52T.
22:53alguna prueba voy a continuar aquí y entonces yo hice este ejemplo hoy día yo hice este
23:06exactamente ese pronto y de la mañana también me preguntó sobre qué no podía generar de hecho
23:13esas cláusulas esas preguntas que hacen están asociadas a lo que habíamos hablado sobre confianza
23:20no aquí sobre seguridad privacidad no que en las estos modelos están ya restringidos de generar
23:30cosas que podrían inducir a sesgos a violaciones de leyes o cosas agresivas ya están siendo restringidos
23:40porque al inicio fue una locura ahora ya están siendo más restringidos con todos estos sesgos
23:45y bueno la imagen que me generó fue esta de aquí en este caso es no hay mucha diferencia en la test de
23:54las personas prácticamente son la misma mismo tono de piel como ustedes han indicado está en un
24:01aeropuerto y una maleta lo único que a mí me llamó la atención en particular no fue que bueno acá él
24:08tiene el cabello negro el lacio poco vamos podríamos asociar un poco al al estar patrón latino tal vez
24:18no o sea yo voy a jalando un poco porque porque ya existen no yo ya sé que existen esos sesgos en la
24:26vida no digamos si uno viaja a eeuu o a europa siendo latino va a ser más observado y más juzgado por
24:34esos rasgos y las días repetían eso no pero bueno acá brevemente ahí ese sesgo o sea no es rubio no
24:42rubio ni nada totalmente blanco entonces aparentemente similar de los otros qué bueno que a ustedes les ha
24:50generado más diverso incluso hay otras personas de test más oscura no entonces hay otros patrones en
24:56las imágenes que ustedes me han comentado y bueno yo iba a hacer este paralelo con una noticia que es algo
25:03que ocurre en la vida real también que en este caso esta noticia es de una mujer británica blanca
25:11no que está siendo arrestada por 11 kilos de cocaína y el policía es peruano no esto ocurre en perú
25:18pero este este está esta noticia no de esa persona siendo detenida eran dos jóvenes británicas no y el
25:28policía es peruano con rasgos peruanos y la la la culpada no la la persona siendo detenida es el opuesto
25:37no es es blanca británica no entonces a lo que quiero lo que quiero mostrar no es que a pesar de que
25:45existen sesgos en los datos en la vida real no necesariamente es así no ocurre lo contrario también
25:52también hay europeos norteamericanos con rasgos notoriamente estos países que también cometen
25:59delitos que también transgreden las leyes que también podrían ser las los arrestados que si en
26:06la imagen antes era mucho más fuerte en la imagen es eran personas negras entonces era mucho más cruel no
26:13pero ahora bueno por lo que ustedes me cuentan lo que yo hice también ya está un poco más patronizado no
26:19de todas formas vemos en la realidad lo exactamente lo opuesto no el tono de piel incluso es opuesto es
26:26una mujer y es británica no entonces siendo arrestada por tráfico de drogas no entonces aquí ocurre ya
26:37ocurrió y ahora como les comentaba está siendo bastante controlado bastante restringido justamente porque todos
26:46estos movimientos de personas afro latinos mujeres y personas de la india que los chinos orientales todos
26:58todos estos estos estos grupos étnicos han detectado estos patrones que existían contra ellos y están
27:06protestando y están reclamando y esto se está viendo reflejado entonces aquí algunos ejemplos de cosas que han
27:15ocurrido no hace mucho de hecho esta primera aquí en 2021 fue uno de los casos más drásticos que dio origen a esta parte de
27:26tema de justicia en ya que era fue una noticia sobre el racismo que ocurría en personas negras afrodescendientes en
27:37estados unidos y era de algoritmos que han entrenados para reconocer imágenes no reconocer vive imágenes en
27:47vídeos entonces estas estos algoritmos y siempre terminan culpando o lanzando alarmas cuando reconocían
27:56personas negras en sus imágenes y era porque porque tomaban como característica la forma de los ojos la forma de
28:05los labios de la nariz la hendidura de los ojos las medidas en los dos las facciones todo eso tomaban
28:13como una referencia para ser juzgada juzgado o juzgada no de hecho fue caso fueron casos críticos que
28:23surgieron en algoritmos que habían sido entrenados para decisiones judiciales para dar apoyo a los jueces y
28:32estos algoritmos siempre terminan de terminar terminando o y señalando como más culpable a la
28:41persona más morena más afro y los jueces decían no no los crímenes de la otra persona blanca son peores
28:49pero el algoritmo está indicando que el otro es más culpable y ahí cuando fueron a analizar y analizar
28:56descubrieron que lo que usaba el algoritmo para determinar la culpabilidad no era la gravedad de
29:02los crímenes sino los rasgos étnicos de las personas porque habían sido entrenados con datos
29:11de personas que ya estaban en la cárcel de barrios peligrosos de zonas peligrosas y dentro de esos datos
29:18sesgados estaba mayor parte población de personas pobres personas miles personas de barrios afrodescendientes
29:27verdad los pobres y esos algoritmos aprendieron errado esas características como un decisor de un
29:36crimen por ejemplo entonces por eso les ponía este ejemplo aquí no quién es la persona que está siendo
29:42culpada no necesariamente es el que tiene un estereotipo tal vez de latino de peruano de colombiano de
29:49mexicano que es lo que para eeuu es muy reconocido como un indicio de culpa no podría ser otro tipo de
29:58persona no entonces este fue un caso muy sonado el uno de los primeros 2021 este aquí es otro caso
30:07también de discriminación racial que fue el 2024 este si no me equivoco fue en el reino unido
30:13también una noticia sobre el reconocimiento facial que apenas podía reconocer el tono de piel intensidad
30:23del tono de piel de personas negras y como no les reconocía a las los de los llamaban la atención
30:31colocaba más alarmas porque pues no los reconocía por ejemplo en ambientes oscuros o los terminaba
30:38asociando a algo negativo este otro caso también fue sonado esto fue en 2023 este fue otro caso en
30:48y disculpen este otro fue en australia este que fue en wales en reino unido que también está asociado
30:55el reconocimiento facial y reclamos sobre racismo en la policía no han habido muchas otras noticias
31:04similares y podría colocar varios otros recortes pero lo que quiero mostrar aquí no es como la
31:11nacionalidad los rasgos étnicos nuestros orígenes podrían inducir no a tomar una decisión a estas guías lo
31:22que no debería ser así no lo que lo que debería contar serían nuestras ideas nuestros a nuestras
31:27acciones si fuese un delito la gravedad del delito o si fuesen acciones buenas es no y no los rasgos
31:34que heredamos o los rasgos físicos o la nacionalidad que tengamos o la religión no muchas otras características
31:45que no escogemos tenerlo este aquí fue un experimento hecho justamente a raíz de estos problemas de
31:55y de sesgos étnicos y las de nacionalidad yo pienso que esto ya está corregido pero es importante
32:05mencionarlo porque fue un experimento muy interesante que mostraba a un algoritmo una imagen de una mano
32:14sosteniendo un lector de temperatura no termómetro de esos diferentes y esta mano en este caso es una
32:23imagen una mano de un hombre afro africano o tal vez afrodescendiente o incluso tal vez podría ser
32:30latino no peruano tal vez o no sé de cualquier país que tenga historia afro y esta mano está sosteniendo
32:39este termómetro entonces según este algoritmo este algoritmo que ya supuestamente daba un buen
32:45resultado de precisión decía que el objeto que estaba sosteniendo o sea los objetos que se encontraban
32:52en esta imagen eran una mano con 77 por ciento de precisión lo cual también bueno no está tan evidente pero
33:02también induce un cierto error y una arma entonces para este algoritmo lo que estaba sosteniendo esta
33:11mano era un arma y qué pasaba cuando le quitaban le cambiaban el color simplemente haciendo un retoque en
33:19pines le cambiaban el color y la mano era una mano blanca de un hombre blanco o europeo norteamericano o
33:26incluso tal vez oriental pero una mano una persona blanca y esta mano sostenía el mismo objeto es exactamente
33:36la misma foto solamente había sido cambiada el color y en este caso si decía que era una mano y decía que
33:44estaba sosteniendo un monocular o un lector de temperatura con 60 por ciento de probabilidad entonces la
33:52diferencia entre tener un arma y tener un monocular era el tono de piel exactamente el tono de piel lo
33:59único que cambió en la figura fue eso entonces este fue un experimento interesante justamente para mostrar
34:04este grave error que cometían los algoritmos al detectar objetos o cosas o rostros y en escenas
34:12imagínense que este algoritmo estuviera embebido en la cámara de un policía o de una cámara de vigilancia
34:20y digamos dan una persona y hace así con la mano y tiene un este monocular y la cámara para disparar
34:28un alarma o incluso algo más grave si fuese un un arma automática o un policía dispara ahí y es una
34:35persona que si no sólo tiene un lector de temperatura y no tiene un arma no tiene no tendría que porque
34:41disparar una alerta no entonces a pesar que esta foto ya es un poco antigua nuestra antigua no tendrá unos dos
34:49años o tres quiere es importante mostrarlo porque es un experimento muy interesante de cómo de cómo el
34:59tono de piel podía influir influir tanto sobre el resultado de una predicción incluso aquí ni siquiera
35:08se hablaban todavía de grandes modelos de lenguaje ni nada solamente en la predicción de reconocimiento
35:14de objetos en dos imágenes nada más y bueno después el otro arista del ya responsable era la
35:26sostenibilidad que tiene que ver con el medio ambiente y esto es algo que también nos incumbe a todos no cuando
35:33hablamos de modelos de lenguaje existen infinidad de aplicaciones no por ejemplo usos para generar texto a
35:42través de texto y generar texto a través de imágenes generar texto a través de vídeos texto a través de
35:50audios audios por texto texto para imágenes de 3d imágenes de 3d a texto vídeos a 3d etcétera etcétera y eso
35:59también tiene infinidad de aplicaciones como educación marketing ecommerce industrias filmación este asistencia
36:09virtual audio books transcripción games video games arquitectura o sea casi todo no esto esto está
36:20siendo usado de forma general no y todo esto tiene un costo un costo de sostenibilidad para el medio
36:28ambiente entonces para cuando hablamos de entrenar un modelo de lenguaje no sólo es esa parte bonita de
36:35que coloco mis datos entreno ajustó los parámetros veo qué tal está y sigo entrenando o hago como se
36:44llamaba este fin tuning no hago fin tuning a mí a mí a mi caso a mi situación particular y si no funciona
36:53vuelvo a ajustar lo justo no es tan es divertido es bonito hacer eso pero no están no es no es tenemos ser
37:03conscientes no de que no es tan fácil hacerlo eso tiene un costo y un costo de energía porque son
37:10procesadores que te usen clústeres consumiendo energía en modelos entrenándose entrenándose por
37:18medio de gpt o cualquier otro modelo y está consumiendo una cantidad de gigawatts por día y por
37:27hora por día tiene un costo computacional de uso de hardware paralizado como tarjetas nvidia gpus tpus y
37:38otro tipo de de tarjetas de procesamiento para entrenar el desarrollo de modelos en sí en no sólo el
37:48entrenamiento sino el desarrollo de un modelo que tiene que ver con los datos tiene un costo no de
37:54de colectar los datos de limpiarlos que también tiene un costo de uso de equipamentos para adquisición
38:02filtrado preparación y datos de alta calidad transformación de imágenes vídeos todo eso hacer
38:10el fin tuning de los modelos tiene un costo computacional bueno de expertos también pero un
38:17costo computacional principalmente el uso de servidores que mantienen estos modelos tiene un
38:26costo de almacenaje que tiene que ver con almacenar estos modelos que son pesados que tienen tres points
38:34que tienen data sets que esto requiere servicios de storage sin cloud en la nube que tiene un costo
38:41también de energía y computación tiene un costo eléctrico que tiene que ver con el uso continuo de
38:48la electricidad para enfriar estos sistemas estos data centers que están consumiendo gigabytes gigawatts por
38:56hora día y así nos ha infinidad de otros tipos de consumo eléctrico energía recursos energéticos que tienen que ver
39:09con si bien es energía renovable pero tiene un costo calor calorífico que genera un impacto en el medio
39:17ambiente no dependiendo del tamaño hay un costo de calentamiento global los sistemas de enfriamiento son
39:27data centers que tienen alta performance también de gpus y que requieren también sistemas enormes de
39:34enfriamiento infraestructura de enfriamiento enorme que se usan infinidad de litros de agua y otra más energía
39:43para enfriar esos litros de agua entonces si sumamos todo esto imagínense en las imágenes que hemos generado
39:50ahora claro son fines educativos en todo lo que usamos día a día para generar cosas en chas de pt en entrenar en
39:58todo esto tiene un costo y es un costo que va al medio ambiente si lo hace una persona o dos ok no pero
40:07si lo hace todo el mundo toda la humanidad al mismo tiempo todo el tiempo por cosas bogas a veces ya es un
40:16costo de sostenibilidad al medio ambiente enorme lo que no es justo para nuestro medio ambiente y aquí
40:24un ejemplo fue está este tren seguro ustedes lo han visto que era de crear imágenes al estilo del estudio
40:33ghibli de este tipo de imágenes y se volvió viral no todo el mundo quería generar su emoticón su su foto
40:42de perfil con el usando una ya que generaba a los transformar una imagen al estudio ghibli y esto le costó a las
40:52guías no cuánto le costó le costó 2.5 litros de 2 a 5 litros de agua por cada imagen generada esto podría
41:02ser equivalente al alcar a la cantidad de botellas de aguas que se usaron para enfriar estos servidores
41:12digamos 216 millones de litros en una semana y eso es un desperdicio no de agua para enfriamiento de
41:24uso de moda de imágenes que son solamente una moda que tiene un impacto ambiental para eso no para una
41:32moda que no es una algo productivo no es algo que nos dé un recuento resultado y las consultas que
41:41hacemos el chat gpt gastan 10 veces más electricidad que una búsqueda en google por ejemplo entonces a
41:47veces hacemos un uso indiscriminado de las guías no sé si me ocurrió hablar con ella sobre una no sé
41:56sobre preguntarle un dato sobre quién creó la electricidad podría hacerlo en google y guapán de
42:03la misma información no necesito usar una guía para eso pero lo hago y eso tiene un costo de electricidad
42:09para el medio ambiente lamentablemente empresas como todas estas empresas tecnológicas google
42:16ya te da automáticamente la respuesta generada el resumen de búsquedas meta ha incluido eso en su
42:24whatsapp puedes usar la ya sin pedirle sin necesidad entrar en la ya sólo es una búsqueda ya usas la ya
42:32el microsoft con su copilot estás escribiendo en word ya te está poniendo el copilot que está usando la
42:40guía mientras estás escribiendo entonces lamentablemente todas estas big text estas grandes empresas
42:48están ya como que apoderándose no de estoy poniendo por todo lado entonces no estamos perdiendo esta
42:58conciencia del impacto ambiental que esto está generando a nuestro planeta no el costo de
43:06de sostenibilidad y bueno y que de qué otras formas nos puede impactar todos estos sesgos no
43:13no hemos hablado de género hemos hablado de raza nacionalidad de costo al medio ambiente de que más
43:20en qué otras partes nos podría afectar en otras cosas nos podría afectar y otro otro tema muy
43:29importante es la confianza lo que hemos mencionado también en un momento la confianza en las predicciones
43:35de los modelos y esa confianza tiene que ver con por ejemplo cuestiones médicas en este caso en esta
43:44imagen es imagínense una situación en las que hay un tumor cerebral y e imposible tumor cerebral y estas
43:54son las imágenes y la ya dice si es un tumor hay que operarlo y ahí vienen los médicos especialistas y
44:04dicen ok pero por qué por qué tengo que operar de hecho es un tumor o usted es necesario operarlo es un
44:12tumor o es un error porque de repente en base a esa operación está en riesgo la vida del paciente no
44:19ese paciente podría tener un altísimo riesgo a través de fallecer en esa operación entonces la
44:27decisión de operar o no no es tan fácil y ya no es simplemente voy a hacer lo que la idea me dijo
44:33porque me dijo que tengo que hacerlo sino cuestionarnos por qué no por qué tengo que operar entonces esto
44:41tiene que ver con confianza confío en que la guía me está diciendo que sí o sí es un tumor y debo operar
44:48o qué tengo que hacer no no puedo ciegamente ir y operar sino que más tengo que analizar pensar como
44:57humanos entonces principalmente en áreas críticas como medicina por ejemplo que están en riesgo la vida de
45:04las personas es súper importante valorar la opinión de los especialistas junto a las guías y no solamente
45:13tomar en cuenta la decisión de las guías no no dejarle esa responsabilidad entera a un modelo de lenguaje
45:21y bueno muchas gracias por su participación espero que les haya gustado quisiera saber si tienen alguna
45:30pregunta alguna duda alguien levantó su mano alguien escribió acá alfredo dice una consulta como así la
45:40ya consume agua ya que una computadora con refrigeración líquida normalmente es la misma agua que está circulante
45:48en su sistema en la zona de en una zona de absorber calor y en otra en fría el líquido sin consumo de
45:55líquido refrigeración adicional si es interesante el comentario que mencionas alfredo no es que la
46:03ya consume es lo que se está si tú tienes un computador un sistema de enfriamiento como lo que
46:10mencionas es también es el mismo agua circulando pero esa ese equipo de enfriamiento necesita electricidad
46:19no para generar energía que baje la temperatura y que enfríe no y esa electricidad es producida mayor en
46:29mayor parte en el mundo por centrales hidroeléctricas y si bien el agua que es usada en las centrales hidroeléctricas
46:38no no es cien por ciento no es que no es que se desecha no no es desechable no no es que se pierde ese
46:49agua ese agua vuelve es ese agua ya está contaminada no es pura al cien por ciento porque carga y metales
46:59y elementos de ese proceso de haber atravesado la hidroeléctrica y al momento de volver a los ríos ya
47:08no vuelve limpia como entro de hecho las centrales hidroeléctricas desechan ese agua en otros lugares
47:15a otros espacios para que no vuelvan a contaminar el río del agua fluyendo este es un caso en un caso
47:23de uso de agua para centrales hidroeléctricas que producen electricidad que luego se usa para todos
47:30los sistemas de enfriamiento de enfriamiento principalmente de equipos que son de cloud de
47:39procesamiento etcétera no principalmente es el uso el que el consumo de electricidad
47:44y bueno podría haber otros casos relacionados a aguas estos sistemas de enfriamiento que son
47:56constantes no por ejemplo hay los grandes data centers de uno de los grandes de pacientes de google
48:03se encuentran enterrados en en los alpes suizos no que son en lugares donde hay nevados y todas esas
48:12zonas ya son totalmente aisladas entonces ya son zonas de reservas de agua que están siendo usadas
48:18para enfriamiento no que ese agua bueno al menos esos nevados ya no son 100% puros no hay una cierta
48:27hay un cierto grado de contaminación como repito no es que una o dos computadoras generen un costo
48:35energético sino el problema es el uso masivo masivo de estas máquinas que toda la humanidad genere ese
48:45costo energético no es similar al caso de los aviones por ejemplo un avión volando claro tiene un
48:53costo en contaminación por co2 en el ambiente pero si tenemos millones de aviones volando al mismo tiempo
49:00la generación de co2 es un género claro en el desecho de co2 enero un impacto ambiental no entonces por
49:09ese lado va el consumo de agua en este caso de las 10 tienen alguna otra pregunta alguna otra curiosidad
49:20bien bueno entonces me despido muchas gracias nuevamente por su participación y espero
49:36encontrarnos en otra próxima oportunidad
49:50gracias
49:51gracias
50:20gracias
50:50Gracias.
51:20Gracias.
51:50Gracias.
52:20Gracias.
52:50Gracias.
53:20Gracias.
53:50Gracias.
54:20Gracias.
54:50Gracias.
55:20Gracias.
55:50Gracias.
56:20Gracias.
Be the first to comment
Add your comment