Saltar al reproductorSaltar al contenido principal
  • hace 6 horas
"Hola, esta semana has visto 250 videos de perros y gatos, ¿quisieras que te muestre algo más?
Transcripción
00:00Diga, hola Karin, esta semana has visto 250 videos de perros y gatos, ¿quisieras que te muestre algo más?
00:06¿Te imaginas que existiera una tecnología que te dé estos datos cotidianos?
00:10Cada vez que decides ver una cosa, los algoritmos registran esa información.
00:14En el encuentro TV Morphosis, especialistas abordaron el tema
00:18Los algoritmos como filtros de la realidad, o sea, sobre la forma en la que se personaliza
00:23el consumo de contenidos en redes sociales y plataformas digitales.
00:26La periodista que lidera el laboratorio de IA en la silla vacía, Karen de la Hoz, explicó
00:31Entonces, ¿a dónde queremos llegar? Queremos aprender más de cine, queremos entender mejor el panorama político,
00:38queremos saber más de literatura y preguntarnos si el consumo algorítmico que estamos teniendo dentro de la plataforma nos ayuda.
00:46El tecnólogo e investigador Jacobo Nájera añadió
00:48La mala noticia es que en realidad parte de lo que pasa con lo que se le llama inteligencia artificial
00:54o aprendizaje automático o estadística avanzada, podemos encontrar muchos otros nombres para describirlas
01:00Es que la parte algorítmica tiende a ser muy ancha en la cantidad de temas que toca, pero poco profunda
01:10Esa es una característica propia, digamos, de las bases y de los modelos teóricos que mantienen este tipo de tecnologías
01:20Y eso es un límite propio de esas tecnologías. Entonces, hay una expectativa de que en el futuro eso podría cambiar
01:28Y también está el aspecto negativo de la violencia. Habla la directora de Noticias de Canal 11, Luisa Cantú
01:34Justo nos enteramos hoy que la palabra de Oxford, del diccionario Oxford del 2025 es rage bait
01:41Rage de violencia, de ira, enojo y como clickbait, ¿no? Anzuelo
01:47Hace unos años me parece que era brain rot, ¿no? Como esta sensación de que tu cerebro literalmente está podrido
01:53Por estar horas viendo nada en las redes sociales. Eso me parece absolutamente sintomático de los tiempos que estamos viviendo
02:00Y me parece que es un error trasladar la responsabilidad a los individuos
02:06Aunque entiendo que hay buenas prácticas que las personas podemos hacer para hackear el algoritmo
02:11Con imágenes de Yacir González, UDGTV Canal 44, Liz Ortiz
Sé la primera persona en añadir un comentario
Añade tu comentario

Recomendada