00:00Pokémon GO nos engañó todo este tiempo y nos usó como mano de obra barata para entrenar robots de reparto.
00:06Además, NVIDIA está en el ojo del huracán por la IA que te hace precioso exageradamente con el DLSS5.
00:14¡Es hermosa!
00:16Dos historias bien interesantes para iniciar con toda esta semana.
00:19TUTPOINT
00:21Comenzamos con NVIDIA que, como dijimos, dejó bastante molesta y con dudas a la comunidad gamer, y no es para
00:27menos.
00:27El día de ayer, lunes 16 de marzo, la compañía presentó oficialmente el DLSS5,
00:34lo que describen ellos como el avance más importante en gráficos desde que introdujeron el Ray Tracing en tiempo real
00:40en 2018.
00:42La tecnología fue presentada por el CEO de NVIDIA, Jensen Huang, quien incluso la describió con una frase bastante llamativa.
00:49Según él, el DLSS5 podría representar el momento GPT de los gráficos.
00:55Y la razón detrás de esta comparación es que esta nueva versión ya no se limita a mejorar la imagen,
01:00sino que empieza a participar directamente en cómo se renderiza una escena.
01:05Para entender por qué esto es importante, primero hay que recordar que hacía la tecnología DLSS hasta ahora.
01:11El concepto era relativamente sencillo.
01:14Primero el juego se renderiza a una resolución más baja,
01:17después una red neuronal reconstruye la imagen para que se vea como si estuviera corriendo a mayor resolución.
01:23Eso permitía, por ejemplo, renderizar internamente a 1080p y obtener una imagen final cercana al 4K,
01:30pero con mucho menos costo de rendimiento.
01:32Con el paso de los años, NVIDIA fue agregando nuevas funciones.
01:36Versiones posteriores introdujeron mejoras en reconstrucción de imagen,
01:39y más recientemente también llegaron tecnologías como generación de frames.
01:43Pero incluso con todos estos avances, en el principio seguía siendo el mismo.
01:47La IA reconstruía la imagen final, pero el renderizado seguía ocurriendo de manera tradicional.
01:52El nuevo DLSS 5 cambia justamente eso.
01:56La gran novedad de esta nueva tecnología es algo que NVIDIA llama renderizado neuronal.
02:01En lugar de limitarse a reconstruir la imagen,
02:04la IA participa directamente en la generación de iluminación y materiales de escena.
02:08Para no hacerte bolas, gran parte del resultado visual ya no se calcula con técnicas tradicionales de gráficos por computadora,
02:15sino que se genera mediante redes neuronales en tiempo real.
02:18Esto abre la puerta a efectos visuales mucho más complejos.
02:21Por ejemplo, el modelo está entrenado para entender la semántica de una escena.
02:25Puede reconocer personajes, cabello, telas, piel translúcida o diferentes condiciones de iluminación.
02:31Y gracias a eso se puede generar detalles que normalmente son muy costosos de calcular en tiempo real.
02:37Entre los ejemplos que mostró NVIDIA en su comunicado,
02:39aparecen efectos que normalmente se ven más en cine que en videojuegos.
02:43Uno de ellos es el subsurface scattering,
02:46un fenómeno donde la luz atraviesa parcialmente la piel antes de reflejarse,
02:50creando ese efecto suave y natural en rostros humanos.
02:53También puede mejorar cómo la luz interactúa con el cabello
02:55o generar reflejos más realistas en distintos materiales.
02:59La idea general que quiere comunicar NVIDIA con el DLSS5
03:03es acercar el renderizado en tiempo real de videojuegos
03:06a la calidad visual que vemos en los efectos especiales de Hollywood.
03:09Pero a decir verdad, el mensaje es preocupante.
03:11Una de las dudas que surgieron inmediatamente es si este tipo de tecnología
03:15podría terminar cambiando el look artístico de un juego.
03:18Si observamos los ejemplos del comunicado,
03:20muchos rostros se ven excesivamente perfectos,
03:23con una perfección que visiblemente no es real.
03:27¿Bromeas? Es un papucho.
03:29Su cara parece tallada por los mismos ángeles.
03:32Si la idea empieza a inventar parte de la imagen,
03:35el resultado final deja de reflejar exactamente
03:38lo que los desarrolladores pensaron y diseñaron.
03:41NVIDIA asegura que los desarrolladores mantienen
03:43el control creativo completo sobre el resultado
03:45y que la IA actúa más como una herramienta adicional
03:48que como un reemplazo artístico.
03:50A la par de ese comunicado,
03:52varios grandes publishers ya confirmaron soporte.
03:54El BTS da a Capcom, Ubisoft y Warner Bros. Games.
03:57Incluso hay algunos juegos que ya aparecen en la lista de soporte
04:00como Starfield, Assassin's Creed Shadows,
04:03Hogwarts Legacy, Naraka Blade Point,
04:05Phantom Blade Zero, Resident Evil Requiem y Aeon 2.
04:08Aunque la tecnología está planteada para llegar en otoño de 2026,
04:13la reacción de los jugadores ha sido bastante mixta.
04:16Por un lado, hay entusiasmo por la posibilidad de alcanzar
04:19niveles de iluminación y materiales mucho más realistas.
04:22Pero por otro, algunos jugadores temen que el resultado
04:25dependa demasiado de IA generativa
04:27y que esto termine creando imágenes
04:29que no fueron realmente diseñadas por los artistas del juego.
04:32En redes incluso aparecieron memes,
04:34demostrando el resultado de esta tecnología
04:36al crear algo un poquito artificial.
04:39Ya veremos cómo NVIDIA sobrelleva esto durante los próximos días.
04:42Lo que sí es una realidad es que la IA empieza a intervenir
04:45directamente en el renderizado
04:47y eso podría cambiar bastante
04:48cómo se construyen los gráficos en videojuegos en los próximos años.
04:52Vámonos con la segunda historia
04:54que realmente sucedió el fin de semana pasado,
04:56ya que es completamente distinta,
04:58pero también involucra inteligencia artificial y tecnología,
05:01y hasta con un plot twist divertido.
05:02Durante años, millones de jugadores de Pokémon Go
05:05han escaneado pokeparadas, gimnasios y monumentos
05:09con la cámara del teléfono
05:10para completar tareas de investigación y ganar recompensas.
05:13Pero ahora sabemos que estos datos
05:15terminaron teniendo un uso mucho más amplio.
05:17Según información revelada recientemente por MIT Technologic Review,
05:22los jugadores de Pokémon Go
05:23generaron más de 30 mil millones de imágenes
05:26y escaneos del mundo real.
05:28Todo ese material fue utilizado
05:30para entrenar el sistema Visual Position System o VPS,
05:33desarrollado por Niantic.
05:35Este sistema permite reconocer edificios,
05:38señales, monumentos y otros elementos urbanos
05:40con una precisión extremadamente alta.
05:43Para lograrlo, cada escaneo capturaba
05:45no solo la imagen del entorno,
05:47también incluía una enorme cantidad de metadatos.
05:51Por ejemplo, coordenadas GPS, ángulos de cámara,
05:54hora del día y movimiento del jugador.
05:56Con todo ese monstruo de información,
05:59el sistema pudo aprender a entender
06:00cómo se ve el mundo real desde distintos ángulos y condiciones,
06:04creando uno de los mapas tridimensionales urbanos
06:07más grandes del planeta.
06:09Aquí es donde la historia nos dice,
06:10ay nenita, qué miedo.
06:12Ese sistema VPS ahora se está usando
06:14para algo completamente diferente.
06:16La empresa Coco Robotics
06:18está utilizando esta tecnología
06:20para guiar robots de reparto en ciudades.
06:22Estos pequeños robots,
06:23que ya operan en varias ciudades de Estados Unidos y Europa,
06:26entregan pedidos de comida
06:28y otros productos recorriendo las calles.
06:30El problema es que el GPS
06:32no siempre funciona bien en entornos urbanos.
06:34Entre edificios altos, túneles o zonas densamente construidas,
06:38la señal puede ser imprecisa.
06:40Es ahí donde entra el sistema de Niantic.
06:43Usando el mapa tridimensional generado por millones de jugadores,
06:46los robots pueden reconocer elementos del entorno
06:49y orientarse con precisión de centímetros.
06:52Prácticamente conocen tu calle,
06:54mi calle,
06:55la calle de tus amigos,
06:56familiares,
06:57conocidos,
06:58etc.
06:59Según John Hankey,
07:00CEO de la división Niantic Special,
07:02la conexión entre ambas cosas
07:04es más lógica de lo que parece.
07:06Dice que hacer que Pikachu se mueva
07:08de manera realista en el mundo
07:09y hacer que un robot navegue con seguridad por una ciudad
07:12requiere entender visualmente el entorno.
07:14Ambos sistemas necesitan reconocer objetos reales,
07:17interpretar profundidad
07:18y ubicarse correctamente en el espacio.
07:20Así que el cúmulo de información generado por los jugadores
07:23terminó siendo perfecto para entrenar esta tecnología.
07:26Cuando esta información salió a la luz,
07:28la reacción de la comunidad fue bastante divertida
07:30y generó comentarios de todo tipo.
07:32Algunos lo ven como un ejemplo fascinante
07:34de cómo los videojuegos pueden contribuir
07:36indirectamente al desarrollo tecnológico,
07:38otros simplemente lo encuentran gracioso.
07:41Después de todo,
07:42la idea de fotografiar Poképaradas
07:43pueda ayudar a que un robot
07:45entregue tu pedido de comida más rápido
07:46no era algo que muchos tenían en mente
07:48cuando empezaron a jugar, por supuesto.
07:50Durante casi una década,
07:51millones de personas recorrieron ciudades enteras
07:53con sus teléfonos buscando Pokémon.
07:55Eso generó una cantidad gigantesca
07:57de información visual del mundo real
07:59y asaltos masivos principalmente en Latinoamérica,
08:02desgraciadamente,
08:03que ahora ayuda a construir sistemas de navegación
08:05mucho más avanzados.
08:07Es uno de esos casos donde un videojuego
08:09termina contribuyendo de algo mucho más grande
08:12de lo que parecía al principio.
08:13¿Qué opinión te merecen estas dos noticias?
08:16Te leemos en los comentarios,
08:17no dudes en darle like,
08:19suscribirte y revisar nuestro contenido
08:21que tenemos cada semana en el canal.
08:23Nos vemos en el siguiente Checkpoint.
Comentarios