Hace poco y nada hemos estado hablando de las filtraciones de Project Magnus de Xbox, y ahora parece que desde Sony quieren acaparar todos los focos y para ello han liberado un nuevo vídeo donde hablan de su visión del hardware futuro de los videojuegos. La colaboración entre AMD y Sony sigue dando frutos en el ámbito tecnológico y Mark Cerny, arquitecto jefe de PlayStation, y representantes de AMD han desvelado algunos de los avances más prometedores que están desarrollando en conjunto. Entre ellos, destacan tres tecnologías clave: Neural Arrays, Radiance Cores y Universal Compression. Aunque por ahora solo existen como simulaciones, su potencial podría redefinir la próxima generación de consolas, llevando la experiencia de juego a niveles antes impensables.
El punto de partida de esta innovación es el Project Amethyst, un esfuerzo conjunto que busca integrar el aprendizaje automático en el corazón del hardware de juego. Como explicó Cerny, el objetivo no es solo aumentar la potencia bruta, sino optimizar cómo se procesan los datos para lograr físicas en tiempo real, iluminación cinematográfica y una sincronización perfecta entre la CPU y la GPU. En este contexto, el aprendizaje automático deja de ser un simple complemento para convertirse en una herramienta esencial. Tecnologías como FSR (FidelityFX Super Resolution) y PSSR ya han demostrado cómo las redes neuronales pueden mejorar la calidad visual y el rendimiento, pero lo que se avecina va mucho más allá. La idea es que, en el futuro, gran parte de lo que vemos en pantalla —desde los detalles más mínimos hasta la atmósfera general— esté potenciado por algoritmos de ML (Machine Learning). Esto no solo permitirá alcanzar nuevos estándares técnicos, sino también acercarse a la visión artística de los creadores, ofreciendo mundos más inmersivos y realistas.
Hoy, me pareció divertido compartir un poco sobre las nuevas tecnologías que se están desarrollando, empezando con nuestra colaboración en el Project Amethyst para crear las tecnologías de aprendizaje automático del futuro. Como todo gamer sabe, se necesita un conjunto complejo de experiencia en sistemas para configurar sus consolas y juegos y ofrecer la máxima experiencia posible. A medida que progresamos juntos, el futuro nos trae físicas en tiempo real, iluminación cinematográfica, transmisión eficiente de recursos y mantener todo sincronizado a través de la CPU y la GPU con una latencia súper baja. Intentar lograr eso con solo fuerza bruta y potencia pura simplemente no escala. Ahí es donde estamos combinando la rasterización tradicional con la aceleración neuronal. Y el aprendizaje automático ya no es solo un truco de nicho. Se ha convertido en una herramienta real para los desarrolladores: pipelines más inteligentes, visuales más limpios, jugabilidad más fluida y más margen para crear los mundos en los que todos queremos perdernos.
Neural Arrays: la revolución en el procesamiento de datos
Uno de los mayores desafíos al integrar redes neuronales en las GPU es la eficiencia. Tradicionalmente, las unidades de cómputo de una GPU trabajan de manera independiente, dividiendo los problemas en fragmentos más pequeños. Sin embargo, este enfoque puede generar ineficiencias, especialmente cuando se trata de procesar grandes modelos de aprendizaje automático. Aquí es donde entran en juego los Neural Arrays. En lugar de tener unidades de cómputo operando de forma aislada, esta tecnología permite que se agrupen y funcionen como un solo motor de IA, compartiendo datos y procesándolos de manera coordinada.
Como explicó Cerny, no se trata de convertir toda la GPU en una única mega-unidad —lo que sería un caos de gestión—, sino de conectar las unidades de cómputo dentro de cada Shader Engine de manera inteligente. Esto no solo mejora la eficiencia, sino que también permite manejar modelos de ML más grandes y complejos con menos sobrecarga. El resultado es un rendimiento superior en tareas como el upscaling y el denoising, esenciales para tecnologías como el FSR. Pero el verdadero potencial de los Neural Arrays radica en su capacidad para escalar. A medida que las cargas de trabajo aumentan, el sistema puede adaptarse, abriendo la puerta a características impulsadas por ML que aún ni siquiera hemos imaginado. Esto significa que, en el futuro, podríamos ver mejoras en tiempo real que transformen por completo la forma en que interactuamos con los juegos.
Con Neural Arrays, estamos desbloqueando un nivel completamente nuevo de rendimiento para ML. No solo es más rápido, sino más capaz. Eso significa mejor FSR, mejor re-regeneración de rays y características nuevas impulsadas por ML que apenas estamos empezando a imaginar. Todo funcionando en tiempo real, justo en la GPU. Y apenas estamos comenzando. A medida que miramos hacia adelante, también verán innovaciones dedicadas que llevan el renderizado cinematográfico a niveles completamente nuevos.
Radiance Cores: el futuro del ray tracing
El trazado de rayos (Ray Tracing) ha sido uno de los avances más significativos en los gráficos de los últimos años, pero su implementación actual tiene limitaciones. En la actualidad, los shaders deben manejar dos tareas distintas: por un lado, la travesía de los rayos (determinar dónde y cómo interactúan con la geometría de la escena) y, por otro, el sombreado (aplicar texturas e iluminación). Esto no solo es ineficiente, sino que también limita el rendimiento. Para solucionar este problema, AMD y Sony han desarrollado los Radiance Cores, un hardware dedicado exclusivamente al trazado de rayos y de rutas (Path Tracing).
Estos núcleos se encargan de toda la lógica de travesía de rayos, liberando a la GPU para que se centre en lo que mejor hace: sombrear y iluminar. Esto no solo acelera el proceso, sino que también lo hace más eficiente, permitiendo un rendimiento en tiempo real que antes era impensable. Según Cerny, los Radiance Cores representan un cambio de paradigma en el renderizado, llevando la iluminación cinematográfica a un nuevo nivel. La idea es que, en lugar de depender de soluciones híbridas, los desarrolladores puedan aprovechar un hardware especializado para crear mundos más realistas, con reflejos, sombras e iluminación global que respondan de manera dinámica y precisa. Esto no solo beneficiará a los juegos en términos de fidelidad visual, sino que también abrirá nuevas posibilidades creativas para los estudios.
Para realizar Ray Tracing hoy, un programa shader tiene que hacer malabares con dos responsabilidades muy diferentes. Una es la travesía de rays, cavando en complejas estructuras de datos para localizar dónde los millones de rays que se están lanzando golpean los millones de triángulos en la geometría de la escena. Cuando hay intersecciones, ese mismo programa shader también tiene que estar haciendo su trabajo habitual de sombrear la escena, utilizando textura e información de iluminación y demás.
Universal Compression: optimizando el ancho de banda
Uno de los mayores cuellos de botella en el rendimiento de las GPU actuales es el ancho de banda de la memoria. A medida que los juegos se vuelven más complejos, con texturas en 4K y técnicas avanzadas de denoising, la demanda de memoria aumenta exponencialmente. Para abordar este problema, AMD y Sony han desarrollado Universal Compression, un sistema que evalúa y comprime todos los datos que pasan por la GPU, no solo las texturas. Esto significa que solo se transmiten los bytes esenciales, reduciendo drásticamente el uso del ancho de banda.
La ventaja de este enfoque es múltiple. Por un lado, permite a la GPU manejar más datos en menos tiempo, lo que se traduce en mayor detalle visual, velocidades de cuadro más altas y una mayor eficiencia energética. Pero, además, Universal Compression trabaja en sinergia con las otras dos tecnologías mencionadas. Al reducir la carga en la memoria, los Neural Arrays y los Radiance Cores pueden operar de manera más fluida, maximizando su potencial. Como señaló Cerny, esto no solo mejorará el rendimiento en papel, sino que también permitirá a los desarrolladores aprovechar recursos de mayor fidelidad sin preocuparse por las limitaciones técnicas. En otras palabras, se trata de una optimización integral que beneficia tanto a la potencia bruta como a la experiencia final del usuario.
Aunque estas tecnologías aún están en fase de desarrollo, su impacto potencial es inmenso. Si AMD y Sony logran implementarlas en la próxima generación de consolas, podríamos estar ante un salto cualitativo en la forma en que experimentamos los videojuegos. Desde gráficos más realistas hasta mundos más inmersivos y dinámicos, el futuro pinta prometedor. Lo que queda por ver es cómo los desarrolladores aprovecharán estas herramientas para crear experiencias que vayan más allá de lo técnico, tocando también lo emocional y lo narrativo. Por ahora, solo nos queda esperar y soñar con lo que está por venir.