Multi Resolución, ¿Avance o freno técnico?

Shinji Mikami

Miembro habitual
Mensajes
772
Reacciones
445
Tema enfocado a las consolas, no así a PC.

No sé qué opináis al respecto si el tema de la resolución en las consolas está mermando la calidad gráfica de las mismas. Mi opinión es que sí, que la resolución es un lastre y un freno técnico, y casi diría que es un retraso gráfico el tema de ir subiendo la resolución de los juegos en cada generación.

Y pienso que es un retraso técnico porque en cada generación que pasa, sí, las máquinas que salen al mercado (Sony y Microsoft, ya que Nintendo se echó a un lado en este aspecto después de Gamecube) son más potentes no sé cuántas veces que la generación anterior, pero gran parte de toda esa nueva potencia va únicamente a cubrir cada pixel de las cada vez más grandes de diagonal TVs que los fabricantes nos venden. Así que llevamos ya unas cuantas generaciones donde los saltos gráficos poco impresionan ya (haber salto gráfico lo hay, por supuesto, pero cada vez menos significativo) y vemos cómo dichas máquinas se las ven y se las desean para mantener una tasa de cuadros por segundo decentes y estables.

Y me pregunto yo, ¿Qué pasaría si con sistemas como Xbox Series X y PlayStation 5 los estudios de desarrollo optasen por un standart de renderizado de 1080p/60fps? La de recursos en términos de potencia bruta que quedarían libres en cada una de estas máquina para procesados gráficos y verdaderos settings de máxima calidad.

Creo que desde hace muchos años los intereses de los fabricantes de TVs han arrastrado al sector de videojuegos de consola por el sentido equivocado. Y lo peor de todo es que el usuario parece demandar dicho camino. Parecen más satisfechos con un "Tetris" funcionando a 4K reales y 120fps y ver en su SmartTV de 65" una limpieza de líneas y marcadores perfecta, que un "The Witcher 3" casi foto-realista con algún diente de sierra perceptible a 5cms de distancia y bajo lupa.

Si contamos con que, además, los procesadores/escaladores de imagen de las TVs actuales hacen auténticas maravillas llevando señales 1080p a su relación nativa 2160p (en diagonales de hasta 55" pulgadas, a 2 metros de distancia no distingues una imagen de la otra) y que sus tasas de refresco suelen ser de 60Hz, ¿Por qué gastar todos esos recursos de las máquinas la resolución y dejar "temblando" ya su hardware?

Dejo fuera a PC porque en ellos la historia es diferente. Se adaptan perfectamente a ambos mundos.
 
  • Me gusta
Reacciones: WRC
Pues el futuro es ahora y lo que está ocurriendo es que las técnicas de reconstrucción hacen que renderizar directamente en 4K cada vez tenga menos sentido. Todo esto arrancó un poco con PS4 Pro, con los juegos que empezaron a usar "checkerboard rendering" y que conseguían una resolución aparente mucho mejor que 1080p sin el coste de renderizar a 4K. Dicha técnica no está exenta de artefactos, pero globalmente compensaba su uso.

Ahora con cosas con DLSS de Nvidia y similares la cosa está alcanzando unos niveles de calidad extraordinarios que no solo se aproximan a un 4K real, sino que en determinados aspectos lo superan.

 
Última edición:
  • Me gusta
Reacciones: WRC
A mi es que siempre me ha parecido una tontería la carrera por los K en vez de por los Hz... pero ya ves.
 
Yo tengo un monitor 2k 144hz para el curro...pero de vez en cuando uso steam y la calidad es cojonuda...2k 144hz
por eso digo que a veces es mejor 2k puros y ya se rescalará 4k que tampoco se pierde tanto. Porque meter 4k y que te bajen los frames a 30 pues no merece la pena realmente, al menos para mi.
 
Insisto, ¿qué resolución es para tí 2k?

Porque 1440p ya te digo yo que no es.
 
A nivel de calle (o de marketing) 2K es QHD o 1440p. Ya sabemos cómo va esto.
 
Arriba Pie