¿Qué es un filtro en los juegos? Filtrado anisotrópico

Pruebas de rendimiento:

Y ahora que nos hemos familiarizado con los conceptos básicos de filtrado y suavizado de texturas, podemos pasar a practicar.

Configuracion de Computadora:
Procesador: Intel Core 2 Quad Q6600 a 3200 MHz (400x8, 1,3125 V)
Tarjeta de vídeo: Palit Nvidia GeForce 8800GT
Placa base: Asus P5Q PRO TURBO
Memoria: 2x2048 MB DDR2 Corsair XMS2 a 1066 MHz, 5-5-5-15
Fuente de alimentación: Corsair CMPSU-850HXEU 850W
Enfriador de CPU: Zalman CNPS9700 LED
Sistema operativo: Windows 7 Ultimate x64
Versión del controlador de vídeo: Nvidia 195.62 x64

El tema principal de nuestras pruebas de hoy fue el muy antiguo, pero no menos famoso, Counter-Strike: Source, ya que es uno de los pocos juegos verdaderamente populares que ofrece una amplia gama de diferentes configuraciones de filtrado y suavizado. A pesar de la antigüedad del motor (2004), este juego aún puede cargar bastante bien incluso la plataforma más moderna. Aquí se presenta al usuario una amplia gama de configuraciones:

Las pruebas de filtrado y suavizado se llevaron a cabo en el punto de referencia integrado, a una resolución de 1280x1024. Todas las demás configuraciones se tomaron como máximas, como se muestra en la captura de pantalla anterior. Para acercar el resultado lo más posible a la verdad, cada parámetro se probó tres veces, después de lo cual se encontró la media aritmética de los valores resultantes.

Y entonces, ¿qué obtuvimos?

Los resultados fueron bastante inesperados. La tecnología de muestreo de cobertura (CSAA), que por definición debería consumir menos recursos que MSAA, muestra aquí una imagen completamente opuesta. Puede haber muchas razones para este fenómeno. En primer lugar, es necesario tener en cuenta que, en muchos aspectos, el rendimiento al activar el suavizado depende de la arquitectura de la GPU. Y la optimización de varias tecnologías del juego en sí y de la versión del controlador juega un papel igualmente importante. Por lo tanto, los resultados al utilizar otras tarjetas de video, o incluso una versión diferente del controlador, pueden ser completamente diferentes.

Las pruebas con el suavizado desactivado (marcado en azul para facilitar la percepción) mostraron una imagen aproximadamente igual, lo que indica una ligera diferencia en la carga en la tarjeta de video.

Además, existe una clara correspondencia entre los indicadores FPS, cuando se utiliza el mismo método anti-aliasing, para AF 8x y AF 16x. Al mismo tiempo, la diferencia oscila entre 1 y 4 fps (a excepción de MSAA 8x, donde la diferencia es de 11 fps). Esto sugiere que utilizar el filtrado 16x puede resultar muy útil si necesita mejorar la calidad de la imagen sin un impacto significativo en el rendimiento.

Y, sin embargo, es necesario hacer una reserva de que obtener los mismos valores de FPS directamente en el juego es simplemente irreal, ya que muchas escenas resultan mucho más difíciles, especialmente con muchos jugadores.

Imágenes de prueba:

¿Entonces que tenemos? Aprendimos sobre los efectos de diferentes configuraciones de configuración en el rendimiento. “¿Pero por qué es necesario todo esto?” - usted pregunta. Para mejorar la calidad de la imagen mostrada, responderé. ¿Existe tal aumento? Para responder a esta pregunta, sugiero echar un vistazo a las siguientes capturas de pantalla:

Billineal/MSAA 2xTrilineal/MSAA 2xAF 2x / MSAA 2x
AF 2x/CSAA 8xAF 2x / MSAA 8xAF 2x/CSAA 16x
AF 2x/CSAA 16xQAF 8x/MSAA x2AF 8x/CSAA 8x
AF 8x / MSAA 8xAF 8x/CSAA 16xAF 8x/CSAA 16xQ
AF 16x / MSAA 2xAF 16x/CSAA 8xAF 16x/MSAA 8x
AF 16x/CSAA 16xAF 16x/CSAA 16xQBillineal/CSAA 16xQ

Como puede ver, simplemente no hay una diferencia significativa en las combinaciones "arriba" de AF 8x / MSAA 8x (CSAA 8x). Pero esto resulta en un impacto notable en el rendimiento, especialmente cuando se utiliza Coverage Sampling AntiAliasing.

Conclusiones:

Seguramente entre los que lean este artículo habrá jugadores de Cs:s, HL2 y otros juegos basados ​​en el motor Source. Encontrarán este artículo más interesante y educativo que otros. Sin embargo, el propósito de este escrito fue únicamente hablar sobre tecnologías modernas que ayudan a mejorar la percepción visual de los juegos. Y las pruebas son una forma de mostrar la teoría expuesta en la práctica.

Por supuesto, para garantizar la confiabilidad de las lecturas, se deberían haber realizado pruebas de rendimiento tanto en otros chips de video como en juegos adicionales.

Sea como fuere, volviendo al tema de este artículo, cada uno elige con qué configuraciones jugar. Y no daré consejos ni recomendaciones, ya que de antemano están condenados al fracaso. Espero que la teoría y las pruebas anteriores le ayuden a familiarizarse más con las tecnologías descritas.

De Stormcss


Pateando brutalmente

Con la llegada de los juegos 3D, comenzaron a aparecer problemas que no existían en los juegos 2D: después de todo, ahora es necesario mostrar una imagen tridimensional en un monitor plano. Si el objeto está paralelo al plano de la pantalla cerca de él, no hay problemas: un píxel corresponde a un texel (un texel es un píxel de una imagen bidimensional superpuesta a una superficie 3D). ¿Pero qué hacer si el objeto está inclinado o está lejos? Después de todo, hay varios téxels por píxel y, dado que el monitor tiene un número limitado de píxeles, el color de cada uno debe calcularse a partir de varios téxels mediante un determinado proceso: el filtrado.


Para que las cosas sean más fáciles de entender, imaginemos que cada píxel es un "agujero" cuadrado en el monitor, disparamos "rayos de luz" desde los ojos y los texels están ubicados en una cuadrícula cuadrada detrás del monitor. Si colocamos la rejilla paralela al monitor inmediatamente detrás de ella, entonces la luz de un píxel cubrirá solo un texel. Ahora comenzaremos a alejar la rejilla, ¿qué obtendremos? El hecho de que nuestro punto de luz de un píxel ya cubrirá más de un texel. Ahora rotemos la red y obtengamos lo mismo: un punto de un píxel cubrirá muchos téxels. Pero un píxel puede tener un color, y si contiene muchos texels, entonces necesitamos un algoritmo con el que determinaremos su color: esto se llama filtrado de texturas.


Este es el algoritmo de filtrado más simple: se basa en el hecho de que para el color del píxel tomamos del píxel el color del texel más cercano al centro del punto de luz. La ventaja de este método es obvia: coloca la menor cantidad de carga en la tarjeta de video. También hay muchas desventajas: el color de un texel central puede diferir significativamente del color de docenas e incluso cientos de otros texels que caen en el punto del píxel. Además, la forma del punto en sí puede cambiar significativamente, pero su centro puede permanecer en el mismo lugar y, como resultado, el color del píxel no cambiará. Bueno, la principal desventaja es el problema del "bloqueo": cuando hay pocos téxels por píxel (es decir, un objeto al lado del reproductor), obtenemos que con este método de filtrado se llena una parte bastante grande de la imagen. con un color, lo que lleva a "bloques" claramente visibles del mismo color en la pantalla. La calidad de la imagen final es... simplemente terrible:


Por tanto, no es sorprendente que este tipo de filtrado ya no se utilice en la actualidad.


Con el desarrollo de las tarjetas de video, su potencia comenzó a aumentar, por lo que los desarrolladores de juegos fueron más allá: si tomas un texel por el color de un píxel, el resultado es malo. Bien, tomemos el color promedio de 4 texels y llamémoslo filtrado bilineal. Por un lado, todo mejorará: los bloqueos desaparecerán. Pero vendrá el enemigo número dos: la imagen borrosa cerca del jugador: esto se debe al hecho de que la interpolación requiere más texels que cuatro.

Pero este no es el problema principal: el filtrado bilineal funciona bien cuando el objeto está paralelo a la pantalla: entonces siempre puedes seleccionar 4 texels y obtener un color "promedio". Pero el 99% de las texturas están inclinadas hacia el jugador, y resulta que aproximamos 4 paralelepípedos rectangulares (o trapecios) a 4 cuadrados, lo cual es incorrecto. Y cuanto más inclinada esté la textura, menor será la precisión del color y más fuerte será el desenfoque:


Bien, dijeron los desarrolladores del juego: dado que 4 texels no son suficientes, tomemos dos por cuatro y, para igualar con mayor precisión el color, usaremos la tecnología de texturado mip. Como ya escribí anteriormente, cuanto más alejada esté la textura del reproductor, más téxeles habrá en un píxel y más difícil será para la tarjeta de video procesar la imagen. El texturizado MIP significa almacenar la misma textura en diferentes resoluciones: por ejemplo, si el tamaño de la textura original es 256x256, entonces sus copias se almacenan en la memoria en 128x128, 64x64, etc., hasta 1x1:


Y ahora, para filtrar, no solo se toma la textura en sí, sino también el mapa mip: dependiendo de si la textura está más o más cerca del jugador, se toma un mapa mip de textura más pequeño o más grande, y ya en él los 4 texels más cercanos. hasta el centro del píxel y se realiza un análisis bilineal de filtración. A continuación, se toman los 4 texels más cercanos al píxel de la textura original y nuevamente se obtiene el color "promedio". Después de eso, el color "promedio" se toma de los colores promedio del mapa MIP y la textura original, y se asigna al píxel; así es como funciona el algoritmo de filtrado trilineal. Como resultado, carga la tarjeta de video un poco más que el filtrado bilineal (el mapa MIP también debe procesarse), pero la calidad de la imagen es mejor:


Como puede ver, el filtrado trilineal es mucho mejor que el bilineal y aún más el filtrado puntual, pero la imagen aún se vuelve borrosa a largas distancias. Y la imagen borrosa se debe al hecho de que no tenemos en cuenta el hecho de que la textura se puede inclinar con respecto al reproductor, y este es precisamente el problema que resuelve el filtrado anisotrópico. Brevemente, el principio de funcionamiento del filtrado anisotrópico es el siguiente: se toma una textura MIP, se coloca en la dirección de visualización, después de lo cual sus valores de color se promedian con el color de un cierto número de texels a lo largo de la dirección de visualización. El número de texels varía de 16 (para filtrado x2) a 128 (para x16). En pocas palabras, en lugar de un filtro cuadrado (como en el filtrado bilineal), se utiliza uno alargado, que permite seleccionar mejor el color deseado para un píxel de la pantalla. Dado que puede haber un millón o incluso más de píxeles en la pantalla, y cada texel pesa al menos 32 bits (color de 32 bits), el filtrado anisotrópico requiere un enorme ancho de banda de memoria de video: decenas de gigabytes por segundo. Los requisitos de memoria tan grandes se reducen debido a la compresión de texturas y el almacenamiento en caché, pero aún así, en tarjetas de video con memoria DDR o bus de 64 bits, la diferencia entre el filtrado anisotrópico trilineal y x16 puede alcanzar el 10-15% de fps, pero la imagen después de dicho filtrado resulta ser el mejor:

Filtrado de texturas.

El filtrado resuelve el problema de determinar el color de un píxel basándose en los téxeles existentes de una imagen de textura.

El método más simple para aplicar texturas se llama muestreo puntual(muestreo de un solo punto). Su esencia es que para cada píxel que forma el polígono, se selecciona un texel de la imagen de textura más cercana al centro del punto de luz. Se produce un error porque el color de un píxel está determinado por varios téxels, pero solo se seleccionó uno.

Este método es muy impreciso y el resultado de su uso es la aparición de irregularidades. Es decir, siempre que los píxeles son más grandes que los texels, se observa un efecto de parpadeo. Este efecto se produce si parte del polígono está lo suficientemente lejos del punto de observación como para que se superpongan muchos téxels en el espacio ocupado por un píxel. Tenga en cuenta que si el polígono está ubicado muy cerca del punto de observación y los texels son más grandes que los píxeles, se observa otro tipo de degradación de la calidad de la imagen. En este caso, la imagen comienza a verse en bloques. Este efecto se produce cuando la textura puede ser lo suficientemente grande, pero la limitación en la resolución de pantalla disponible impide que la imagen original se represente correctamente.

Segundo método - filtrado bilineal(Filtrado Bi-Linear) consiste en utilizar tecnología de interpolación. Para determinar los texels que se deben utilizar para la interpolación, se utiliza la forma básica del punto de luz: un círculo. Esencialmente, un círculo se aproxima a 4 texels. El filtrado bilineal es una técnica para eliminar las distorsiones de la imagen (filtrado), como el "bloqueo" de las texturas cuando se amplían. Al girar o mover lentamente un objeto (acercándose/alejándose), puede notarse el "salto" de píxeles de un lugar a otro, es decir, aparece el bloqueo. Para evitar este efecto, se utiliza el filtrado bilineal, que utiliza un promedio ponderado del valor de color de cuatro texels adyacentes para determinar el color de cada píxel y, como resultado, determina el color de la textura superpuesta. El color del píxel resultante se determina después de realizar tres operaciones de mezcla: primero, se mezclan los colores de dos pares de texels y luego se mezclan los dos colores resultantes.

La principal desventaja del filtrado bilineal es que la aproximación se realiza correctamente sólo para polígonos que se encuentran paralelos a la pantalla o al punto de observación. Si el polígono se gira en ángulo (y esto ocurre en el 99% de los casos), se utiliza una aproximación incorrecta, ya que se debe aproximar una elipse.

Los errores de "aliasing de profundidad" surgen del hecho de que los objetos más alejados del punto de vista aparecen más pequeños en la pantalla. Si un objeto se mueve y se aleja del punto de visión, la imagen de textura superpuesta al objeto que se encoge se comprime cada vez más. Con el tiempo, la imagen de textura aplicada al objeto se comprime tanto que se producen errores de renderizado. Estos errores de renderizado son especialmente problemáticos en la animación, donde tales artefactos de movimiento causan efectos de parpadeo y cámara lenta en partes de la imagen que deberían estar estacionarias y estables.

Los siguientes rectángulos con textura bilineal pueden servir como ilustración del efecto descrito:

Arroz. 13.29. Sombrear un objeto utilizando el método de filtrado bilineal. La aparición de artefactos de "aliasing de profundidad", que resultan en la fusión de varios cuadrados en uno.

Para evitar errores y simular el hecho de que los objetos distantes parecen menos detallados que los más cercanos al punto de observación, se utiliza una técnica conocida como mapeo mip. En definitiva, mip-mapping es la superposición de texturas con diferentes grados o niveles de detalle, cuando dependiendo de la distancia al punto de observación se selecciona una textura con el detalle requerido.

Una textura mip (mip-map) consta de un conjunto de imágenes prefiltradas y escaladas. En una imagen asociada con una capa de mapa MIP, un píxel se representa como el promedio de cuatro píxeles de la capa anterior a una resolución más alta. Por lo tanto, la imagen asociada con cada nivel de textura mip es cuatro veces más pequeña que el nivel de mapa mip anterior.

Arroz. 13.30. Imágenes asociadas con cada nivel de mapa MIP de la textura ondulada.

De izquierda a derecha tenemos los niveles de mip-map 0, 1, 2, etc. Cuanto más pequeña se vuelve la imagen, más detalles se pierden, hasta cerca del final cuando no se ve nada excepto una mancha borrosa de píxeles grises.

El nivel de detalle, o simplemente LOD, se utiliza para determinar qué nivel de mapa MIP (o nivel de detalle) se debe seleccionar para aplicar una textura a un objeto. LOD debe corresponder al número de textos superpuestos por píxel. Por ejemplo, si el texturizado se produce con una proporción cercana a 1:1, entonces el LOD será 0, lo que significa que se utilizará el nivel de mapa MIP con la resolución más alta. Si 4 texels se superponen a un píxel, entonces el LOD será 1 y se utilizará el siguiente nivel de mip con menor resolución. Normalmente, a medida que se aleja del punto de observación, el objeto que merece mayor atención tiene un valor LOD más alto.

Si bien la textura mip resuelve el problema de los errores de alias de profundidad, su uso puede provocar la aparición de otros artefactos. A medida que el objeto se aleja cada vez más del punto de observación, se produce una transición de un nivel de mapa MIP bajo a uno alto. Cuando un objeto se encuentra en un estado de transición de un nivel de mapa mip a otro, aparece un tipo especial de error de visualización, conocido como "mip-banding": banding o laminación, es decir. límites claramente visibles de transición de un nivel del mapa MIP a otro.

Arroz. 13.31. La cinta rectangular consta de dos triángulos texturizados con una imagen ondulada, donde los artefactos de "bandas mip" se indican con flechas rojas.

El problema de los errores de "mip-banding" es especialmente grave en la animación, debido al hecho de que el ojo humano es muy sensible a los desplazamientos y puede notar fácilmente el lugar de una transición brusca entre los niveles de filtrado cuando se mueve alrededor de un objeto.

Filtración Tri lineal(filtrado trilineal) es un tercer método que elimina los artefactos de bandas mip que se producen cuando se utiliza texturado mip. Con el filtrado trilineal, para determinar el color de un píxel, se toma el valor de color promedio de ocho téxels, se toman cuatro de dos texturas adyacentes y, como resultado de siete operaciones de mezcla, se determina el color del píxel. Cuando se utiliza el filtrado trilineal, es posible mostrar un objeto texturizado con transiciones suaves de un nivel de mip al siguiente, lo que se logra determinando el LOD interpolando dos niveles de mapa de mip adyacentes. Resolviendo así la mayoría de los problemas asociados con la textura mip y los errores debidos al cálculo incorrecto de la profundidad de la escena ("aliasing de profundidad").

Arroz. 13.32. Mapa MIP piramidal

A continuación se proporciona un ejemplo del uso del filtrado trilineal. Aquí nuevamente se usa el mismo rectángulo, texturizado con una imagen ondulada, pero con transiciones suaves de un nivel de mip al siguiente debido al uso de filtrado trilineal. Tenga en cuenta que no hay errores de renderizado notables.

Arroz. 13.33. Un rectángulo texturizado con una imagen ondulada se representa en la pantalla mediante textura mip y filtrado trilineal.

Hay varias formas de generar texturas MIP. Una forma es simplemente prepararlos con antelación utilizando paquetes de gráficos como Adobe PhotoShop. Otra forma es generar texturas MIP sobre la marcha, es decir. durante la ejecución del programa. Las texturas MIP preparadas previamente significan un 30% adicional de espacio en disco para texturas en la instalación básica del juego, pero permiten métodos más flexibles para controlar su creación y te permiten agregar diferentes efectos y detalles adicionales a diferentes niveles MIP.

¿Resulta que el mapeo MIP trilineal es lo mejor que puede ser?

Por supuesto que no. Se puede ver que el problema no está sólo en la proporción de tamaños de píxeles y texel, sino también en la forma de cada uno de ellos (o, para ser más precisos, en la proporción de formas).

El método de textura mip funciona mejor para polígonos que están directamente frente a frente con el punto de vista. Sin embargo, los polígonos que son oblicuos en relación con el punto de observación doblan la textura superpuesta de modo que diferentes tipos y áreas de forma cuadrada de la imagen de textura se pueden superponer a los píxeles. El método de texturizado mip no tiene esto en cuenta y el resultado es que la imagen de la textura queda demasiado borrosa, como si se hubieran utilizado los texels incorrectos. Para resolver este problema, necesita tomar muestras de más téxels que componen la textura y seleccionar estos téxeles teniendo en cuenta la forma "mapeada" del píxel en el espacio de textura. Este método se llama filtrado anisotrópico(“filtrado anisotrópico”). El texturizado mip convencional se denomina "isotrópico" (isotrópico o uniforme) porque siempre filtramos juntas regiones cuadradas de texels. El filtrado anisotrópico significa que la forma de la región de texel que utilizamos cambia según las circunstancias.

Descripción de algoritmos de texturizado: filtrado de texturas

Filtrado de texturas

Recientemente, las empresas involucradas en el desarrollo de gráficos por computadora en 3D se han esforzado constantemente por aumentar el detalle y la calidad de la imagen en la renderización por computadora. Constantemente se desarrollan nuevas tecnologías y arquitecturas de renderizado 3D, se mejoran y actualizan los algoritmos de compresión para aumentar el ancho de banda de la memoria y la arquitectura de la memoria también está experimentando cambios. Desafortunadamente, la brecha entre las ideas avanzadas en gráficos 3D y las PC convencionales es bastante grande: realismo en los juegos modernos, etc. fabricado utilizando tecnologías desarrolladas hace 1-2 años. Además, la potencia de las PC normales es muy limitada, por lo que para los juegos se utilizan algoritmos bastante simples, de los que hablaremos en este artículo: esto es texturizado y, con más detalle, filtrado de texturas.

Teniendo un ordenador ideal con un rendimiento muy superior al actual, podríamos mostrar una imagen en tiempo real con un renderizado muy realista. Sería posible calcular millones, incluso miles de millones de píxeles, y establecer su propio color para cada uno de ellos; en este caso, la imagen simplemente no se puede distinguir de un vídeo real. Pero, desgraciadamente, por ahora son sólo sueños: para los ordenadores actuales sigue siendo demasiado difícil procesar simultáneamente el dibujo de objetos en movimiento, etc. Además, todavía existe una catastrófica falta de ancho de banda de memoria. Para garantizar una buena calidad en las aplicaciones 3D, se están desarrollando tecnologías para simplificar el proceso de representación de imágenes.

Una de las tecnologías más utilizadas que simplifican los cálculos de imágenes con una calidad bastante buena es el texturizado. Una textura es una imagen 2D aplicada a un objeto 3D o cualquier superficie. Tomemos como ejemplo la siguiente situación: usted es un desarrollador y quiere que el usuario vea una pared de ladrillos. Se crea un marco de pared 3D y puedes seleccionar los ladrillos por separado. Ahora tomamos una imagen 2D de un ladrillo y la colocamos sobre un ladrillo en un marco 3D, y así sucesivamente, toda la pared. El resultado es una pared 3D normal y el chip gráfico no necesita dibujar ni calcular cada píxel: calcula las coordenadas del marco 3D al que está adjunta la imagen 2D.

Hay un concepto más en texturizado que debería discutirse. Al superponer una imagen 2D, ésta se divide en muchos fragmentos coloreados. Esto se hace para escalar el objeto: la textura es bidimensional y un objeto tridimensional debería cambiar al acercarse o alejarse. La textura también debe cambiar para mantener el realismo y la calidad. Entonces, la textura se divide en muchos fragmentos de colores, que se denominan texels (elementos de textura). En el futuro, por ejemplo, al acercarse a un objeto, no será necesario recargar una nueva textura: los texels se toman de la textura original y se amplían. Por supuesto, se pierde calidad, pero se mantiene en un nivel bastante alto, además, con este enfoque la gráfica y la memoria se descargan significativamente.

Mapeo Mip

El movimiento es una característica de todos los objetos mostrados; Incluso si el objeto en sí está estacionario, aún cambia cuando el ángulo de visión del personaje cambia debido a su movimiento. Por lo tanto, la textura colocada sobre el objeto también debe moverse; esto implica algunas complicaciones y procesamiento adicional. Pero ¿qué pasa si miramos un objeto desde algún ángulo, por ejemplo, desde el suelo? El suelo puede ocupar una gran superficie y, para mantener el realismo, cuanto más lejos esté de nosotros, más pequeños serán sus componentes (por ejemplo, baldosas). Para garantizar esto, la textura debe reducirse de cierta manera. Desafortunadamente, simplemente cambiar la resolución de las texturas puede provocar un efecto bastante desagradable, cuando una textura se fusiona visualmente con otra. Otro efecto desagradable puede ocurrir si el texel es mayor que el número requerido de píxeles. Esto sucede cuando miras una textura que está muy lejos. Ambas situaciones surgen cuando se utiliza el antialiasing tradicional. Y he aquí ejemplos reales de estos casos: no hay

Para mitigar tales situaciones, se creó el mapeo mip. Esta tecnología funciona de manera muy simple: la textura original se genera en diversas situaciones de tal manera que se muestre correctamente la textura a diferentes distancias y en diferentes ángulos de visión. Al acercarse a un objeto, la textura se muestra con una resolución más alta y al alejarse, con una resolución más baja. Por lo tanto, el mapeo mip mejora la calidad de la imagen y reduce las irregularidades. A continuación se muestran las mismas imágenes, solo que con el mapeo MIP habilitado: no hay imágenes en este resumen.

¿Has notado una mejora en la calidad? Se nota especialmente en la segunda imagen con el patrón amarillo y rojo. Tenga en cuenta: la calidad no solo ha mejorado de las texturas distantes: las cercanas también se ven mucho mejor. En general, una imagen con mip-mapping se ve mucho mejor que sin él: no se notan numerosas distorsiones ni curvaturas durante la visualización normal.

Filtración

La textura de puntos es quizás el principal tipo de textura. Con la textura de puntos, se selecciona un fragmento separado de la textura (texel) y se utiliza como valor de color para los píxeles. El caso es que este método conlleva cierto descuido y, como consecuencia, un deterioro de la calidad de la imagen. Una imagen así es simplemente inaceptable según los estándares existentes. A continuación se muestra una textura que ha sido procesada con textura de puntos (parte inferior de la imagen). La imagen muestra la degradación teórica de la calidad al elegir un tamaño de texel demasiado grande.

Filtración bilineal

Otro método de texturizado es el filtrado bilineal. El principio de funcionamiento de este método de texturizado es muy similar al método de puntos, pero a diferencia de él, no se utiliza la imagen completa, sino un bloque de 4 texels para seleccionar el color de los píxeles. Esto aumenta la precisión al elegir los colores de los píxeles y logra una mejor representación de los pequeños detalles individuales de la imagen.

Esta imagen muestra un ejemplo de cómo dibujar una imagen usando filtrado bilineal y mapeo MIP.

Filtración Tri lineal

El filtrado bilineal recibió su segundo nacimiento en forma de filtrado trilineal, cuyo principio de funcionamiento es exactamente el mismo, pero se utiliza un algoritmo de cálculo mejorado, que aumenta la precisión de la representación. El filtrado trilineal, al igual que el filtrado bilineal, utiliza bloques de 4 texels, al igual que en el filtrado bilineal, la imagen se normaliza y luego se normaliza la imagen del bloque límite de 4 texels. El último paso es analizar los límites de ambos bloques, como resultado de lo cual se corrigen posibles errores e inconsistencias en los límites de estos 2 bloques. En el filtrado bilineal, es bastante común ver líneas que aparecen en los límites de los bloques, que desaparecen cuando se utiliza el filtrado trilineal. Además, cuando se utiliza filtrado trilineal, se eliminan mejor las distorsiones e irregularidades durante el movimiento y al cambiar el ángulo de visión. A continuación se muestra un diagrama de cómo se utiliza y en acción el filtrado trilineal.

Cabe señalar que algunos defectos aparecen a una distancia considerable incluso cuando se utiliza filtrado trilineal. Esto se debe a que fue diseñado originalmente para reducir la distorsión entre los niveles del mapa MIP.

La imagen se obtiene con muy alta calidad sólo en ángulos de visión más directos; en el dibujo real, las formas geométricas del objeto pueden verse alteradas. Mira la imagen de SGI:

Filtrado anisotrópico

La forma de los objetos texturizados, tanto durante el filtrado bilineal como trilineal, puede distorsionarse porque Ambos filtros son isotrópicos: la imagen se filtra en una forma determinada, en forma de cuadrado. La mayoría de los objetos generados no se ajustan a esta forma específica e inmutable: para su procesamiento de alta calidad, es necesario utilizar otro tipo de filtrado: el anisotrópico. Anisotropía consta de varias palabras en latín y significa literalmente "ani" - no, "iso" - una determinada forma y "tropia" - modelo - es decir. Modelos de forma indeterminada. El nombre de esta tecnología refleja su implementación técnica. El filtrado anisotrópico generalmente opera en al menos 8 texels, niveles de mapa mip en todas las direcciones y utiliza un modelo de una forma predeterminada. Como resultado, se eliminan el ruido y la distorsión de los objetos y la imagen en su conjunto es de mayor calidad.

Compare dos imágenes: una usó filtrado anisotrópico de 16 texel, que eliminó las distorsiones entre los niveles del mapa MIP y el ruido de la imagen; la segunda imagen tenía el filtrado anisotrópico desactivado.

Preste atención a las largas distancias de la imagen: las diferencias entre el filtrado anisotrópico e isotrópico son obvias. La calidad de la textura con filtrado anisotrópico sigue siendo similar a la original incluso a largas distancias; Con el filtrado isotrópico, existe una tendencia a "suavizar" la imagen, lo que resulta en una pérdida de calidad. El filtrado anisotrópico, al igual que el filtrado trilineal, reduce las irregularidades de la textura. Pero cuando se utiliza el filtrado anisotrópico, la calidad es aún mejor, porque utiliza una cantidad mucho mayor de bloques para comparar. Aquí hay otro ejemplo que muestra el filtrado anisotrópico en acción:

Durante mucho tiempo, las tarjetas gráficas de consumo no proporcionaban la calidad de imagen posible con el filtrado anisotrópico. Con la llegada de chips gráficos como NVIDIA GeForce2 y ATI Radeon, fue posible utilizar el filtrado anisotrópico, que analiza bloques de 16 téxels en el hardware. Las tarjetas de video GeForce3 y Radeon 8500 ya utilizan filtrado anisotrópico de 32 texel. La siguiente imagen muestra una imagen cercana a lo que se produciría usando un filtrado anisotrópico profesional de 64 texel:

Futuro…

En un futuro próximo, el filtrado anisotrópico se utilizará cada vez con más frecuencia. Ya se están desarrollando nuevas tecnologías para eliminar irregularidades y angularidades de los objetos para la próxima generación de chips gráficos. En un futuro próximo veremos imágenes procesadas mediante bloques multitexel. Habrá tarjetas de video con soporte de hardware para filtrado anisotrópico utilizando bloques de 128 texel. Al mismo tiempo, la calidad de la imagen mejorará significativamente y aumentará la productividad.

Además:

Antialiasing y filtrado anisotrópico hoy: ¿qué, dónde y cuánto? Parte uno

De hecho, un artículo con un título así podría comenzar con algún tópico como “todo usuario de computadora ha visto en algún momento el funcionamiento de técnicas de mejora de imágenes 3D como el antialiasing o el filtrado anisotrópico”. O esto: "mientras nuestras naves espaciales surcan el espacio, los programadores de NVIDIA y ATI buscan formas de mejorar el rendimiento de técnicas de mejora de imágenes conocidas". La segunda banalidad tiene muchas más posibilidades de sobrevivir, en el sentido de que ya intriga con cierta apariencia de que investigaremos la cuestión de quién y cómo “optimizó” a sus conductores.

Sin embargo, probablemente prescindiremos de todos los tópicos. Porque es mucho más interesante especular sobre cuán accesibles se han vuelto ahora las técnicas de mejora de imágenes para el usuario común o, más correctamente, para el jugador común. Los jugadores de hoy son los consumidores más activos de todas las nuevas tecnologías e innovaciones en 3D. En general, hoy en día se necesita un potente acelerador 3D exclusivamente para jugar a los últimos juegos de ordenador con potentes motores 3D que funcionan con sombreadores complejos de varias versiones. Hoy en día no sorprenderás a nadie con un juego con sombreadores de píxeles versión 2.0; en el mundo de los videojuegos, esta diversión se está convirtiendo poco a poco en algo cotidiano. La mayoría de los juegos todavía se lanzan utilizando el modelo de sombreador 1.1 debido a que lo más importante para los desarrolladores de juegos es asegurarse de que su juego funcione razonablemente bien en el hardware que tiene la gran mayoría de los jugadores. Fabricar un motor súper sofisticado ahora es un gran desperdicio e incluso un riesgo. Juzgue usted mismo: el desarrollo de un motor de la clase "Doom 3" o "Half-Life 2" (bueno, agreguemos aquí al pionero de los sombreadores 2.0 en todo su esplendor, una creación de Crytek - "FarCry", para obtener una verdadera trinidad omnipresente) requiere una gran cantidad de tiempo, lo que plantea dificultades adicionales en el desarrollo: es necesario desarrollar el motor en un plazo tal que las innovaciones y los desarrollos originales no queden obsoletos durante la creación del motor.

Si duda de que esto pueda suceder, entonces es completamente en vano: en el caso de "Half-Life 2" todo fue exactamente así (y "Doom 3" se desarrolló teniendo en cuenta la GeForce 3 y se lanzó cuando GeForce FX). Además, el desarrollo de motores de esta clase está asociado con altos costos de desarrollo: los programadores talentosos hoy en día no son baratos. Y recientemente se ha prestado mucha atención (incluso más de la necesaria), por así decirlo, a la "política" en relación con los motores de juegos.

Sí, sí, así es, has oído bien, el campo 3D tiene desde hace tiempo su propia política, basada, por supuesto, en los intereses de los dos gigantes del diseño de procesadores gráficos: ATI y NVIDIA. El duro Canadá lleva mucho tiempo luchando contra la soleada California y hasta ahora no se vislumbra un final para este enfrentamiento que, por supuesto, sólo nos beneficia a nosotros, los consumidores comunes y corrientes. Ahora no es suficiente desarrollar un motor genial: para tener éxito, es necesario contar con el apoyo de la diva californiana NVIDIA o de la canadiense ATI; afortunadamente, ahora tanto la primera como la segunda tienen sus propios programas de asociación para desarrolladores de juegos. NVIDIA llama a este programa "La forma en que se debe jugar", y ATI lo llama "Ponlo en el juego". Todo es bastante elocuente y claro: NVIDIA dice que "tienes que jugar así", y no nada así, y ATI asegura que definitivamente obtendremos todo lo que queremos en el juego en sí. Bastante tentador, ¿no? Los motores son de la clase "Doom 3" y "Half-Life 2" (en el caso de este último, el motor se llama Source, aunque para facilitar la comprensión lo llamaremos “Half-Life 2” para mantener la asociación correcta) y se desarrollaron inicialmente en estrecha colaboración con ingenieros de fabricantes de chips gráficos para que los juegos Funcionaría mejor en la GPU de un fabricante.

Por lo tanto, como podemos ver, las revoluciones en el campo de los nuevos motores de gráficos 3D son muy problemáticas y, por lo tanto, estas revoluciones en el mundo de los motores de juegos no ocurren con mucha frecuencia. Sin embargo, es necesario mejorar la calidad de la imagen de alguna manera. Si simplemente aumentamos el número de polígonos en el cuadro, obteniendo así una imagen visualmente más hermosa de percibir, al final llegaremos al punto en que el acelerador no podrá procesar la escena con un nivel aceptable de velocidad de cuadros. , pero todavía faltará algo en la imagen. Las escaleras de píxeles seguirán existiendo y la calidad de las texturas no mejorará. Hay formas menos obvias de mejorar la calidad de una imagen tridimensional en un monitor: filtrado anisotrópico y antialiasing. Estas técnicas de mejora de imágenes no tienen nada que ver directamente con el motor 3D en sí y, naturalmente, no pueden hacer que el motor en sí sea más hermoso, pero pueden trabajar con texturas e imágenes de tal manera que en la salida, es decir, en la monitor, podemos ver una imagen visualmente más bella y más suave.

Es en el campo del filtrado anisotrópico y el antialiasing donde se lleva a cabo una enorme optimización de los controladores tanto por parte de NVIDIA como de ATI. Las empresas tienen diferentes enfoques y políticas con respecto a estas mismas optimizaciones, a veces no del todo justas para los usuarios. Sin embargo, nuestro artículo pretende precisamente comprender qué es bueno y qué es malo en los enfoques de ambas empresas fabricantes de GPU y qué puede mejorar la calidad de imagen en los juegos 3D actuales.

¿Qué es el antialiasing y para qué se utiliza?

Antes de entrar en detalles sobre un tema tan candente como la optimización del anti-aliasing y los distintos tipos de filtrado de texturas, no vendrá mal (e incluso decir, es necesario) adquirir algunos conocimientos teóricos sobre el tema de nuestra conversación de hoy.

Entonces, antialiasing: ¿qué es y por qué es necesario? En primer lugar, en la palabra “antialiasing” es necesario resaltar la parte “anti”. Está muy claro que esta parte de la palabra implica que el fenómeno mismo del "anti-aliasing" tiene como objetivo combatir algo. Como puedes imaginar, en nuestro caso – con “aliasing”. Por lo tanto, en este momento es importante que entendamos claramente qué es el famoso "aliasing".

En primer lugar, debe comprender claramente que la imagen que usted y yo vemos todos los días en las pantallas de nuestros monitores está formada por las llamadas pequeñas partículas, comúnmente llamadas píxeles. Una buena analogía en este sentido es el ejemplo del papel cuadriculado. La imagen en el monitor es el mismo papel a cuadros, solo que en este caso son muy, muy pequeños. Si dicen que la resolución de la pantalla es 1024x768 con color de 32 bits, esto significa que en el monitor caben 1024 píxeles horizontalmente y verticalmente 768. Además, cada píxel se puede pintar con un color de los disponibles en la paleta de 32 bits. De momento, el color de 32 bits es el límite de lo que podemos conseguir en la pantalla de un ordenador. Las mejores mentes de la humanidad (el mismo Carmack) ya hablan de la necesidad de cambiar al color de 64 bits y señalan las desventajas obvias de la paleta de 32 bits. Hubo un tiempo en que, al pasar del color de 16 bits a 32 bits, esta necesidad estaba claramente justificada y había razones reales por las que valdría la pena cambiar a 32 bits. La transición actual al color de 64 bits es bastante exagerada. Al igual que en el caso de 16 y 32 bits, con el tiempo habrá que esperar bastante tiempo hasta que los aceleradores de todos los niveles puedan procesar colores de 64 bits a una velocidad aceptable.

La gran mayoría de los artículos que de una forma u otra abordan los principios de la construcción de imágenes en 3D y donde hablan sobre antialiasing están repletos de un ejemplo simple, pero al mismo tiempo más efectivo, que puede usarse para comprender bastante bien. qué es el antialiasing. Mire la inscripción ampliada "Actualizar", hecha en Word y luego simplemente ampliada en Photoshop. No se ve muy bien, ¿verdad? A los lados de las letras se puede ver el llamado peine o, como también se le llama, “escalera”. En esencia, este mismo "peine" o "escalera" es un alias. Otro ejemplo puede estar representado por un objeto geométrico, como una pirámide. El mismo "peine" también es claramente visible a lo largo de sus bordes. Ahora mira otra imagen de la misma pirámide, pero con el doble de resolución. Ya se ve mucho mejor y el “peine” es casi invisible. Como se mencionó anteriormente, este efecto, suavizar el "peine", se logró debido al hecho de que aumentamos la resolución 2 veces.

¿Qué quiere decir esto? Supongamos que hemos renderizado una pirámide con una resolución de 200x200 píxeles (arriba ya hemos aclarado en detalle la cuestión de qué son los píxeles y por qué son necesarios). Aumentamos el número de puntos vertical y horizontalmente exactamente 2 veces, es decir, obtuvimos una imagen con una resolución de 400 píxeles verticalmente y 400 píxeles horizontalmente. Esto también significa que la cantidad de puntos de nuestro objeto que estaba en la escena se ha duplicado. ¿Qué efecto tuvo esto en nuestro efecto de aliasing? Obviamente, se ha vuelto mínimo, es decir, se ha suavizado; después de todo, el número de puntos a lo largo de los bordes del objeto también se ha duplicado. La clave aquí es la palabra “suavizado”. Después de todo, el suavizado también se llama anti-aliasing, que refleja la esencia misma de la tecnología, que suaviza esa misma "escalera" a lo largo de los bordes de los objetos tridimensionales.

De hecho, después de aumentar la resolución, la "escalera" del borde de la pirámide no ha desaparecido: permanece allí como antes. Sin embargo, debido al hecho de que aumentamos la resolución (lo que significa un aumento en los píxeles que se gastan en mostrar la pirámide), el efecto "escalera" se suavizó debido a las peculiaridades de la visión humana, que ya no ve claramente los píxeles. en el borde de un objeto. Está absolutamente claro que si aumenta cada vez más la resolución, el efecto de alias se observará cada vez en menor medida. Más precisamente, el ojo humano empezará a notarlo cada vez menos, ya que el efecto de aliasing en sí no desaparecerá. Pero también está absolutamente claro que no será posible aumentar la resolución de forma indefinida, porque los monitores, incluso los más modernos, tienen resoluciones finitas, y no tan grandes, lo que no nos permitirá aumentar constantemente el número de puntos. En pocas palabras, el efecto antialiasing más simple se puede lograr simplemente aumentando la resolución de la pantalla, pero la resolución no puede aumentar indefinidamente. ¿Parecería que no hay salida? Sin embargo, en realidad se encontró y se basa en la misma característica de la visión humana.

Esto se logró gracias a las suaves transiciones de colores en la imagen. De hecho, la mejora visual de la imagen no se debe a un aumento físico de la resolución, sino, por así decirlo, a un aumento del color en la resolución. En este artículo no describiremos algoritmos para calcular estos puntos y no profundizaremos en los cálculos matemáticos, sino que solo hablaremos sobre el principio de funcionamiento de dicho antialiasing. La escalera en los límites de los objetos es visible solo porque la mayoría de las veces los bordes de los objetos tridimensionales se destacan con bastante fuerza en color del resto de la imagen y aparecen como líneas delgadas de un píxel. Esto se puede compensar colocando una cantidad de puntos con colores calculados a partir de los valores de color del borde mismo y los puntos cerca de ese borde. Es decir, si el borde de un objeto es negro y el fondo es blanco, entonces el punto adicional junto a la línea del borde negro se volverá gris. Cuantos más puntos adicionales haya cerca del borde de cualquier objeto 3D, más suaves se verán sus bordes y menos perceptible será la escalera. Este método se llama antialiasing de bordes. La calidad de antialiasing, configurada en el controlador de la tarjeta de video, como por ejemplo: 2x, 4x, 6x, 8x significa la cantidad de píxeles adicionales colocados alrededor de la línea que necesita antialiasing.

Filtrado anisotrópico: un mini programa educativo para principiantes

Para comprender qué es el filtrado, es necesario tener algunos conocimientos básicos. Ya hemos descubierto que la imagen en la pantalla consta de muchos píxeles, cuyo número está determinado por la resolución. Para generar una imagen en color, su tarjeta gráfica debe detectar el color de cada píxel. Su color se determina superponiendo imágenes de textura sobre polígonos ubicados en un espacio tridimensional. Las imágenes de textura constan de píxeles, o más bien texels, es decir, un texel es un píxel de una imagen bidimensional superpuesta a una superficie 3D. El principal dilema es este: qué texel o texels determinan el color de un píxel en la pantalla. Para imaginar el problema del filtrado, imaginemos una imagen. Digamos que su pantalla es una losa con muchos agujeros redondos, cada uno de los cuales es un píxel. Para determinar qué color tiene un píxel en relación con la escena tridimensional ubicada detrás de la placa, basta con mirar a través de uno de los agujeros.

Ahora imagina un rayo de luz que pasa por uno de los agujeros y golpea nuestro polígono texturizado. Si este último está situado paralelo al orificio por el que pasa el haz de luz, el punto de luz tendrá forma de círculo. De lo contrario, si el polígono no es paralelo al agujero, el punto de luz se distorsiona y tiene forma elíptica. Creemos que muchos lectores en este momento se hacen una pregunta: "¿Cómo se relacionan todas estas placas, un agujero, un haz de luz con el problema de determinar el color de un píxel?" ¡Atención! Frase clave: todos los polígonos situados en el punto de luz determinan el color del píxel. Todo lo anterior es el conocimiento básico necesario para comprender varios algoritmos de filtrado.

Y ahora, para que comprenda mejor por qué es necesario el filtrado, veamos los procesos que tienen lugar en el ejemplo del legendario "Quake 3 Arena". Imagina una especie de corredor con muchos cuadrados y varios adornos (afortunadamente, en Quake 3 Arena hay suficiente de esto). El adorno al comienzo del corredor es muy detallado, y más cerca del final del corredor (horizonte) los elementos del adorno se vuelven cada vez más pequeños, es decir, se muestran con menos píxeles. Como resultado, se pierden detalles como las costuras entre los elementos del adorno, lo que, en consecuencia, conduce a un deterioro en la calidad de la imagen.

El problema es que el controlador de la tarjeta gráfica no sabe qué detalles de la textura son importantes.

Muestreo puntual

El muestreo de puntos es la forma más sencilla de determinar el color de un píxel. Este algoritmo se basa en una imagen de textura: solo se selecciona un texel, el más cercano al centro del punto de luz, y a partir de él se determina el color del píxel. No es difícil adivinar que esto es completamente incorrecto. Primero, el color de un píxel está determinado por varios téxels y solo seleccionamos uno. En segundo lugar, la forma del punto de luz puede cambiar y el algoritmo no lo tiene en cuenta. ¡Pero en vano!

La principal desventaja del muestreo en línea es el hecho de que cuando el polígono se encuentra cerca de la pantalla, la cantidad de píxeles será significativamente mayor que la de texels, por lo que la calidad de la imagen se verá afectada en gran medida. El llamado efecto de bloqueo, como creemos, muchos pudieron observar en juegos de computadora antiguos, por ejemplo, en el mismo legendario "Doom".

El muestreo puntual tiene una ventaja. Debido al hecho de que la determinación del color de un píxel se realiza utilizando solo un texel, este método no es crítico para el ancho de banda de la memoria, y esto automáticamente le da a este método de filtrado enormes beneficios en el sentido de que muy pocos recursos del acelerador 3D se gastan en filtrar usando este esquema.

Filtrado bilineal

Filtrado bilineal: filtrado bilineal basado en el método de uso de tecnología de interpolación. Para determinar los texels necesarios se utiliza la forma básica del punto de luz, es decir, un círculo. En nuestro ejemplo de círculo, este último se aproxima en 4 téxels. Como puede ver, las cosas van un poco mejor aquí que con Point Sampling. El filtrado bilineal ya utiliza 4 texels.

La imagen es de mayor calidad, no hay bloques, pero los polígonos cercanos a la pantalla se ven borrosos, y esto se debe al hecho de que la interpolación requiere una mayor cantidad de téxeles que los cuatro disponibles.

La vaguedad no es de ninguna manera el principal problema del filtrado bilineal. El hecho es que la aproximación se realiza correctamente sólo para objetos ubicados paralelos a la pantalla o al punto de observación, mientras que el 99% de los objetos en cualquier juego de computadora no están ubicados paralelos al punto de observación. De esto podemos concluir que el 99% de los objetos se aproximarán incorrectamente. Tomemos, por ejemplo, nuestro círculo: el polígono no se encuentra paralelo con respecto al punto de observación, por lo tanto, deberíamos aproximarnos a una elipse, pero aproximamos un círculo, lo cual es extremadamente incorrecto. Además, el filtrado bilineal exige mucho más ancho de banda de memoria, lo que, en general, es más que lógico, dado que el filtrado bilineal ya utiliza 4 texels para determinar el color de un píxel.

A juzgar por la información en foros y artículos en Internet, ATI está jugando una mala pasada con el filtrado de texturas trilineal en la nueva GPU X800. Sin embargo, también hay quienes defienden ferozmente a ATi. En general, este tipo de discusiones nos recuerdan el escándalo relacionado con nVidia hace un año.

El motivo de una discusión tan acalorada fue un artículo en el sitio web alemán Computerbase. Mostró cómo ATI utiliza filtrado de textura trilineal optimizado, a menudo llamado "brilineal" debido a su mezcla de filtrado bilineal y trilineal, en las GPU Radeon 9600 y X800. La noticia fue realmente sorprendente, ya que ATI siempre ha hablado sobre el uso de filtrado trilineal verdadero.

Pero, ¿cómo es realmente la situación? ¿Es esto una optimización, un truco o simplemente una solución inteligente? Para juzgar, debemos profundizar en la tecnología detrás de los distintos métodos de filtración. Y la primera parte del artículo estará dedicada exactamente a esto, y presentaremos algunas tecnologías de una manera muy simplificada para que quepan en unas pocas páginas. Así que echemos un vistazo a las funciones básicas y fundamentales del filtrado.

¿Habrá una secuela? Quizás, ya que continúa la controversia sobre el filtrado brilineal recientemente descubierto en las tarjetas Radeon 9600 y X800. A ATi se le debe dar crédito por el hecho de que la calidad de imagen de las tarjetas no se ve afectada visualmente debido a este filtrado. Al menos no tenemos ejemplos que sugieran lo contrario. Hasta ahora, la filtración brilineal se manifiesta en condiciones de laboratorio creadas artificialmente. Al mismo tiempo, ATi no permite habilitar el filtrado trilineal completo para las tarjetas mencionadas, ya sea adaptativo o no. Debido al nuevo filtrado, los valores de rendimiento en las pruebas no muestran todo el potencial del X800, ya que los valores de FPS se obtienen tras una optimización, cuyo impacto en la velocidad es difícil de evaluar. Y la palabra “adaptativo” deja un regusto amargo. ATI no nos proporcionó ninguna información sobre cómo funciona el controlador y ha declarado muchas veces que la tarjeta ofrece filtrado trilineal completo. Sólo después de la revelación antes mencionada, ATi admitió que el filtrado había sido optimizado. Esperemos que no exista esa "adaptabilidad" en otros lugares del conductor.

Sin embargo, los fabricantes avanzan lenta pero seguramente hacia el punto en el que se superará el nivel de tolerancia. La "adaptabilidad" o la definición de la aplicación que se inicia no permite que los programas de referencia muestren el rendimiento real de la tarjeta en los juegos. La calidad de la imagen del juego puede variar de un controlador a otro. Los fabricantes son libres de divertirse con el conductor, dependiendo del rendimiento que necesite el departamento de marketing en ese momento. Pues bien, el derecho del consumidor a saber lo que realmente compra ya no interesa a nadie aquí. Todo esto queda en manos de los medios de comunicación: que cumplan su misión educativa. Y los trucos de filtrado que analizamos en nuestro artículo son sólo los casos más famosos. Qué más está oculto a nuestra atención, sólo podemos adivinarlo.

Cada fabricante decide por sí mismo qué nivel de calidad de imagen proporcionará de serie. Sin embargo, los fabricantes deberían documentar las optimizaciones que utilizan, especialmente si están ocultas en los puntos de referencia conocidos, como en el ejemplo reciente de ATI. La solución es obvia: ¡dale la oportunidad de desactivar las optimizaciones! Entonces el consumidor podrá decidir por sí mismo qué es más importante para él: más FPS o mejor calidad. Tampoco se puede contar con Microsoft como árbitro. Las pruebas WHQL no miden muchas cosas y pueden pasarse por alto fácilmente: ¿Conoce el significado de la palabra "responsive"?

Optimizaciones de filtrado conocidas actualmente
ATI nVidia
trilineal
mejoramiento
R9600
X800
novia fx5xxx
(GF 6xxx)*
Optimización angular
filtrado anisotrópico
R9xxx
X800
novia 6xxx
Adaptado
filtrado anisotrópico
R9xxx
X800
novia fx5xxx
novia 6xxx
Optimización del escenario R9xxx
X800
novia fx5xxx
Optimización de LOD R9xxx
X800(?)

En general, este tipo de discusiones tienen sus beneficios: los compradores y, posiblemente, los clientes OEM comienzan a escuchar el problema. No tenemos ninguna duda de que la manía por la optimización desenfrenada continuará. Sin embargo, apareció un rayo de luz en el reino oscuro, como lo demostró claramente nVidia con su optimización trilineal. ¡Esperemos que se produzcan más pasos similares!

CATEGORÍAS

ARTICULOS POPULARES

2023 “kingad.ru” - examen por ultrasonido de órganos humanos