Que “fim” levou o AntiAliasing?

Antigamente, os monitores de CRT ainda eram populares e bastante utilizados pelos gamers, especialmente se levado em conta o bom tempo de resposta e o contraste das cores, se comparados aos primeiros monitores LCDs que chegaram ao mercado. E de quebra, ainda permitia o uso de várias resoluções, em contraste ao suporte de uma única resolução nativa dos LCDs. No entanto, ambos os equipamentos não suportavam resoluções mais altas…

Então, as imagens geradas pelos monitores apresentavam o velho e odiado serrilhado (aliasing), que basicamente é uma imperfeição dos detalhes causado pela visibilidade dos pixels da tela. E dentre os recursos tecnológicos mais utilizado para “disfarçar” a imagem pixelada era o AntiAliasing, na qual a placa de vídeo executava cálculos matemáticos para inserir pixels com cores intermediárias entre os pixels com cores diferentes (que geravam o contraste e assim evidenciavam o serrilhado), para suavizar o efeito “pixelado” da imagem.

E durante muitos anos o AntiAliasing foi uma tecnologia importante para o mercado, sendo apresentada várias evoluções e implementações diferentes. Mas, a partir do momento em que os monitores avançavam e aprimoramentos na imagem como altas resoluções e tecnologias de interpolação (como o upscaling e posteriormente o checkboarding) eram apresentados, as técnicas de AntiAliasing foram perdendo aos poucos a sua importância. E em tempos de LCDs com definições 4K e telas Retina-display, faz sentido apostar nesta tecnologia?

Os novos consoles trazem a promessa de gráficos em 4K e no entanto, a grande maioria dos gamers possuem apenas TVs com suporte a resolução Full HD. E comprar console + TV 4K sai muito caro. Então, eis que surge a promessa do uso de técnicas avançadas de interpolação “às avessas”, na qual ao invés de aumentar a resolução da imagem, ela é diminuída e os pixels intermediários são calculados, chamada SuperSampling (um método de AntiAliasing). No final, a imagem gerada originalmente em 4K e convertida para Full HD se mostrará mais suavizada, se comparada a uma imagem gerada originalmente em Full HD.

Eis então, a pergunta: seria mais interessante adquirir um monitor um caro monitor 4K e aproveitar a qualidade da imagem em sua resolução nativa ou comprar bom monitor Full HD mais em conta e fazer o uso do SuperSampling para gerar imagens belas e suavizadas? Ou ainda, como seria o comparativo de qualidade ao analisarmos estes mesmos monitores (com o mesmo tamanho, mas com resoluções diferentes) sendo vistos a partir de uma determinada distância?

Pelo visto, o AntiAliasing continuará entre nós… &;-D