TECNOLOGIA
O que é G-Sync e como isso pode fazer você jogar melhor
Os últimos anos têm trazido inovações importantes para quem gosta de jogar no PC. Além de placas de vídeo poderosas e da chegada do Ray Tracing aos games, uma das novidades mais importantes do mercado é o G-Sync, da NVIDIA.
O G-Sync é uma tecnologia que surge para resolver um dos mais antigos problemas dos computadores: a sincronização entre a placa de vídeo e o monitor.
Você pode ter visto alguns anúncios prometendo mais qualidade de imagem e um desempenho suave para os jogos, sem travamentos.
Mas como será que tudo isso é verdade? A seguir, detalharemos o que é o G-Sync, como ele funciona e quais os principais benefícios para os players.
O que é o G-Sync
Até pouco tempo atrás, os monitores operavam em taxas fixas de atualização. O padrão mais comum era 60 Hz, mas os modelos gamer aos poucos foram escalando esse valor, havendo hoje modelos capazes de superar até 280 hertz.
Contudo, a taxa de atualização da tela costumava ser fixo, ocorrendo em intervalos constantes de funcionamento.
Na outra ponta, as placas de vídeo sempre operaram com taxas variáveis de frames por segundo. Cenas mais leves podem ser renderizadas a centenas de fps, enquanto efeitos pesados e momentos específicos podem forçar a placa a trabalhar pesado demais, baixando o seu desempenho.
As placas de vídeo trabalham com pequenos “reservatórios”
Por isso, as placas de vídeo trabalham com um sistema de buffers, pequenos “reservatórios” que guardam os quadros produzidos para enviá-los ao monitor sempre que solicitado.
Mas o que acontece quando esses dois componentes passam a trabalhar em velocidades muito diferentes, ou ainda quando o monitor solicita um frame que não foi completamente renderizado pela GPU?
Pela diferença entre o momento de renderização do quadro e a exibição na tela, o resultado são os screen tearings, que aparecem literalmente como um “rasgo” na imagem, como se uma parte da cena estivesse diferente do restante. Confira um exemplo de screen tearing abaixo:
Entram em cena os monitores VRR e o G-Sync
Para corrigir esse problema, a NVIDIA desenvolveu a tecnologia conhecida como G-Sync. Ela introduz um controle direto da taxa de atualização do monitor, atrelada ao ritmo da placa de vídeo, assegurando que ambos os componentes estejam em condições de operar de forma sincronizada e variável (Variable Refresh Rate – VRR).
Os primeiros modelos exigiam um módulo da NVIDIA para funcionar, o que elevou bastante alguns dos preços. Com a evolução do padrão e a competição do Freesync, a NVIDIA passou a suportar o sistema de taxa variável de frames também em monitores sem o módulo, desde que eles sigam os padrões especificados pelo Adaptive-Sync (incluindo portas DisplayPort 1.2a) da VESA e passem em rigorosos testes de imagem.
Qual a diferença entre G-Sync e V-Sync?
Alguns de vocês devem estar se perguntando: mas não é exatamente por isso que existe a opção de V-Sync? Para quem não conhece, o V-Sync (Sincronização Vertical) é um recurso que força a placa de vídeo a trabalhar no ritmo ditado pelo monitor, podendo enviar o próximo frame somente quando solicitado.
Apesar de eliminar o screen tearing (afinal, não haverá atualização com frames renderizados pela metade ou fora de sincronia), ele pode induzir a outros problemas.
Cuidado com o stuttering
O principal deles é o fenômeno conhecido como stuttering, pequenas travadas provocadas pelos saltos entre os frames mostrados na tela, já que o movimento do jogo pode estar adiantado ao que aparece no monitor.
Por fazer com que a placa de vídeo trabalhe em um ritmo fixo ditado pelo monitor, o V-Sync também limita a sua taxa de fps e pode induzir ao input lag, dependendo da situação. Na maioria das vezes (principalmente para jogadores competitivos que preferem altas taxas de fps, como os de CS:GO), não é a solução mais indicada.
Como o G-Sync pode melhorar o seu desempenho nos jogos
Como vimos, o G-Sync faz a GPU e monitor se comunicarem de forma dinâmica. Por isso, ele não apresenta os mesmos problemas do V-Sync, como input lag (em certos cenários) ou stuttering.
Devido à variação sincronizada, a tendência é de que até mesmo as quedas de FPS sejam mais amenas para o jogador, sem atrapalhar na responsividade dos comandos. Ele também elimina completamente o fenômeno do screen tearing, não deixando que as falhas de imagem atrapalhem no seu desempenho.
Assista a uma rápida demonstração da tecnologia G-Sync no vídeo abaixo:
Conheça as diferentes certificações G-Sync
Atualmente, a NVIDIA separa os monitores G-Sync em três categorias diferentes. Todas elas foram validadas pela empresa e funcionam adequadamente, proporcionando as principais vantagens da taxa de atualização variável (VRR).
A primeira delas, G-Sync Compatible, é destinada aos monitores dotados de painéis VRR, mas que não possuem o módulo e o chip G-Sync instalados.
Estes modelos costumam ser os mais baratos, além de compatíveis com a tecnologia Freesync da AMD. Os modelos divulgados pela NVIDIA foram amplamente testados e não apresentaram quaisquer travamentos, distorções ou quaisquer outros problemas, sendo perfeitamente indicados para jogos.
A segunda categoria carrega o selo G-Sync. Dotados do conjunto G-Sync (com chip e módulo), eles prometem os mesmos benefícios, além de faixa de atualização variável completa e suporte ao modo overdrive, para tornar a imagem mais cristalina (embora isso varie de modelo para modelo).
Por fim, a categoria G-Sync Ultimate é destinada ao topo de linha, monitores equipados com os modelos mais novos do módulo, além de painéis certificados para a tecnologia HDR 1000 – atingindo mil nits de pico de luminosidade para maior qualidade de imagem e contraste, além de backlight direto completo e gama de cores DCI-P3.
Os monitores G-Sync Ultimate estão disponíveis em tamanhos que vão de 27 a 65 polegadas, inaugurando novos padrões na indústria.
Você pode consultar a página oficial da NVIDIA sobre o assunto clicando neste link. A página também traz a tabela com os modelos compatíveis, para que você possa programar a sua próxima compra de acordo com os recursos desejados.
*****
Fonte(s): NVIDIA, Engadget e Digital Trends