img 1851 9
Share

[Review] Galax GTX1060 6GB OC

Olá pessoal, tudo bom?

Nesse review irei analisar a Galax GTX1060 OC que se trata de uma placa de vídeo que usa o GPU “mid-end” da linha Pascal, o GP106. A placa em questão não pertence a nenhuma série especial destinada a overclockers como são as HOF ou EXOC, sendo o modelo mais “básico” oferecido pelo fabricante, o que faz dela um objeto bastante interessante de se analisar! 🙂

Com relação a sua embalagem, a caixa trás a figura de um sujeito mascarado na frente e na parte de trás temos destaque para alguns textos genéricos que poderiam estar na caixa de praticamente qualquer outra VGA moderna.

Com relação ao bundle, os extras se resumem a um DVD de instalação de drivers/softwares, manual de usuário, um adaptador 8-pin para 6-pin e um guia de instalação rápido. Nada estelar mas completamente dentro do esperado para um produto desse nicho do mercado.

img 1940

Com relação a VGA em si, não é muito longa (25cm), o seu cooler é dual-slot e usa apenas um conector de força MiniFit Jr de 6 pinos, o que implica que essa placa não representa maiores dificuldades para 99% dos cases/fontes disponíveis no mercado e que problemas de incompatibilidade mecânica, elétrica devem ser praticamente inexistentes.

Sobre o GPU que equipa a GTX1060 6GB, trata-se do GP106, que é fabricado pela TSMC usando o processo de 16nm e é o GPU “mid-end” da família Pascal destinado a linha GeForce, com um die de 200mm² e 4.4 bilhões de transistores.
A variante do GP106 utilizada para a GTX1060 6GB é a GP106-400-A1 e vem com todos os 1280 CUDA Cores ativados, 80 TMUs, 48 ROPs, interface de memória de 192-bits usando memórias GDDR5 e 6GB de VRAM.

Abrindo um parênteses aqui, existe também a variante de GTX 1060 com 3GB de VRAM e a diferença entre as duas placas vai além da memória, sendo que na de 3GB, o GPU usado é o GP106-300-A1 com 1152 CUDA Cores, 72 TMUs e 48 ROPs, ou seja, existe alguma diferença de performance proveniente desse SM desabilitado, além do VRAM reduzido. Não como forma de mal dizer do modelo de 3GB, que obviamente é mais barato que o de 6GB, mas considero valido incluir essa observação para que futuros interessados nessas placas fiquem cientes dessas diferenças e com isso possam fazer uma compra mais acertada, conforme as suas necessidades. 🙂

Os chips de memória GDDR5 são fornecidos pela Hynix, sendo essa a primeira VGA Pascal que vejo usando memórias desse fabricante. Os chips usados são os H5GQ8H24MJR, ou simplesmente Hynix MJR de 8Gbps (8000MHz).

img 1863

Com relação ao PCB, o mesmo é um pouco mais curto que o cooler (22cm) e de “extra” trás pontos de medição para tensão do GPU, VRAM e PCI-E, o que é bem interessante pois esse tipo de “feature” é algo que só costumamos ver em placas voltadas a entusiastas e overclockers. Não existe switch dual-bios ou mesmo conector SLI, até porque, o GP106 não oferece suporte a essa tecnologia.

Sobre o VRM, para o GPU, foi usado o controlador PWM uP9511Q operando com 4 fases. Infelizmente esse controlador tem seu datasheet sob NDA, no entanto, ele é usado em vários outros modelos de GTX1060 sendo que o overclocker mllrkllr88 conseguiu descobrir qual o pino FB para a placa da Zotac que ele possui, o que com alguma retrabalho pode ser usado na Galax caso a ideia seja fazer vmods para botar a placa no LN2. Essa informação é válida devido ao fato de que o uP9511Q parece não oferecer a opção de alterar sua configuração via I2C, o que implica que não existem ferramentas para se alterar a tensão do GPU além dos 1.06V via software.

No estágio de alimentação, a Galax optou por usar a dupla Ubiq QN3107 e QN3103, que tratam-se de mosfets tipo-N discretos, em outras palavras, não se tratam de componentes integrados como o IR3555 usados na MSI B350I PRO AC ou mesmo na GTX1080Ti Lightning, o que significa que é necessário usar drivers externos e naturalmente pelo menos dois mosfets, um low-side e outro high-side.

Para o high-side, foi utilizado o QN3103, que tem Id de 68A @ 25ºC, Rise Time (Tr) de 43ns e Fall Time (Tf) de 6ns em condições de funcionamento “ideais”. Esses parâmetros nos dizem que esse mosfet tem um tempo de acionamento um tanto alto, o que implica em perdas de chaveamento maiores e que aumentam com a frequência do VRM. Colocando em perspectiva, a 1060 FE utiliza o OnSemi NTMFD4C85N, esse componente integra mosfets high-side / low-side em um único encapsulamento e para condições de funcionamento bastante similares ao QN3103, apresenta Tr de 31.5ns e Tf de 4ns para o mosfet high-side, o que implica em menores perdas de chaveamento em relação ao modelo da Galax.

Para o low-side, foram utilizados dois QN3107, que apresentam especificação de rds(on) de 2.6mΩ, o que é algo alto e impacta diretamente nas perdas de condução. Novamente, usando o 4C85N como referência, o mosfet low-side integrado a ele apresenta rds(on) de apenas 0.8mΩ nas mesmas condições, o que implica em maiores perdas de condução na Galax GTX1060 OC em relação ao modelo Founders Edition.

Evidentemente que isso não parece muito promissor, no entanto, isso não chega a ser um problema muito grande em uma placa com VRM de 4 fases e com GPU cujo consumo é relativamente baixo, entretanto, em termos de eficiência, o design da placa de referência (Founders Edition) é superior e como a telemetria para o Power Limit se refere a placa toda, menos perdas no VRM significam mais margem disponível, ainda que pequena, para o GPU. De todo modo, o VRM da Galax funciona a contento, está bem dimensionado para um GPU (carga) cujo TDP é de 120W, o que significa que ninguém precisa ficar preocupado achando que a placa vai falhar de maneira catastrófica ou que vai pegar fogo por conta da eficiência um pouco menor do VRM.

Enfim, caso alguém tenha interesse em se aprofundar nesse assunto, ver como todas essas coisas são calculadas ou mesmo verificar o que foi dito aqui, recomendo a leitura desse e desse outro documento que explicam toda essa questão das perdas em conversores síncronos e ainda trazem exemplos de como calcular esses valores! 🙂

Foram também utilizados dois drivers uP1951P para fazer o acionamento desses mosfets. No que diz respeito ao estágio de filtragem, na saída temos 5 capacitores sólidos de 820uF + capacitores de cerâmica SMD e na entrada um filtro LC com um indutor SMD de 1uH e 4 capacitores de 270uF. Esses filtros me parecem bastante adequados, lembrando que a função deles é a redução do ripple na saída e melhorar a resposta a transientes, que são variações de carga abruptas (ex: sair do desktop e ir pro modo 3d, um loading rápido a la Fallout, onde existe uma variação considerável no uso do GPU) e que precisam de uma resposta rápida do VRM para compensar a mesma.

Para as memórias, foi usado o RT8120A, que é um controlador monofásico com drivers integrados para os mosfets high-side e low-side e foram usados os mesmos componentes da Ubiq aqui. Essa configuração é mais do que suficiente para os seis chips de memória usados nessa placa, que devem representar algo entre 15~18W ao todo.

img 1869

Em relação ao sistema de refrigeração, a Galax optou por uma peça única, com dois fans, dois heatpipes que fazem contato direto com o GPU. Existe também uma base com interface térmica que faz contato com os mosfets do VRM.

Um detalhe no mínimo curioso é que apenas duas memórias fazem contato com o dissipador usando uma interface térmica, sendo que as outras quatro não são cobertas. Isso não deve trazer problemas na operação da placa, pois essas memórias normalmente trabalham bem com temperaturas de até 90~95ºC e de qualquer forma, dissipam pouco calor, entretanto, isso pode impactar na frequência máxima que pode ser obtido nas memórias com overclock.

De todo modo, a Galax poderia ter trabalhado melhor o design desse dissipador de forma a cobrir todas as memórias, algo que seria bem mais lógico do que cobrir apenas dois CI’s e que não necessariamente traria custos extras ao produto. 😉

Antes de partir para os resultados, cabe algumas explicações de como fazer overclock nos GPUs da arquitetura Pascal por conta de algumas particularidades em relação ao funcionamento do GPU Boost 3.0 e de outros fatores limitantes, tais como o Power Target e Temperature Limit.

Até o GPU Boost 2.0, essa curva de Frequência/Tensão (que irei chamar de Curva F/V daqui em diante) já existia desde o Kepler, no entanto não era acessível ao usuário e a única forma disponível de se fazer overclock era adicionando offsets para as frequências de GPU e VRAM. Isso mudou no Pascal e agora além dessa também existe a possibilidade de ajustar cada ponto da curva F/V individualmente, maximizando assim a performance do GPU ao longo de toda essa curva conforme pode ser visto pelos gráficos abaixo.

Para acessar a configuração da curva F/V no Afterburner como no screenshot abaixo, basta usar o atalho CTRL+F e dai ajustar os pontos conforme a necessidade. Para facilitar a otimização de todos os pontos dessa curva, outros softwares (ex: EVGA Precision XOC) trazem uma função “Scanner” que determinam offset ideal para a curva automaticamente poupando assim algum tempo no usuário na hora de otimizar ainda mais o funcionamento da GPU.

É importante salientar que fatores ambientais (ex: temperatura) e físicos (ex: tdp) desde sempre foram levados em consideração pelo algoritmo do GPU Boost, entretanto era muito mais simples de se “driblar” os mecanismos responsáveis pela leitura dos mesmos usando biosmod ou hardmod para forçar a placa a rodar sempre no clock máximo. Conforme mostrarei adiante, a abordagem ideal para se tirar o máximo de performance dos GPUs Pascal é um pouco diferente devido a como o algoritmo do GPU Boost 3.0 trabalha a curva F/V em relação a temperatura do GPU, isso implica que mesmo sem alterar quaisquer parâmetros relacionados a clock de GPU/RAM, se de alguma forma você conseguir aumentar o Power Target e manter o GPU abaixo de um certo patamar de temperatura (digamos que, 50ºC), automaticamente a placa vai manter o clock do GPU no ponto máximo por mais tempo, o que trás ganhos óbvios de performance como veremos adiante. 🙂

Isso é muito legal, mas como saber se a VGA está esbarrando nesses limites? Bom, existe um parâmetro chamado “PerfCap Reason” que pode ser monitorado pelo GPU-Z e ele indica qual a variável que está limitando a performance do GPU. No caso existem cinco variáveis e é possível esbarrar em mais de uma delas ao mesmo tempo e como mostrarei adiante, eliminar as causas do “PerfCap” podem ser muito benéficas para a performance da placa. 🙂

vRel = Reliability. Indicating performance is limited by voltage reliability.
VOp = Operating. Indicating performance is limited by max operating voltage (Hardware Limit).
Pwr = Power. Indicating performance is limited by total power limit.
Thrm = Thermal. Indicating performance is limited by temperature limit.
Util = Utilization. Indicating performance is limited by GPU utilization.

gpu z

Terminado essas apresentações, vamos a configuração utilizada e os resultados!

CPU: AMD Ryzen 5 2600X (obrigado AMD!)

MOBO: ASUS ROG Crosshair VII HERO

RAM: 2x8GB G.Skill Flare X 3200 CL14 (Samsung B-Die)

VGA: Galax GTX1060 OC (obrigado Renan!)

STORAGE: SSD HyperX 3K 120GB + HD WD Blue 1TB 7200rpm

COOLER: Water Cooler custom (Loop GPU: Swiftech MCW82 + Magicool G2 Slim 360mm + bomba com reservatório integrado made in China)

SO: Windows 10 x64 atualizado, Windows 7 x64 SP1 para os benchmarks competitivos e Forceware 390.77 WHQL

OUTROS EQUIPAMENTOS: Câmera termográfica FLIR i7 (obrigado Profº Andreoli!)

Objetivo dos testes: Avaliar a performance a Galax GTX1060 OC do ponto de vista de um overclocker, ou seja, usando benchmarks que são utilizados em cenário competitivo (HWBOT), verificar a performance da placa usando diferentes soluções térmicas (padrão de fabrica e water cooler) e por fim, verificar se a solução de refrigeração de fabrica cumpre o seu papel. Explicações acerca da metodologia adotada ou de como os testes foram conduzidos estão contidas nos textos que acompanham os resultados a seguir. 😉

Resultados:

Primeiramente, vamos ver como o sistema de refrigeração da Galax se sai. Considero esse teste bastante relevante pois como foi explicado anteriormente, para os GPUs Pascal, quanto menor a temperatura do GPU, maiores as chances do GPU Boost 3.0 manter a placa funcionando no ponto máximo da curva F/V. Para fazer esse teste, usei o Unigine Superposition no preset “4K Optimized”, que é um benchmark suficientemente longo (cerca de 3 minutos de duração) e que simula bem uma carga de “uso real” do GPU, em outras palavras, não é um “power virus” como o Furmark que estressa a VGA a níveis irreais e normalmente faz a placa entrar em throttling por comando do driver.

No gráfico abaixo, temos os resultados obtidos para diferentes configurações de clock e rotação do fan, sendo que no dia desses testes, a temperatura ambiente foi de 20.2ºC, o que é algo bastante baixo falando em termos de Brasil e irreal para o pessoal das regiões norte e nordeste. Para resolver esse problema, adotei nos gráficos o delta T (ΔT), que trata-se da diferença entre a temperatura do GPU (no caso) e a ambiente, retirando assim esse ultimo fator da jogada.

O teste em stock com fan @ 100% foi conduzido com o PT @ 116% devido ao fato dessa placa bater no Pwr PerfCap com o PT padrão mesmo em stock, os testes com OC também foram conduzidos com o PT @ 116%, a ideia do teste com fan @ 65% foi mostrar o melhor resultado possível de se obter mantendo um nível de ruído aceitável para uso diário. Também inclui nesse gráfico o resultado obtido pelo WC Custom apenas no intuito de deixa-lo como referência para a posteridade, afinal de contas, a comparação entre as soluções utilizadas não é lá muito razoável.

temperaturas

E os resultados obtidos foram satisfatórios! A pior situação, que foi com o Fan Auto e a placa em stock, apresentou um ΔT de 47.8ºC, o que significa que a temperatura do GPU só deve chegar nos 80ºC em load para um temperatura ambiente na casa dos 32ºC ou maior, o que é bastante razoável para uma placa que não é voltada para público entusiasta ou overclocker.

Também tenham em mente que esses testes aqui são todos conduzidos em bancada e que a temperatura “ambiente” dentro de um gabinete tende a ser maior que a temperatura ambiente de fato, o que é um detalhe importante caso alguém venha a tentar reproduzir os testes aqui realizados. 😉

Como é possível ver nas legendas no eixo do gráfico acima, fiz o overclock via offset e logo na galeria abaixo, temos o comportamento da placa em termos dos clocks e temperaturas (valores absolutos aqui, não são os deltas) ao longo do benchmark.

Por esses gráficos fica bastante evidente o funcionamento do GPU Boost 3.0 e a influência dos fatores externos no clock do GPU, conforme expliquei anteriormente. Notem que ao eliminar duas causas para a placa estar batendo no PerfCap (Pwr e Thrm), houve uma estabilidade muito maior no clock da placa em stock e muito mais do que isso, ela segurou o clock máximo praticamente durante todo o tempo! É evidente que isso trás um impacto positivo na performance e isso pode ser visto no gráfico abaixo, que trata do resultado do benchmark em cada uma dessas condições de teste.

score unigine

Agora vamos as termografias! A temperatura ambiente no dia que realizei esses testes foi de 25.7ºC.

Abaixo um exemplo de como são essas tais termografias sendo que isso deve ser interpretado da seguinte forma: Basicamente temos uma escala que representa o gradiente de temperatura encontrada naquela captura sendo que quanto mais próximo do amarelo/branco é a cor, maior é a temperatura e quanto mais próximo do roxo/preto, menor ela é. Esse “alvo” no meio da imagem representa onde está o foco da câmera e a temperatura nesse ponto é aquela que está marcada no canto superior esquerdo da foto.

idle gpu

GPU

Primeiramente, as fotos da VGA em idle e como pode ser visto, tudo OK por aqui! 🙂

Agora com a VGA rodando Unigine Superposition no preset “4K Optimized” com clocks e fan padrão. O GPU ficou na casa dos 72.5ºC, o que está dentro do esperado tomando como base os resultados obtidos anteriormente com o ΔT.

Também é notória a diferença de 6.7ºC entre as memórias do topo e as da lateral, sendo que essas ultimas são as que fazem contato com o dissipador, de todo modo, essas temperaturas são perfeitamente aceitáveis. Por fim, os VRMs estão abaixo dos 60ºC, o que também corrobora com o que afirmei anteriormente sobre os VRMs estarem bem dimensionados para a carga.

E por fim os resultados com OC (+180/+500) e FAN @ 100%, notem a diferença que o fluxo de ar extra fez na temperatura das memórias!

Já em relação aos benchmarks competitivos, foquei nos 3DMarks mais recentes devido ao fato das versões antigas não se darem muito bem com o Ryzen, então me limitei ao Vantage, 11 e Fire Strike. Esses resultados foram obtidos usando refrigeração a água pois aqui o que importa é obter o melhor resultado possível!

O que posso dizer é que essa GTX1060 foi muito bem no overclock e esse exemplar em especifico representa bem o que uma placa com GPU acima da média é capaz de fazer. Por exemplo, no Vantage foi possível completar o teste com o GPU @ 2151/2322, o que é uma marca absolutamente respeitável para o GP106 com esse tipo de refrigeração. 🙂

 

Conclusão:

A Galax GTX1060 OC se saiu bem nos testes, sendo essa uma placa destinada ao público geral e que portanto não carrega o “pedigree” das séries HOF/EXOC. A solução de refrigeração padrão apresentou performance bastante aceitável e de forma geral, essa placa não tem nada que chegue a condena-la como produto.

Evidente que nem tudo são flores, para manter os custos em dia foram feitos alguns trade-offs em relação a placa de referência, como o uso de mosfets mais lentos, o que se traduz em maiores perdas no VRM. Também devo citar a questão do dissipador fazer contato com apenas duas memórias na placa, poderiam ter feito algo um pouco melhor nesse departamento e entregado o serviço completo, cobrindo todas as memórias. Como disse no paragrafo anterior, esses detalhes não condenam a placa mas são coisas que não poderia deixar passar em branco.

Do ponto de vista do “Custo x Beneficio”, essa placa pode ser encontrada nas lojas brasileiras com preços entre R$1400 e R$1600, o que corresponde a média dos preços praticados para outros modelos de GTX1060 6GB, então essa placa não é exatamente a mais barata do mercado para esse GPU. Reiterando, essa placa deve atender as necessidades de quem procura uma GTX1060 6GB, no entanto, recomendo pesquisar bem pois talvez seja possível encontrar outros modelos mais interessantes (até mesmo da própria Galax!) por uma diferença irrisória de preço.

E é isso! Dúvidas em relação a VGA, ao review, sugestões ou mesmo comentários aleatórios são bem-vindos. Mais uma vez fica meus agradecimentos ao Renan por ter cedido a placa para o review. 🙂

Até a próxima!

Você também pode gostar...

9 Responses

  1. Digamos 10 reais a mais KKKKKK

  2. Leonardo Bhc disse:

    Realmente um review com esta profundidade de dados técnicos feito por brasileiros em PT-BR e raríssimo. Parabéns para a equipe ou pessoa que criou este arquivo completíssimo! Isto sim e um baita review! Desejo vida longa e este site e este tipo de matérias!

  3. Matheus disse:

    Tenho a mesma placa e a minha também é a variante com memória Hynix (a de um colega é samsung). Fiz overclock pela curva do MSI e 116% de power target, mas o máximo que consegui subir foi 2050, no clock da gpu, e 2130 no da memória. Além disso, comecei a ter artefatos na tela. Chegando em casa irei dar uma olhada nesse PerfCap, pois não conhecia. De resto, ótimo review!

    • Olá Matheus,
      Como disse no review, esse exemplar que testei pode não ser o melhor possível mas certamente é acima da média! 🙂

      Um amigo meu que tinha uma 1060 EXOC por exemplo, me disse que não conseguia passar de 2070MHz na placa dele, questão de sorte, mesmo. Certamente existem exemplares da EXOC que devem ser até melhores que esse que eu testei.

      Giancarlo

  4. lnpott disse:

    Estou impressionado, muito bom o review, muito técnico e bem escrito.

    Se enviarem uma HOF vocês vão brincar muito ? rsrs

  5. Vanderlei Carvalho iochen disse:

    Queria saber qual o modelo do chip da bios dessa galax gforc gtx 1060 6GB

Deixe uma resposta

Descubra mais sobre The Overclock Page

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading