Saltar para o conteúdo

GDDR6

Origem: Wikipédia, a enciclopédia livre.
GDDR6
Desenvolvedor
JEDEC
Tipo
Synchronous dynamic random-access memory
Geração
6ª Geração
Antecessor
GDDR5 SDRAM
Sucessor
GDDR7 SDRAM

Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6 SDRAM) é um tipo de memória gráfica de acesso aleatório síncrona (SGRAM) com alta largura de banda ("Double data rate") projetada para uso em placas gráficas, consoles de jogos, e computação de alto desempenho. É um tipo de GDDR SDRAM (gráficos DDR SDRAM) e é sucessor do GDDR5. Assim como GDDR5X, ele usa QDR (quad data rate) em referência ao clock de comando de gravação (WCK) e ODR (Octal Data Rate) em referência ao clock de comando (CK).[1]

A especificação finalizada foi publicada pela JEDEC em julho de 2017.[2] GDDR6 oferece maior largura de banda por pino (até 16 Gbit/s[3]) e tensões operacionais mais baixas (1,35 V[4]), aumentando o desempenho e diminuindo o consumo de energia em relação ao GDDR5X.[5][6]

Implementação comercial

[editar | editar código-fonte]

No Hot Chips 2016, a Samsung anunciou o GDDR6 como sucessor do GDDR5X.[5][6] A Samsung anunciou mais tarde que os primeiros produtos seriam chips de 16 Gbit/s e 1,35 V.[7][8] Em janeiro de 2018, a Samsung iniciou a produção em massa de chips GDDR6 de 16 Gb (2 GB), fabricados em um processo de classe de 10 nm e com uma taxa de dados de até 18 Gbit/s por pino.[9][8][10]

Em fevereiro de 2017, a Micron Technology anunciou que lançaria seus próprios produtos GDDR6 no início de 2018.[11] A Micron iniciou a produção em massa de chips de 8 Gb em junho de 2018.[12]

SK Hynix anunciou que seus produtos GDDR6 seriam lançados no início de 2018.[13][3] A SK Hynix anunciou em abril de 2017 que seus chips GDDR6 seriam produzidos em um processo de 21 nm e teriam voltagem 10% menor que GDDR5.[3] Esperava-se que os chips SK Hynix tivessem uma taxa de transferência de 14-16 Gbit/s.[4] Esperava-se que as primeiras placas gráficas a usar RAM GDDR6 da SK Hynix usassem 12 GB de RAM com um barramento de memória de 384 bits, produzindo uma largura de banda de 768 GB/s.[3] SK Hynix iniciou a produção em massa em fevereiro de 2018, com chips de 8 Gbit e uma taxa de dados de 14 Gbit/s por pino.[14]

A Nvidia anunciou oficialmente as primeiras placas gráficas de consumidor usando GDDR6, a GeForce RTX 2080 Ti baseada em Turing, RTX 2080 e RTX 2070 em 20 de agosto de 2018,[15] RTX 2060 em 6 de janeiro de 2019[16] e GTX 1660 Ti em 22 de fevereiro de 2019.[17] A memória GDDR6 da Samsung Electronics também é usada para a série Quadro RTX baseada em Turing.[18] A série RTX 20 foi lançada inicialmente com chips de memória Micron, antes de mudar para chips Samsung em novembro de 2018.[19]

A AMD anunciou oficialmente o Radeon RX 5700, 5700 XT e 5700 XT 50th Anniversary Edition em 10 de junho de 2019. Essas GPUs Navi 10 utilizam 8 GB de memória GDDR6.[20]

Uma GeForce RTX 3090 Custom Edition com RAM GDDR6X

A Micron desenvolveu o GDDR6X em estreita colaboração com a Nvidia. GDDR6X SGRAM ainda não foi padronizado pela JEDEC. Nvidia é o único parceiro de lançamento GDDR6X da Micron.[21] GDDR6X oferece maior largura de banda por pino entre 19–21 Gbit/s com sinalização PAM 4, permitindo a transmissão de dois bits por símbolo e substituindo a codificação NRZ anterior (sem retorno a zero, PAM2) que fornecia apenas um bit por símbolo, limitando assim a largura de banda por pino GDDR6 a 16 Gbit/s.[22] As primeiras placas gráficas a usar GDDR6X são as placas gráficas Nvidia GeForce RTX 3080 e 3090. A sinalização PAM4 não é nova, mas custa mais para implementar, em parte porque requer mais espaço em chips e é mais propensa a problemas de relação sinal-ruído (SNR),[23] o que limita principalmente seu uso a redes de alta velocidade (como Ethernet 200G). O GDDR6X consome 15% menos energia por bit transferido do que o GDDR6, mas o consumo geral de energia é maior, pois o GDDR6X é mais rápido que o GDDR6. Em média, o PAM4 consome menos energia e usa menos pinos que a sinalização diferencial, embora ainda seja mais rápido que o NRZ. Acredita-se que o GDDR6X seja mais barato que a High Bandwidth Memory.[24]

A Samsung anunciou o desenvolvimento do GDDR6W em 29 de novembro de 2022.[25]

Suas melhorias em relação ao GDDR6 são:

  • Maior taxa de transmissão por pino de 22 Gb/s
  • Dobrando a capacidade por pacote de 16 Gb para 32 Gb
  • Dobre os pinos de E/S de 32 para 64
  • Espessura 36% menor (0,7 mm abaixo dos 1,1 mm usando embalagem Fan-Out Wafer-Level (FOWLP)

Referências

  1. Smith, Ryan. «Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA's RTX 3090». www.anandtech.com 
  2. «GRAPHICS DOUBLE DATA RATE 6 (GDDR6) SGRAM STANDARD | JEDEC». www.jedec.org 
  3. a b c d Shilov, Anton (30 de abril de 2017). «SK Hynix to Ship GDDR6 for Graphics Cards by Early 2018». Anandtech. Consultado em 23 de outubro de 2021 
  4. a b Born, Eric (16 de maio de 2017). «SK Hynix's first GDDR6 RAM will initially top out at 14 Gbps». Tech Report. Consultado em 23 de outubro de 2021 
  5. a b Walton, Mark (23 de agosto de 2016). «HBM3: Cheaper, up to 64GB on-package, and terabytes-per-second bandwidth». Ars Technica. Consultado em 23 de outubro de 2021 
  6. a b Ferriera, Bruno (23 de agosto de 2016). «HBM3 and GDDR6 emerge fresh from the oven of Hot Chips». Tech Report. Consultado em 23 de outubro de 2021 
  7. Shilov, Anton (14 de novembro de 2017). «Samsung Preannounces 16 Gbps GDDR6 Chips for Next-Gen Graphics Cards». Anandtech. Consultado em 24 de outubro de 2021 
  8. a b Killian, Zak (18 de janeiro de 2018). «Samsung fires up its foundries for mass production of GDDR6 memory». Tech Report. Consultado em 24 de outubro de 2021 
  9. «Samsung Electronics Starts Producing Industry's First 16-Gigabit GDDR6 for Advanced Graphics Systems». Samsung. 18 de janeiro de 2018. Consultado em 24 de outubro de 2021 
  10. «Samsung Begins Producing The Fastest GDDR6 Memory In The World». Wccftech. 18 de janeiro de 2018. Consultado em 24 de outubro de 2021 
  11. Tallis, Billy (3 de fevereiro de 2017). «Micron 2017 Roadmap Detailed: 64-Layer 3D NAND, GDDR6 Getting Closer, & CEO Retiring». Anandtech. Consultado em 24 de outubro de 2021 
  12. «Micron Begins Volume Production of GDDR6 High Performance Memory». Micron Technology. 25 de junho de 2018. Consultado em 24 de outubro de 2021 
  13. «Archived copy». Consultado em 24 de outubro de 2021. Arquivado do original em 24 de abril de 2017 
  14. Shilov, Anton (6 de fevereiro de 2018). «SK Hynix Lists GDDR6 Memory as 'Available Now', Publishes Final Specs». AnandTech. Consultado em 24 de outubro de 2021 
  15. «10 Years in the Making: NVIDIA Brings Real-Time Ray Tracing to Gamers with GeForce RTX». 20 de agosto de 2018. Consultado em 24 de outubro de 2021 
  16. «NVIDIA GeForce RTX 2060 Is Here: Next-Gen Gaming Takes Off». 6 de janeiro de 2019. Consultado em 24 de outubro de 2021 
  17. «New GeForce GTX 1660 Ti Delivers Great Performance Leap for Every Gamer, Starting at $279». 22 de fevereiro de 2019. Consultado em 24 de outubro de 2021 
  18. Mujtaba, Hassan (14 de agosto de 2018). «Samsung GDDR6 Memory Powers NVIDIA's Turing GPU Based Quadro RTX Cards». wccftech.com. Consultado em 24 de outubro de 2021 
  19. Maislinger, Florian (21 de novembro de 2018). «Faulty RTX 2080 Ti: Nvidia switches from Micron to Samsung for GDDR6 memory». PC Builder's Club. Consultado em 24 de outubro de 2021 
  20. Liu, Zhiye. «AMD Radeon RX 5700 XT 50th Anniversary Edition Actually Looks Promising». Tom's Hardware 
  21. Shilov, Anton. «Micron Reveals GDDR6X Details: The Future of Memory, or a Proprietary DRAM?». Tom's Hardware (em inglês). Consultado em 25 de outubro de 2021 
  22. «Doubling I/O Performance with PAM4 - Micron Innovates GDDR6X to Accelerate Graphics Memory». Micron. Consultado em 25 de outubro de 2021 
  23. Maliniak, David (14 de janeiro de 2016). «EDN - The fundamentals of PAM4» 
  24. Smith, Ryan. «Micron Spills on GDDR6X: PAM4 Signaling For Higher Rates, Coming to NVIDIA's RTX 3090». www.anandtech.com 
  25. «A Bridge Between Worlds: How Samsung's GDDR6W Creates Immersive Metaverse Experiences with Powerful Graphics Memory». Consultado em 29 de novembro de 2022