AI SSD da NVIDIA promete 10× mais desempenho e preocupa mercado NAND

A NVIDIA e a SK hynix estão desenvolvendo juntas um novo tipo de armazenamento voltado exclusivamente para inteligência artificial. Conhecido internamente como AI SSD ou projeto Storage Next, esse novo dispositivo promete entregar até dez vezes mais desempenho do que SSDs corporativos atuais, especialmente em cargas de trabalho de inferência de IA.

O anúncio informal desse projeto acendeu um alerta em toda a indústria de semicondutores. Não apenas pelo impacto direto nos data centers e no ecossistema de IA, mas principalmente pelo risco de pressão extrema sobre o fornecimento global de memória NAND Flash, um componente essencial tanto para servidores quanto para PCs, notebooks e dispositivos de consumo.

Com a IA entrando em uma nova fase, menos focada em treinamento e cada vez mais dependente de inferência em larga escala, o papel do armazenamento está prestes a mudar de forma radical.

O que é o AI SSD e por que ele existe

O chamado AI SSD não é apenas um SSD mais rápido. Ele representa uma nova categoria de armazenamento, desenhada desde o início para atender padrões de acesso típicos de grandes modelos de linguagem, visão computacional e sistemas de inferência contínua.

Enquanto SSDs tradicionais são pensados para uso geral, bancos de dados e virtualização, o AI SSD foca em acesso massivo, paralelo e previsível, algo essencial para modelos que precisam consultar bilhões de parâmetros em tempo real.

Segundo informações divulgadas pela imprensa sul-coreana, a meta técnica desse novo dispositivo é alcançar até 100 milhões de IOPS, um número cerca de dez vezes superior ao que SSDs enterprise NVMe de alto desempenho conseguem hoje.

Esse salto seria possível graças a uma combinação de:

  • Controladores dedicados para IA
  • Paralelismo extremo de canais NAND
  • Integração profunda com GPUs NVIDIA
  • Otimizações específicas para inferência

A mudança de foco: do treinamento para a inferência

Durante anos, a infraestrutura de IA foi pensada quase exclusivamente para treinamento de modelos. GPUs, HBM e grandes quantidades de energia eram o centro da discussão.

Agora, o cenário está mudando rapidamente. A inferência em larga escala, usada em assistentes virtuais, buscas inteligentes, geração de imagens, vídeos e sistemas corporativos, passou a dominar os custos e a complexidade operacional.

Na inferência, o problema não é apenas calcular, mas alimentar as GPUs com dados rápido o suficiente. Modelos gigantes exigem acesso constante a parâmetros que simplesmente não cabem em DRAM ou HBM de forma econômica.

É nesse ponto que o AI SSD entra como uma solução estratégica.

O AI SSD como pseudo-memória

O conceito por trás do Storage Next é transformar o NAND Flash em uma espécie de camada intermediária entre memória e armazenamento.

Ele não substitui DRAM ou HBM, mas reduz drasticamente a dependência dessas memórias caras e escassas. O AI SSD seria:

  • Mais lento que HBM e DRAM
  • Muito mais rápido que SSDs convencionais
  • Altamente escalável
  • Energeticamente mais eficiente

Com isso, as GPUs passam menos tempo ociosas esperando dados, aumentando a eficiência geral dos data centers e reduzindo custos por operação de inferência.

Parceria estratégica entre NVIDIA e SK hynix

A escolha da SK hynix como parceira não é casual. A empresa sul-coreana é uma das maiores fornecedoras globais de:

  • DRAM
  • NAND Flash
  • HBM para aceleradores de IA

A NVIDIA, por sua vez, domina tanto o hardware quanto o software do ecossistema de IA. Juntas, as duas empresas têm capacidade de criar soluções altamente integradas, algo essencial para esse novo tipo de armazenamento.

Relatórios indicam que um protótipo funcional do AI SSD pode surgir até o final de 2026, com maturidade comercial esperada para 2027.

Impacto direto nos data centers

Se o AI SSD cumprir o que promete, ele pode redesenhar completamente a arquitetura de data centers voltados para IA.

Entre os principais impactos esperados estão:

  • Menor dependência de grandes quantidades de DRAM
  • Maior densidade de modelos por servidor
  • Redução de gargalos de I/O
  • Menor consumo energético por inferência

Isso torna a inferência mais barata, mais rápida e mais escalável, algo crucial para empresas que operam serviços de IA 24 horas por dia.

Pressão crescente sobre o mercado de NAND

O grande problema dessa evolução está fora dos data centers: o impacto na cadeia global de memória NAND Flash.

A demanda por NAND já vinha crescendo fortemente devido à expansão da nuvem, IA e dispositivos conectados. Com a introdução do AI SSD, essa demanda pode acelerar de forma semelhante ao que ocorreu com a HBM nos últimos anos.

Analistas alertam que boa parte da capacidade produtiva da SK hynix já está comprometida até 2026, tanto para DRAM quanto para NAND e HBM.

Caso os AI SSDs se tornem padrão em inferência, o mercado pode enfrentar:

  • Escassez de NAND para SSDs convencionais
  • Prioridade para clientes corporativos
  • Menor oferta para o mercado consumidor
  • Alta sustentada de preços

Como isso pode pesar no bolso do consumidor

Os efeitos dessa pressão já começam a ser sentidos. Relatórios recentes do setor indicam que contratos de NAND tiveram aumentos acumulados que chegam a 200% desde o início de 2025.

Isso afeta diretamente:

  • Preços de SSDs NVMe e SATA
  • Notebooks e PCs novos
  • Configurações com maior capacidade de armazenamento

Fabricantes já discutem ajustes de portfólio, com modelos base oferecendo menos armazenamento ou preços mais altos para manter margens.

A tradicional queda de preços ao longo do tempo pode ficar atrasada por vários trimestres, com valores elevados persistindo até pelo menos 2027.

Comparativo rápido: SSD tradicional vs AI SSD

SSD Corporativo Tradicional

  • Foco em uso geral
  • IOPS na casa de milhões
  • Menor integração com GPUs
  • Arquitetura genérica

AI SSD (Storage Next)

  • Foco exclusivo em inferência de IA
  • Até 100 milhões de IOPS
  • Integração direta com GPUs NVIDIA
  • Projetado como pseudo-memória

O que isso revela sobre o futuro do hardware

O desenvolvimento do AI SSD mostra que o armazenamento deixa de ser um componente secundário e passa a ocupar um papel estratégico no desempenho da IA.

O futuro não será definido apenas por quantas GPUs existem, mas por quão rápido os dados conseguem chegar até elas.

Em um cenário onde modelos crescem exponencialmente e aplicações exigem respostas em tempo real, gargalos antes toleráveis se tornam obstáculos críticos.

Indicado Para

Data centers de IA, empresas de nuvem, aplicações de inferência em larga escala, serviços de IA em tempo real e infraestruturas corporativas avançadas.

Em resumo, o AI SSD da NVIDIA e da SK hynix não é apenas uma evolução tecnológica. Ele é um sinal claro de que a próxima corrida da IA pode ser decidida não só por poder computacional, mas pela capacidade de produzir NAND em escala global.

Precisa de suporte ou deseja mais detalhes? Entre em contato pelo WhatsApp!