NVIDIA domine le monde de l’IA et du cloud, mais un rival inattendu pourrait bien lui contester son trône. Si les prévisions de Samsung sont correctes, Google est en train de monter en puissance. Pendant que Microsoft et les autres semblent à la traîne.
Aujourd’hui, impossible de parler d’IA sans évoquer NVIDIA. Ses GPU sont au cœur des modèles d’IA les plus puissants. Et sa demande en mémoire à large bande passante (HBM) est tout simplement monstrueuse. Aucun concurrent ne semble en mesure de suivre le rythme.
Mais selon une feuille de route interne de Samsung, un acteur pourrait bien se rapprocher plus vite que prévu. Et c’est Google. Grâce à ses TPU dédiés à l’IA, la firme de Mountain View s’impose de plus en plus comme un sérieux challenger.
NVIDIA reste le patron, mais pour combien de temps ?
Depuis quelques années, NVIDIA règne en maître sur l’IA et le cloud computing, mais, un grand rival pourrait bien lui donner du fil à retordre d’ici 2026.
Pour dominer l’IA et le cloud, il faut des composants capables de traiter un max de données en un temps record. Et c’est exactement ce que fait la mémoire HBM. C’est ultra rapide, ultra efficace et elle est essentielle pour les accélérateurs d’IA.
Aujourd’hui, SK Hynix et Samsung se partagent la plus grosse part du gâteau. Avec Micron qui tente timidement d’augmenter sa présence sur le marché.
Les principaux acheteurs de HBM sont des poids lourds comme NVIDIA, Google, Amazon et Microsoft. Et les dernières prévisions indiquent que d’ici 2026, la demande va exploser.
D’après une feuille de route interne de Samsung, NVIDIA devrait quasiment doubler sa demande de HBM. Passant de 5,8 millions d’unités en 2024 à 11 millions en 2026. Mais pourquoi une telle augmentation ? Parce que leurs nouveaux GPU, comme le H200, B200, GB200 et surtout le futur GB300A, consommeront des quantités astronomiques de mémoire HBM.
Google monte en puissance avec ses TPU
Alors que nous pensons toujours à AMD comme le principal adversaire de NVIDIA, Google pourrait bien lui voler la vedette. Grâce à ses TPU (Tensor Processing Units), conçus pour entraîner des modèles d’IA, Google va lui aussi considérablement augmenter sa demande en HBM. Ce qui va atteindre 2,8 millions d’unités en 2026.
Le TPU v7p, qui arrive bientôt, sera aussi un énorme consommateur de HBM. Google a d’ailleurs prévu 75 milliards de dollars d’investissement pour renforcer son infrastructure IA. Par ailleurs, Amazon accélère la cadence avec ses puces Inferentia et Trainium. Sa demande de HBM devrait donc atteindre 1,3 million d’unités en 2026. Mais ça reste bien en dessous de NVIDIA et Google.
?ref_src=twsrc%5Etfw">February 6, 2025HBM Capacity & Total Demand Outlook by AI Chip – Samsung Securities pic.twitter.com/ZQOJG7xkV4
— Jukanlosreve (@Jukanlosreve)
De son côté, AMD a seulement 820 000 unités prévues en 2026. Même son futur MI400 équipé de HBM4 ne suffira pas à rivaliser avec les mastodontes. Quant à Microsoft, son projet Maia AI reste un acteur secondaire, avec uniquement 240 000 unités de HBM attendues.
Intel, qui tente tant bien que mal de percer dans l’IA avec son accélérateur Gaudi3, semble en mauvaise posture. D’après les prévisions, sa demande de HBM pourrait même tomber à zéro en 2026. Je pense que c’est un coup dur pour la firme qui peine déjà à s’imposer face à NVIDIA.
Pour l’instant, NVIDIA reste donc indétrônable, mais Google est clairement le rival le plus sérieux sur le long terme, bien plus qu’AMD. Son investissement massif dans les TPU et l’IA en fait un vrai prétendant au trône.
Et vous, pensez-vous que Google a une chance de rattraper NVIDIA, ou est-ce mission impossible ? Venez en discuter en commentaire !
- Partager l'article :