Cerebras

Cerebras laisse les dev accéder à ses GPU, 20 fois plus rapide que NVIDIA !

Cerebras a dévoilé Cerebras Inference, une solution abordable pour les développeurs d’IA, contre les coûteux GPU .

Cerebras a lancé « Inference » une solution révolutionnaire pour l’inférence IA. Alors que les développeurs cherchaient constamment à dépasser les limitations des GPU classiques, Cerebras leur ouvre enfin la voie avec des performances qui dépassent tout ce qui a été fait… Cette solution, en effet, est 20 fois plus rapide que les GPU NVIDIA.

Des vitesses impressionnantes grâce à une puce unique

Cerebras Inference a atteint des vitesses impressionnantes : 1 800 jetons par seconde pour Llama3.1 8B et 450 pour Llama3.1 70B. Tout compte fait, ces chiffres sont spectaculaires. Cerebras affirme aussi que ses GPU sont 20 fois plus rapides que les solutions NVIDIA, qui pourtant dominaient le marché jusqu’à maintenant.

En revanche, la vraie magie réside dans leur architecture. En effet, la solution repose sur le moteur Wafer Scale Engine de troisième génération, spécialement conçu pour surmonter les limites de bande passante mémoire, ce qui fait toute la différence.

Cerebras résout ce problème en construisant la plus grande puce au monde, intégrant 44 Go de SRAM sur une seule puce. Ainsi, contrairement à ses concurrents, Cerebras Inference stocke l’intégralité du modèle directement sur la puce. En éliminant la lenteur des connexions externes, il améliore considérablement la vitesse.

Bien sûr, cette approche unique assure non seulement des vitesses incroyables mais aussi une efficacité hors pair.

Une économie de coût qui défie toute concurrence

Alors que beaucoup pourraient penser qu’une telle performance vient avec un prix élevé, Cerebras prouve le contraire. En effet, Cerebras Inference propose ses services à un coût incroyablement bas. Le tarif pour Llama3.1 8B commence à seulement 10 centimes par million de jetons, et pour Llama3.1 70B, à 60 centimes.

Cette solution est donc bien plus abordable que les GPU NVIDIA tout en offrant une puissance bien supérieure. Il paraît que Cerebras a réussi à rendre une technologie sophistiquée abordable pour tous, tout en conservant une haute qualité et précision.

Contrairement à d’autres solutions qui sacrifient la précision au profit de la vitesse, Cerebras Inference reste fidèle à une précision optimale. Le traitement se fait en 16 bits tout au long de l’inférence, garantissant alors des résultats précis. Néanmoins, la rapidité reste au rendez-vous, et c’est bien cela qui séduit tant les développeurs.

Des tests qui confirment la domination de Cerebras Inference

Micah Hill-Smith, le dynamique PDG d’Artificial Analysis, confirme : « Les vitesses atteintes par Cerebras sont stupéfiantes, établissant un nouveau record dans le domaine. »

Selon les tests menés par Artificial Analysis, Cerebras Inference ne se contente pas de battre des records de vitesse. Comme si cela ne suffisait pas, la précision des modèles reste totalement conforme aux exigences de , ce qui assure aux développeurs des résultats fiables.

Cette combinaison de rapidité et de précision fait de Cerebras un outil indispensable pour ceux qui cherchent à repousser les limites de l’intelligence artificielle.

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *