DeepSeek frappe encore ! Après avoir bousculé le monde de l’IA, son modèle de raisonnement avancé, DeepSeek R1, est désormais disponible sur plusieurs plateformes, dont GitHub, AWS et Nvidia.
En seulement quelques semaines, DeepSeek s’est imposé comme une référence. Et voilà que son modèle phare, R1, devient encore plus accessible. D’ailleurs, on compte déjà 3 374 modèles dérivés sur la plateforme collaborative Hugging Face.
DeepSeek R1 s’invite partout
DeepSeek-R1 continue son expansion, en effet. Désormais, il s’intègre aux infrastructures majeures du cloud.
Sur AWS, le modèle est accessible via Amazon Bedrock, qui simplifie l’intégration des API. Il en va de même sur Amazon SageMaker, permettant un entraînement avancé avec AWS Trainium et Inferentia pour une meilleure optimisation des coûts.
Une version allégée, DeepSeek-R1-Distill, est également disponible via Bedrock Custom Model Import, offrant un déploiement sans serveur, flexible et évolutif.
De son côté, Nvidia a aussi intégré DeepSeek-R1 à son microservice NIM, en exploitant l’architecture Hopper et l’accélération FP8 Transformer Engine. Résultat : des performances en temps réel avec des réponses plus rapides et plus précises.
Avec 671 milliards de paramètres, une longueur de contexte de 128 000 jetons et une vitesse de génération pouvant atteindre 3 872 jetons par seconde, le modèle tire pleinement parti du système HGX H200 et de la connectivité NVLink.
Chez Microsoft, DeepSeek-R1 trouve sa place au sein de Azure AI Foundry et GitHub. Ce qui offre aux développeurs un environnement sécurisé et performant pour intégrer l’IA dans leurs projets.
Pour garantir une utilisation responsable, Microsoft a mis en place des filtres de contenu et des évaluations automatisées. L’entreprise prévoit aussi de proposer des versions distillées du modèle, spécialement adaptées à un déploiement local sur les PC Copilot+.
L’IA de demain…
La société chinoise DeepSeek semble vraiment motivée à conquérir le marché de l’IA. Et visiblement, elle est sur la bonne voie. Non seulement, son modèle R1 est performant et accessible. Il est aussi beaucoup plus abordable que ses concurrents.
Apparemment, son entraînement n’a coûté que 6 millions de dollars. Autrement dit : 95 % moins cher que les modèles similaires développés par Microsoft ou Nvidia.
Certes, les rumeurs que DeepSeek R1 a été entraîné par les données d’OpenAI. Toutefois, cela ne change rien au fait qu’il est meilleur. En plus, il est open source.
Et puisque son développement n’a pas coûté des centaines de millions, ce n’est pas très étonnant qu’il soit abordable. Avantage de plus qui lui a permis de détrôner des IA populaires comme ChatGPT.
Cela dit, j’avoue que je me demande pourquoi offrir une telle performance à moindre coût et pourquoi la rendre open source. Bref, il y a sûrement une raison.
Et vous, que pensez-vous de DeepSeek ? Partagez vos perceptions dans le commentaire !
- Partager l'article :