ChatGPT-5 est en route ! Après avoir ébloui avec GPT-4o, OpenAI va bientôt sortir sa prochaine grande révolution. Selon l’entreprise, ce modèle est destiné à simplifier, à unifier, et surtout à amplifier toute la galaxie d’outils IA.
Oubliez les casse-têtes de modèles séparés — GPT-4, GPT-4 Turbo, o3 et compagnie. OpenAI change de stratégie avec GPT-5. Ce modèle va rassembler les meilleurs de ses prédécesseurs dans un seul cerveau numérique hyper efficace.
Plus besoin de choisir entre rapidité, réflexion poussée ou fonctionnalités spécifiques : GPT-5 saura, de lui-même, activer la bonne capacité au bon moment. Il pourra, par exemple, décider s’il faut raisonner en profondeur.
Il saura quand donner une réponse express et quand activer un outil comme la recherche web, l’interpréteur de code, la mémoire, les interactions vocales ou encore Canvas.
Le but d’OpenAI est de rendre l’intelligence artificielle plus puissante, plus intuitive, plus accessible – et surtout, plus polyvalente. Dans cette logique, la startup a dévoilé en avant-première, le 27 février 2025, une version intermédiaire baptisée GPT-4.5, connue en interne sous le nom de code « Orion ».
ChatGPT-5, le modèle tout-en-un
Parmi les grandes nouveautés apportées par GPT-5, il y a son raisonnement structuré.
Alors que les versions précédentes misaient sur la rapidité, celle-ci est conçue pour gérer de manière plus efficace la logique et la prise de décision à travers plusieurs étapes.
Si l’on croit OpenAI, GPT-5 repose sur les bases de son prédécesseur, GPT-4. Bon, sa phase de préformation est plus renforcée, mais il reste un modèle polyvalent.
Donc tout comme les versions précédentes, GPT-5 sera formé en utilisant une combinaison d’approches. Parmi celles-ci, on retrouve le réglage fin supervisé (SFT), qui consiste à apprendre à partir de données étiquetées par des humains.
Il y a aussi l’apprentissage par renforcement basé sur les retours humains (RLHF). Ce dernier permet d’optimiser les réponses à travers des cycles itératifs de rétroaction.
De nouvelles méthodes de supervision, probablement inspirées des progrès de l’o3 sur le raisonnement, viendront également compléter ce processus.
L’entraînement est assuré grâce à l’infrastructure d’IA développée par Microsoft, combinée aux tout derniers GPU de NVIDIA. En avril 2024, OpenAI a reçu une première série de GPU H200, marquant une nette évolution par rapport aux H100 utilisés auparavant.
Les B100 et B200, prochaines stars du catalogue NVIDIA, ne seront pleinement disponibles qu’en 2025. Ce qui laisse encore à la firme la possibilité d’optimiser ses modèles avec les ressources actuelles.
Microsoft met également à disposition ses puissants supercalculateurs pour accompagner cette phase de formation. Bien que les détails techniques restent confidentiels, il a été confirmé que la prochaine version du modèle GPT tournera sur l’infrastructure IA la plus récente de Microsoft.
Cette arrivée soi-disant “bientôt”, c’est pour demain ?
Récemment, OpenAI a fait sensation en permettant à tous les utilisateurs de générer des images directement dans ChatGPT-4o.
Toutefois, si la qualité des photos est au rendez-vous, la vitesse, elle, ne suit pas toujours. Surtout pour les utilisateurs gratuits qui doivent parfois patienter plus longtemps qu’un téléchargement en 3G.
Face à la forte demande, OpenAI a d’abord réservé la fonctionnalité aux abonnés Plus et Pro, avant de la rendre à nouveau accessible gratuitement. Et ce, malgré quelques ratés techniques et de brèves pannes du service.
On peut donc croire que l’équipe a encore pas mal de réglages à faire avant de passer à ChatGPT-5. Ce qui explique peut-être pourquoi Sam Altman, le PDG d’OpenAI, refuse pour l’instant d’annoncer sa date de sortie précise. Tout ce qu’il accepte de dire, c’est : « bientôt ».
Quoi qu’il en soit, l’attente en vaudra sûrement la peine. D’autant plus que contrairement à ce qu’on pourrait croire, le modèle ne sera pas réservé aux abonnés haut de gamme.
Même les utilisateurs gratuits pourront y accéder, avec une version « standard » suffisamment intelligente pour la majorité des usages.
Bien entendu, les abonnés Plus et Pro, eux, profiteront de toute la puissance du modèle. Meilleure capacité à gérer des requêtes complexes, interactions vocales plus poussées, recherche plus fine, et surtout, raisonnement visuel en temps réel.
Alors, que pensez-vous de cette nouveauté ? Partagez votre avis dans le commentaire !
- Partager l'article :