OpenAI était non lucrative, c’est fini : le géant de l’IA veut gagner des milliards !

, autrefois porteuse d’une noble mission humanitaire non lucrative, a officiellement trahi ses idéaux. Cet ancien laboratoire de recherche poursuit désormais des milliards. 

OpenAI, le géant de l’IA derrière ChatGPT, laisse tomber ses principes pour se lancer dans la quête du profit. , son PDG, s’en sort avec des parts d’une valeur de plusieurs milliards, en plus de son pouvoir absolu sur l’entreprise.

OpenAI, autrefois, non lucrative a changé, on dirait !

OpenAI, créée en 2015 avec la promesse d’apporter une intelligence artificielle bénéfique à l’humanité, a longtemps prôné une approche philanthropique. L’entreprise s’était même structurée autour d’un modèle sans but lucratif pour garantir une IA développée de manière sûre et transparente. L’idée ? Faire progresser la technologie sans pression financière, loin des impératifs de rentabilité qui guettent chaque startup de la Silicon Valley.

YouTube video

« OpenAI est une organisation à but non lucratif. Nous n’avons pas de comptes à rendre à des actionnaires ou des investisseurs. » Ces mots viennent d’une déclaration de Sam Altman en 2015. Il promettait alors de garder l’organisation focalisée sur la sécurité de l’humanité, et non sur les profits.

Mais tout cela a changé. Cette semaine, la nouvelle est tombée : OpenAI renonce à son contrôle par un conseil d’administration indépendant à but non lucratif. Désormais, la société devient une entreprise à part entière, avec pour objectif de capitaliser massivement sur l’IA. Et, le PDG Sam Altman, qui ne détient aucune participation, recevra désormais des parts de plusieurs milliards.

La directrice technique d’OpenAI Mira Murati a annoncé son départ juste avant cette nouvelle. Et si c’est la raison de sa démission ? Quoi qu’il en soit, les employés, en apprenant cela, ont réagi en masse avec des émojis « WTF » sur Slack

Au fait, ce géant s’est écarté de ses idéaux depuis des années

En 2019, OpenAI a créé une filiale à but lucratif, arguant qu’il lui fallait des milliards pour construire une IA compétitive. Mais la société a mis en place une limite sur les profits. Les investisseurs pouvaient récupérer jusqu’à 100 fois leur investissement. 

YouTube video

Au-delà de ce seuil, les bénéfices reviendraient à l’association à but non lucratif et seraient utilisés pour le bien public. Par exemple pour financer un revenu de base universel pour soutenir les personnes au chômage à cause de l’automatisation.

Au fil des années, OpenAI a progressivement mis la sécurité de côté pour se concentrer sur la commercialisation de ses produits. En 2023, le conseil d’administration est devenu si méfiant envers Altman qu’il a tenté de l’évincer. Cependant, Altman a rapidement repris le contrôle en s’appuyant sur son partenariat avec Microsoft et un conseil plus favorable.

Plus tôt cette année, l’équipe de sécurité d’OpenAI a implosé. Vous vous rappelez sûrement de Ilya Sutskever et de Jan Leike qui ont perdu confiance en Altman et démissionné en Mai, non ?

Cette semaine, Altman a achevé la dernière étape en retirant tout contrôle au conseil d’administration. Bien que ce dernier continue d’exister, il n’aura désormais plus aucune autorité.  OpenAI sera désormais libre de maximiser ses profits sans garde-fou.

Qu’est-ce qui motive cette décision ? 

Altman affirme que la rentabilité est actuellement cruciale pour l’entreprise. Apparemment, OpenAI fait face à des défis financiers majeurs. La société peine à rentabiliser des modèles ayant coûté des centaines de millions, voire des milliards, à développer. La transformation en entreprise à but lucratif est ce que Altman a trouvé pour séduire les investisseurs.

YouTube video

Cela n’empêche que cette décision soulève des interrogations. , co-fondateur d’OpenAI lui-même se demande si cela est légal.

Si OpenAI supprime le plafond des bénéfices, des milliards iraient des fonds publics aux investisseurs. L’organisation à but non lucratif représente le public, donc ces sommes seraient détournées des citoyens. Certains voient cette démarche comme une forme de vol.

En effet, l’impact de cette décision pourrait être colossal. Si l’objectif principal d’OpenAI devient le profit, cela incite à ignorer les coûts et risques potentiellement énormes liés au déploiement de l’IA comme l’a déclaré Wu

Face à cette situation, les partisans de la sécurité de l’IA réclament une réglementation pour surveiller les grandes entreprises d’IA. Le projet de loi SB 1047 en Californie en est un exemple. Le gouverneur Gavin Newsom doit décider de le signer ou de le rejeter dans les prochains jours.

Les anciens employés d’OpenAI, quant à eux, demandent que les salariés des grandes entreprises d’IA aient un « droit d’alerte« . Et vous, que proposez-vous ?

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *