🧹 Retrait de GPT-4o, GPT-4.1, GPT-4.1 mini et OpenAI o4-mini dans ChatGPT ↗
OpenAI annonce le retrait prochain de quelques anciens modèles de ChatGPT, notamment GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini, tout en maintenant l'accès à l'API inchangé pour le moment. En somme, un grand ménage de printemps… sauf que le balai vise quelques modèles très appréciés.
Le plus surprenant, c'est qu'ils admettent que GPT-4o avait un « sens » apprécié, mais que son utilisation a largement basculé vers des solutions plus récentes. Bref, on retrouve cette attitude classique du « on vous entend, mais on continue comme ça » : une franchise, ou tout simplement une efficacité.
💰 Amazon serait en pourparlers pour investir jusqu'à 50 milliards de dollars dans OpenAI, selon une source ↗
Amazon serait en pourparlers préliminaires pour investir jusqu'à 50 milliards de dollars dans OpenAI. Un tel montant en devient presque irréel, un peu comme lorsque le score de votre jeu vidéo passe en notation scientifique.
Le même rapport indique qu'OpenAI cherche à lever des fonds de manière massive, et que d'autres investisseurs de poids sont également sur les rangs. Et oui, Amazon détient déjà une participation importante dans Anthropic ; on pourrait donc penser à une stratégie de couverture… ou à une prise de contrôle totale, selon le degré d'exagération que l'on souhaite.
🪖 Le Pentagone et Anthropic s'opposent sur l'utilisation de l'IA militaire, selon des sources ↗
Anthropic et le Pentagone seraient en désaccord sur les limites des autorisations, notamment concernant les garde-fous qui empêcheraient le ciblage par armes autonomes ou l'utilisation de la surveillance intérieure. La position du Pentagone semble se rapprocher de « si c'est légal, c'est utilisable », tandis qu'Anthropic cherche à encadrer le débat par des mesures politiques contraignantes.
Ce dossier est lié à des négociations contractuelles pouvant atteindre 200 millions de dollars, ce qui rend la tension d'autant plus palpable. C'est l'un de ces moments où le débat sur l'éthique de l'IA cesse d'être une simple table ronde pour se transformer en paperasserie, en lignes budgétaires et en réunions embarrassantes.
🔎 Perplexity signe un contrat de 750 millions de dollars avec Microsoft pour une solution d'IA dans le cloud, rapporte Bloomberg News ↗
Perplexity aurait signé un contrat pluriannuel de 750 millions de dollars pour utiliser Microsoft Azure, la plateforme Foundry devenant le principal centre d'approvisionnement et d'exécution des modèles, y compris les systèmes de plusieurs laboratoires de renom. Il s'agit d'une importante opération de croissance qui ancre davantage Perplexity dans l'orbite de Microsoft (une situation confortable… du moins jusqu'à un certain point).
Il est à noter qu'ils précisent également qu'AWS reste leur fournisseur d'infrastructure privilégié ; il ne s'agit donc pas d'une rupture nette, mais plutôt d'une précaution supplémentaire, comme garder une deuxième clé « au cas où ». De plus, des tensions juridiques avec Amazon persistent, ce qui donne à ce triangle amoureux avec le cloud un air légèrement maudit.
📉 Les investisseurs sanctionnent les dépenses des géants de la tech en IA qui génèrent une croissance plus lente ↗
L'état d'esprit de Wall Street : investir des sommes astronomiques dans l'IA, certes, mais seulement si la croissance est rapide et évidente. Le contraste était saisissant : Microsoft a essuyé un revers important après que ses résultats n'ont pas apaisé les inquiétudes concernant la dynamique du cloud, tandis que Meta a bondi suite aux signes encourageants de rentabilité de sa plateforme publicitaire basée sur l'IA.
Ce n'est pas que les investisseurs détestent soudainement les dépenses en IA… ils détestent simplement les dépenses basées sur le principe du « faites-nous confiance ». Ce qui se comprend, même si cela donne l'impression que les feuilles de route des produits sont évaluées par un comptable très impatient.
🕵️ Un ancien ingénieur de Google reconnu coupable de vol de secrets d'IA pour des entreprises chinoises ↗
Linwei Ding, un ancien ingénieur de Google, a été reconnu coupable par un tribunal américain de vol de secrets commerciaux liés à l'intelligence artificielle. Selon l'accusation, ces secrets étaient destinés à deux entreprises chinoises avec lesquelles il collaborait. Les accusations portent sur des documents confidentiels relatifs à l'infrastructure utilisée pour entraîner de grands modèles d'IA – le cœur même, certes peu glamour, mais crucial, de l'opération.
Cette affaire s'inscrit dans une campagne américaine plus large visant à réprimer les transferts de technologies sensibles, et elle nous rappelle que la « concurrence en matière d'IA » ne se limite pas aux benchmarks et aux démonstrations de produits ; elle implique également des accusations d'espionnage et des conséquences juridiques très désagréables.
FAQ
Que signifie le retrait de GPT-4o par OpenAI dans ChatGPT, et quels modèles sont concernés ?
OpenAI annonce la suppression prochaine de plusieurs anciens modèles du sélecteur de modèles de ChatGPT, notamment GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini. Cette modification concerne uniquement les modèles disponibles dans ChatGPT, et non nécessairement ceux disponibles ailleurs. OpenAI présente cette initiative comme un « nettoyage de printemps », motivé par l'évolution des usages vers des modèles plus récents. Si votre travail dépend du comportement d'un modèle spécifique, prévoyez des ajustements dans votre flux de travail et organisez-vous en conséquence.
L'accès à l'API pour GPT-4o ou GPT-4.1 sera-t-il modifié après leur suppression de ChatGPT ?
D'après les informations disponibles, l'accès à l'API reste inchangé pour le moment, même si ces modèles sont retirés de ChatGPT. Autrement dit, une application ou une intégration peut continuer à fonctionner normalement pendant que le sélecteur de modèles ChatGPT change. Dans de nombreux cas, il est plus prudent de suivre les annonces de disponibilité des modèles et d'éviter de supposer que les offres ChatGPT et API restent parfaitement alignées. Si la cohérence est importante, prévoyez des solutions de repli.
Pourquoi OpenAI a-t-il décidé d'abandonner GPT-40 alors même que les utilisateurs appréciaient son « fonctionnement » ?
OpenAI reconnaît explicitement que GPT-4o offrait une expérience utilisateur appréciée par certains, mais constate que son utilisation s'est fortement orientée vers des modèles plus récents. En pratique, les produits restreignent souvent les options par défaut afin de limiter la confusion, la charge de support et la fragmentation. Cela ne signifie pas que cette préférence était illusoire ; cela signifie simplement que GPT-4o n'était plus en phase avec la tendance actuelle. Si vous appréciez cette expérience, vous devrez probablement tester d'autres modèles jusqu'à trouver celui qui correspond le mieux à votre flux de travail.
Que signifierait pour la concurrence dans le domaine de l'IA un investissement d'Amazon pouvant atteindre 50 milliards de dollars dans OpenAI ?
Amazon serait en pourparlers préliminaires pour investir jusqu'à 50 milliards de dollars dans OpenAI, parallèlement à une levée de fonds massive. Si cet accord se concrétise, il pourrait constituer une importante manœuvre stratégique, d'autant plus qu'Amazon détient déjà une participation significative dans Anthropic. Selon les termes de l'accord, il pourrait influencer les partenariats, les choix d'infrastructure et la dynamique concurrentielle entre les plus grands laboratoires d'IA et fournisseurs de services cloud. Ces discussions étant encore préliminaires, rien n'est encore décidé.
Pourquoi le Pentagone et Anthropic se disputent-ils au sujet des garde-fous en matière d'IA militaire ?
Selon certaines sources, le département américain de la Défense et Anthropic s'opposent sur les restrictions qui empêcheraient des utilisations telles que le ciblage par armes autonomes ou la surveillance intérieure. La position du Pentagone est décrite comme étant plutôt du type « si c'est légal, c'est utilisable », tandis qu'Anthropic souhaite des limites réglementaires plus strictes dès le départ. Les négociations contractuelles portant sur un montant pouvant atteindre 200 millions de dollars, ce différend transforme l'éthique en clauses contractuelles. C'est là que les garde-fous sont soit maintenus, soit effacés discrètement.
Qu’est-ce que change l’accord de 750 millions de dollars de Perplexity avec Azure, et pourquoi conserver également AWS ?
Perplexity aurait signé un contrat pluriannuel de 750 millions de dollars pour des services cloud centrés sur Azure, avec Microsoft Foundry comme plateforme principale pour l'acquisition et l'exécution des modèles. Parallèlement, l'entreprise privilégierait toujours Amazon Web Services comme fournisseur d'infrastructure, ce qui suggère une stratégie multicloud plutôt qu'une migration complète. Parmi les motivations communes figurent la résilience, un pouvoir de négociation accru et la flexibilité des capacités. Des tensions juridiques sous-jacentes avec Amazon expliquent en partie cette approche hybride.
Pourquoi les investisseurs sanctionnent-ils les dépenses des géants de la tech en matière d'IA alors même que l'IA est la priorité ?
Le constat est simple : les investisseurs toléreront des dépenses massives en IA si la croissance est rapide et manifeste, mais ils se méfient des échéances basées sur la confiance. Dans l’exemple cité, Microsoft a subi des pertes lorsque ses résultats n’ont pas dissipé les inquiétudes concernant la dynamique du cloud, tandis que Meta a progressé suite aux signes indiquant que l’IA améliorait les performances publicitaires. En résumé, les marchés exigent des preuves : augmentation du chiffre d’affaires, gains d’efficacité ou une perspective de retour sur investissement plus claire. Les dépenses seules ne suffisent pas ; ce sont les retours sur investissement démontrés qui comptent.
Que s'est-il passé dans l'affaire du vol de secrets commerciaux impliquant un ancien ingénieur de Google, et quelles leçons les entreprises devraient-elles en tirer ?
Linwei Ding, ingénieur chez Google, a été reconnu coupable par un tribunal américain de vol de secrets commerciaux liés à l'IA. Selon l'accusation, les documents étaient destinés à deux entreprises chinoises avec lesquelles il collaborait. Ces documents concernaient l'infrastructure d'entraînement de grands modèles d'IA, une technologie essentielle fonctionnant en coulisses. Cette affaire s'inscrit dans le cadre d'une initiative américaine plus large visant à limiter les transferts de technologies sensibles. Pour les équipes, elle souligne l'importance de contrôles d'accès plus stricts, d'une surveillance accrue et de procédures de départ rigoureuses.