🍏 Apple et Google concluent un accord Gemini pour une version remaniée de Siri : une victoire majeure pour Alphabet ↗
Apple s'apprête à utiliser les modèles Gemini de Google pour une version remaniée de Siri, dans le cadre d'un partenariat pluriannuel qui sonne comme une véritable course à l'armement en matière d'IA, mais dans un esprit de coopération. Cela place également les modèles de Google devant l'immense base d'appareils Apple, ce qui représente… un portefeuille bien garni.
Ce qui est un peu surprenant : cela ne signifie pas forcément qu’Apple mise tout sur un seul modèle ; il s’agit plutôt de faire de Siri une couche de routage, et c’est le meilleur assistant vocal qui l’emporte pour chaque tâche. Ingénieux en théorie, complexe en pratique.
💬 Meta exclut l'Italie de l'interdiction des chatbots concurrents sur WhatsApp ↗
Meta exclut l'Italie de son projet de bloquer les chatbots concurrents sur WhatsApp, non pas par soudain relâchement, mais à la demande des autorités de régulation. L'idée d'une interdiction est donc toujours d'actualité, mais assortie d'une exception pour ce pays.
L'enjeu principal réside dans le contrôle des plateformes : si les concurrents ne peuvent pas s'intégrer à WhatsApp, Meta AI bénéficie d'un terrain plus dégagé. Et pour un concurrent, c'est tout le problème, en résumé.
🏛️ Déclaration du secrétaire d'État à la Chambre des communes : 12 janvier 2026 ↗
Le secrétaire d'État britannique à la Science et à la Technologie s'est adressé à la Chambre des communes en insistant fermement sur les dangers liés aux contenus générés par l'IA, notamment les deepfakes à caractère sexuel non consensuels. Son discours n'évoque pas un « risque futur », mais bien une réalité : « C'est une réalité, c'est odieux et c'est illégal. »
C'est un de ces moments où la politique en matière d'IA cesse d'être un simple débat et se transforme en application de la loi, en responsabilité des plateformes et en décisions concernant les contenus à supprimer – ou non. C'est gênant, mais en quelque sorte nécessaire.
🧑💻 L'IA pousse les développeurs à abandonner Stack Overflow ↗
Le trafic et le nombre de questions sur Stack Overflow ne cessent de diminuer, et l'article constate une évidence : de nombreux développeurs consultent désormais un avocat avant de poser leur question. Et, pour être honnête, certains en ont assez de se faire réprimander pour ne pas avoir formulé leur question comme un mémoire juridique.
C'est un changement d'habitude plus qu'une simple défaillance de plateforme. Les gens ont toujours besoin de réponses ; ils les obtiennent simplement via une fenêtre de chat plutôt que par le biais d'un fil de discussion… jusqu'à ce que le grain de sable dans l'engrenage apparaisse.
🤖 Le modèle d'IA incarnée le mieux classé de RoboChallenge passe en open source, remettant en question le paradigme de la collecte de données propres ↗
Spirit AI annonce que son modèle vision-langage-action, Spirit v1.5, a surpassé le benchmark RoboChallenge et publie en open source le modèle de base, les pondérations et le code d'évaluation. J'apprécie cette volonté de partager le concept : c'est rare et rafraîchissant.
Leur argument est que des données réelles, diversifiées et orientées vers un objectif précis, valent mieux que des démonstrations irréprochables, car les robots ont besoin de capacités de récupération et de gérer les situations complexes, et pas seulement des performances parfaites. C'est comme former un conducteur uniquement les dimanches ensoleillés… on le regrette dès la première pluie.
FAQ
Que signifie concrètement l'accord Gemini pour la refonte de Siri pour les utilisateurs d'iPhone ?
Cela laisse entendre que Siri pourrait s'appuyer sur les modèles Gemini de Google pour traiter davantage de requêtes dans le cadre d'une expérience utilisateur repensée. Au quotidien, cela se traduira probablement par des réponses plus pertinentes pour les tâches qui tirent parti de modèles de langage complexes, plutôt que par le style classique d'assistant vocal basé sur des commandes. Le changement majeur se situe en coulisses : Siri fonctionne davantage comme une couche d'orchestration, sélectionnant le modèle le plus adapté à chaque requête.
Apple va-t-elle miser « tout » sur Google Gemini pour Siri, ou peut-elle changer de modèle ?
La configuration décrite ne semble pas imposer un modèle unique. Siri se positionne comme une couche de routage où le « meilleur fournisseur de réponse » peut varier selon la tâche, ce qui permet l'utilisation de plusieurs modèles ou fournisseurs. Cette flexibilité peut améliorer la qualité, mais elle introduit également une réelle complexité opérationnelle liée à la cohérence, à la latence et au choix du modèle le plus approprié pour traiter les requêtes sensibles ou à enjeux élevés.
Pourquoi l'accord avec Gemini pour la refonte de Siri est-il considéré comme une victoire majeure pour Alphabet ?
Si les modèles Gemini alimentent certaines fonctionnalités de Siri, l'IA de Google bénéficie d'une visibilité accrue grâce à l'immense parc d'appareils Apple. Cette distribution est cruciale, surtout dans un secteur où l'adoption est conditionnée par les préférences et la facilité d'utilisation. Même si Siri est disponible sur différents modèles, être une option par défaut au sein de l'écosystème Apple permet à Google de conserver une place centrale dans la course à l'IA grand public.
Que se passe-t-il avec Meta et le projet de bloquer les chatbots IA concurrents sur WhatsApp ?
Meta s'apprêterait à limiter l'accès de ses concurrents aux chatbots d'IA au sein de WhatsApp, l'Italie étant pour l'instant exemptée de cette mesure. Le motif invoqué est un examen réglementaire : l'Italie bénéficierait ainsi d'une exception nationale le temps que les autorités de régulation analysent la situation de plus près. Plus largement, la tension porte sur le pouvoir de la plateforme : WhatsApp doit-il autoriser ses concurrents à s'intégrer, ou Meta AI doit-elle bénéficier d'un accès préférentiel ?.
Quels aspects le gouvernement britannique a-t-il mis en avant concernant les méfaits générés par l'IA, tels que les deepfakes à caractère sexuel ?
La déclaration a mis en lumière les préjudices liés aux contenus générés par l'IA, notamment les deepfakes à caractère sexuel non consensuels. Le problème n'a pas été présenté comme un risque lointain et hypothétique, mais comme un problème actuel et grave ayant des implications juridiques et répressives. Cette approche tend à orienter l'attention vers le retrait des contenus, la responsabilité des plateformes et la rapidité avec laquelle les contenus préjudiciables sont détectés et supprimés.
Pourquoi les développeurs utilisent-ils moins Stack Overflow, et quel en est le revers de la médaille ?
L'article soutient que de plus en plus de développeurs consultent d'abord un LLM, ce qui réduit la nécessité de poser des questions et d'attendre des réponses. Il souligne également un facteur culturel : certains développeurs se sont lassés des critiques concernant la mise en forme ou les questions jugées « erronées ». Le revers de la médaille, c'est la fiabilité : les réponses par messagerie instantanée peuvent être rapides, mais des réponses erronées et des conseils non vérifiés peuvent engendrer des bugs subtils si les résultats ne sont pas validés.