Actualités IA, 15 février 2026

Résumé de l'actualité de l'IA : 15 février 2026

🦞 Le fondateur d'OpenClaw, Steinberger, rejoint OpenAI ; le robot open-source devient une fondation

Peter Steinberger rejoint OpenAI pour développer les « agents personnels », tandis qu'OpenClaw est confié à une fondation afin de rester open source (et de bénéficier d'un support). Cette séparation est… plutôt astucieuse : embaucher le concepteur, maintenir le projet public.

OpenClaw propose une solution résolument pratique : tri des e-mails, documents d'assurance, enregistrements de vols, et toutes ces petites tâches administratives du quotidien. Son succès fulgurant sur GitHub a également suscité des inquiétudes quant à sa sécurité, notamment en cas de déploiement négligent.

🪖 Le Pentagone, exaspéré par les réticences d'Anthropic concernant l'utilisation de son modèle d'IA Claude par l'armée, pourrait rompre ses liens, selon un rapport

Le cœur du conflit : le Pentagone souhaite un accès étendu, « à toutes fins légitimes », tandis qu’Anthropic s’efforce de maintenir des limites strictes concernant les armes entièrement autonomes et la surveillance de masse. Ce genre de désaccord semble purement philosophique jusqu’à ce que quelqu’un lance : « Nous pourrions vous remplacer. »

Un détail souvent négligé : les responsables ne veulent pas que le modèle bloque soudainement les flux de travail en cours, ni qu’ils négocient indéfiniment des cas particuliers (ce qui se comprend… mais c’est quand même inquiétant). Il y a une réelle tension quant à la question de savoir qui détient le pouvoir, et ce n’est pas subtil.

🧠 Modèle de création de startup pour prédire le comportement humain

Simile a levé 100 millions de dollars pour développer un modèle d'apprentissage limité destiné à prédire les comportements humains, notamment en anticipant les questions susceptibles d'être posées lors de conférences téléphoniques sur les résultats financiers. Cible précise, ambition démesurée, combinaison pour le moins troublante.

Cette approche s'appuie sur des entretiens avec de vraies personnes et des données de recherche comportementale, puis effectue des simulations avec des agents d'IA conçus pour refléter les préférences réelles. C'est comme créer un modèle météorologique pour les décisions humaines… ce qui paraît impossible jusqu'à ce que ça ne le soit plus.

🧑⚖️ Exclusivité : La Maison Blanche fait pression sur un élu de l'Utah pour qu'il rejette le projet de loi sur la transparence de l'IA

Une initiative de l'Utah visant à améliorer la transparence en matière d'intelligence artificielle suscite la colère de la Maison-Blanche, dont les responsables exhortent son auteur à y renoncer. Le texte met l'accent sur la transparence et la sécurité des enfants : difficile de contester cet argument sur le plan de l'image.

Mais le véritable enjeu est celui de la compétence : qui, des États ou du gouvernement fédéral, fixe les règles ? Et oui, c’est un vrai casse-tête, comme si deux personnes se disputaient le même volant en prétendant être la plus calme.

🎬 ByteDance s'engage à empêcher toute utilisation non autorisée de sa propriété intellectuelle sur son outil vidéo basé sur l'IA suite aux menaces de Disney

Disney a envoyé une mise en demeure à ByteDance concernant son générateur vidéo basé sur l'IA, et ByteDance affirme renforcer ses mesures de sécurité afin d'empêcher toute utilisation non autorisée de sa propriété intellectuelle et de son image. Le reproche formulé à l'encontre de l'outil est qu'il peut générer des personnages de franchises connues comme s'il s'agissait de simples autocollants du domaine public.

C'est le choc que tout le monde avait vu venir : les outils de création de vidéos virales par IA évoluent à une vitesse fulgurante, les studios se montrent procéduriers, et le « nous allons ajouter des mesures de sécurité » devient l'excuse par défaut. Ironie du sort, la technologie semble magique, tandis que le côté juridique fait figure de poids.

FAQ

Que signifie le fait que le fondateur d'OpenClaw ait rejoint OpenAI tandis qu'OpenClaw est passé à une fondation ?

Cela marque une séparation entre le développeur des « agents personnels » et le projet, qui doit rester sous gouvernance publique. L'arrivée de Steinberger chez OpenAI laisse penser qu'il se concentrera sur le développement de produits de type agent au sein de cette organisation. Le placement d'OpenClaw dans une fondation vise à garantir son caractère open source et un support durable. Concrètement, cette décision a pour but de préserver la confiance de la communauté, tandis que le développeur s'installe là où se trouvent les ressources.

Pourquoi les agents d'IA de type OpenClaw se concentrent-ils sur des tâches comme le traitement des courriels et la paperasserie ?

Les tâches administratives courantes sont répétitives, structurées et chronophages, ce qui en fait une cible idéale pour l'automatisation. Les exemples cités – tri des courriels, documents d'assurance et enregistrement des vols – sont des tâches spécifiques avec des critères de réussite clairement définis. Cette spécialisation permet aux agents de se sentir plus utiles plus rapidement qu'avec des assistants aux missions plus polyvalentes. Elle souligne également l'importance d'un contrôle d'accès rigoureux lorsque les agents gèrent des comptes personnels.

Comment déployer un agent d'IA open source comme OpenClaw sans créer de problèmes de sécurité ?

Considérez-le comme un logiciel capable d'accéder à des données sensibles, et non comme un simple script d'expérimentation. Il est courant de sécuriser les identifiants, de limiter les autorisations au strict minimum et de conserver des journaux et des pistes d'audit. Exécutez-le dans un environnement sécurisé et isolez-le des systèmes critiques. De nombreux problèmes de sécurité sont dus à un déploiement négligent, notamment lorsque des points d'accès ou des jetons sont exposés sans mesures de protection robustes.

Pourquoi le Pentagone est-il mécontent des restrictions imposées par Anthropic à l'utilisation militaire de Claude ?

Le différend porte sur le périmètre et le contrôle : le Pentagone souhaite un accès étendu « à toutes fins légales », tandis qu’Anthropic impose des limites strictes concernant les armes entièrement autonomes et la surveillance de masse. Les responsables craignent également que les modèles ne bloquent les processus en cours ou n’entraînent des négociations interminables sur des cas particuliers. Cette tension est moins abstraite qu’il n’y paraît : il s’agit de savoir qui décide de ce que le modèle peut faire lors d’opérations réelles.

Comment les startups tentent-elles de prédire le comportement humain grâce à l'IA, et pourquoi cela suscite-t-il la controverse ?

L'exemple présenté ici, Simile, utilise un modèle d'« apprentissage limité » visant à prédire les comportements humains, notamment en anticipant les questions susceptibles d'être posées lors de conférences téléphoniques sur les résultats financiers. L'approche décrite combine des entretiens avec des données de recherche comportementale et des simulations utilisant des agents d'IA conçus pour refléter les préférences réelles. Le procédé est déroutant car il fait passer l'IA d'une capacité à répondre aux individus à une capacité à les prédire. Le défi consiste à limiter les affirmations et à éviter tout excès de confiance.

Que se passe-t-il lorsque les outils vidéo d'IA génèrent des personnages protégés par le droit d'auteur, comme dans le conflit entre ByteDance et Disney ?

Le schéma observé est familier : un studio envoie une mise en demeure, et la plateforme réagit en renforçant ses mesures de protection pour empêcher toute utilisation non autorisée de la propriété intellectuelle ou de l’image. Dans de nombreux outils, ces mesures se traduisent par des filtres de contenu plus stricts, une meilleure détection des personnages reconnaissables et une application plus claire des règles d’utilisation. Le conflit sous-jacent oppose la rapidité à la responsabilité : la viralité se propage vite, et le respect des droits est une contrainte majeure. Il faut s’attendre à une multiplication de ces affrontements à mesure que les plateformes de création de vidéos se développent.

Actualités IA d'hier : 13 février 2026

Découvrez les dernières fonctionnalités d'IA sur la boutique officielle des assistants IA

À propos de nous

Retour au blog