Actualités IA, 5 février 2026

Résumé de l'actualité de l'IA : 5 février 2026

🕵️ Le Royaume-Uni va collaborer avec Microsoft pour développer un système de détection des deepfakes

La Grande-Bretagne affirme collaborer avec Microsoft, des universitaires et d'autres experts pour construire un système capable de repérer les deepfakes en ligne, ainsi qu'une méthode fiable pour tester l'efficacité des outils de détection en situation réelle.

L'accent est mis sur les préjudices les plus graves : l'usurpation d'identité, la fraude et les contenus sexuels non consensuels. Ce n'est pas glamour, mais c'est là que se concentrent les dégâts.

🧠 Anthropic lance une mise à jour de son IA alors que le marché sanctionne les valeurs technologiques

Anthropic a déployé une version améliorée de son modèle Claude (Opus 4.6), promettant des performances accrues en matière de programmation et de finance, ainsi que la capacité de traiter jusqu'à un million de jetons en une seule opération. C'est un contexte très riche, un peu comme si on donnait au modèle une carte de bibliothèque entière.

Ils misent également sur les « agents » via Claude Code, permettant de répartir les tâches entre des assistants autonomes. Pratique, plus qu'on ne le pense — et un changement qui inquiète quelque peu les investisseurs traditionnels du secteur des logiciels.

🧑💼 OpenAI dévoile un service d'agent IA dans le cadre de ses efforts pour attirer les entreprises

OpenAI a annoncé « Frontier », un service destiné aux entreprises pour la création et la gestion d'agents d'IA – des bots qui effectuent des tâches spécifiques comme le débogage de logiciels, la gestion des flux de travail, etc.

La particularité, c'est que la solution est conçue pour s'intégrer à l'infrastructure existante de l'entreprise et même prendre en charge les agents tiers, ce qui donne l'impression qu'OpenAI cherche à devenir la salle de contrôle, et non plus seulement le fournisseur de modèles. Ambitieux… ou légèrement possessif, selon le point de vue.

🪖 Les États-Unis et la Chine se retirent de la déclaration commune sur l'utilisation de l'IA dans le domaine militaire

Plusieurs pays ont signé une déclaration non contraignante énonçant des principes pour l'utilisation de l'IA dans la guerre – notamment la responsabilité humaine, des structures de commandement claires, ainsi que des tests et une évaluation des risques rigoureux.

Mais les États-Unis et la Chine n'ont pas signé. Voilà qui résume toute l'histoire en un instant : le règlement existe, et les principaux acteurs… refusent de signer.

🎭 La législation de l'État de New York exige la divulgation de l'identité des personnes générées par l'IA dans la publicité et renforce les droits à l'image posthume

L'État de New York a adopté des lois exigeant que les publicités utilisant des « interprètes synthétiques » générés par intelligence artificielle le signalent clairement aux téléspectateurs de l'État, même si l'annonceur est basé ailleurs. En clair : il est interdit de faire passer un faux humain pour du marketing.

Par ailleurs, l'État a renforcé la réglementation relative à l'utilisation commerciale de l'image des personnes décédées, y compris les reproductions numériques. C'est un peu macabre, il faut bien le dire, mais aussi très « bienvenue dans l'ère où l'identité a besoin d'être protégée »

FAQ

Que construit la Grande-Bretagne avec Microsoft pour détecter les deepfakes en ligne ?

Le Royaume-Uni annonce sa collaboration avec Microsoft, des universitaires et d'autres experts pour concevoir un système capable de détecter les deepfakes en ligne. Ce plan prévoit également la mise au point d'une méthode fiable pour tester la performance des outils de détection en conditions réelles. L'accent est mis sur les préjudices les plus graves : l'usurpation d'identité, la fraude et la diffusion de contenus sexuels non consensuels.

En quoi les tests « en conditions réelles » des détecteurs de deepfake différeront-ils des démonstrations ?

Parallèlement au détecteur lui-même, le Royaume-Uni met l'accent sur une méthode permettant de tester les outils de détection de deepfakes dans des conditions réalistes. Dans de nombreux processus, les modèles semblent performants sur des ensembles de données sélectionnés, mais leurs performances se dégradent lorsque les formats de contenu, la compression ou les tactiques adverses évoluent. Une approche d'évaluation structurée permet de comparer les outils de manière cohérente et de révéler les failles de la détection dans des environnements en ligne réels.

Qu'est-ce qu'Anthropic a changé dans Claude Opus 4.6, et pourquoi la limite de jetons est-elle importante ?

Anthropic affirme que Claude Opus 4.6 améliore les performances dans des domaines tels que le développement et la finance, et peut gérer jusqu'à un million d'éléments de contexte. Cette fenêtre de contexte plus étendue facilite le travail sur de longs documents ou des bases de code complexes sans rechargement constant des informations. Anthropic a également mis en avant les « agents » via Claude Code, permettant de répartir les tâches entre des assistants autonomes.

Qu’est-ce que « Frontier » d’OpenAI et comment s’intègre-t-il aux flux de travail des entreprises ?

OpenAI a annoncé « Frontier », un service destiné aux entreprises pour la création et la gestion d'agents d'IA effectuant des tâches spécifiques, comme le débogage de logiciels ou la gestion de flux de travail. Ce service est conçu pour s'intégrer à l'infrastructure existante de l'entreprise plutôt que de fonctionner comme un point d'accès autonome pour les modèles. OpenAI a également indiqué qu'il prend en charge les agents tiers, ce qui implique une couche de contrôle pour la coordination de différents systèmes d'agents.

Que dit la déclaration sur l'IA militaire, et quelles sont ses implications pour la gouvernance de l'IA ?

Cette déclaration, non contraignante, énonce des principes d'utilisation de l'IA dans la guerre, notamment la responsabilité humaine, des structures de commandement claires et des tests rigoureux ainsi qu'une évaluation des risques. Reuters a rapporté que de nombreux pays l'ont signée, à l'exception des États-Unis et de la Chine. Pour la gouvernance de l'IA, cette absence est importante car elle exclut les principaux acteurs d'un ensemble de normes communes.

Quelles sont les nouvelles règles new-yorkaises concernant les acteurs générés par l'IA dans les publicités ?

L’État de New York a promulgué des lois exigeant que les publicités utilisant des « interprètes synthétiques » générés par l’IA mentionnent clairement ce fait auprès du public de l’État, même si l’annonceur est établi ailleurs. Par ailleurs, l’État a renforcé les droits à l’image posthume concernant l’utilisation commerciale de l’image de personnes décédées, y compris leurs répliques numériques. Concrètement, cela favorise une gouvernance de l’IA vers un étiquetage plus clair et un contrôle plus strict de l’utilisation de l’identité.

Actualités IA d'hier : 4 février 2026

Découvrez les dernières fonctionnalités d'IA sur la boutique officielle des assistants IA

À propos de nous

Retour au blog