Actualités IA 28 janvier 2026

Résumé de l'actualité de l'IA : 28 janvier 2026

🧬 DeepMind lance AlphaGenome pour identifier les facteurs génétiques à l'origine des maladies

DeepMind a dévoilé AlphaGenome, un système d'IA conçu pour prédire comment les mutations de l'ADN modifient la régulation des gènes – en d'autres termes, quand, où et avec quelle intensité les gènes s'activent. Il peut analyser d'immenses portions d'ADN en une seule opération, y compris les vastes régions non codantes souvent considérées comme la matière noire du vivant.

L'argument est simple : identifier plus rapidement les mutations réellement importantes pour le risque de cancer et les maladies héréditaires complexes. Si cela fonctionne comme prévu, les chercheurs consacreront moins de temps à des suppositions et plus de temps à tester les bonnes hypothèses – ce qui paraît évident, mais constitue pourtant l'essentiel du problème.

🧑💼 L'intelligence artificielle va coûter des emplois, admet Liz Kendall

La secrétaire d'État britannique à la Technologie a déclaré ouvertement que l'adoption de l'IA entraînerait des pertes d'emplois, loin du discours rassurant habituel. Elle a évoqué les inquiétudes concernant les postes accessibles aux jeunes diplômés dans des secteurs comme le droit et la finance, sans prétendre pouvoir donner un chiffre précis.

Dans le même temps, le gouvernement mise fortement sur l'adaptation : un vaste programme de formation de millions de travailleurs aux compétences de base en IA vise à faire du Royaume-Uni un pays adoptant plus rapidement cette technologie. C'est le dilemme classique : oui, des emplois disparaissent, oui, d'autres apparaissent, et non, la transition ne se fera pas sans heurts.

🗞️ Le Royaume-Uni fait pression sur Google pour permettre aux sites de se désinscrire des aperçus de l'IA

Les autorités britanniques de la concurrence ont proposé des modifications permettant aux éditeurs de refuser que leur contenu soit utilisé pour les aperçus d'IA de Google (ou pour l'entraînement de modèles d'IA indépendants) sans être pénalisés dans leur classement de recherche. Cette absence de pénalité est cruciale.

L'idée est de rééquilibrer les pouvoirs, car les résumés basés sur l'IA modifient la façon dont les utilisateurs cliquent (ou ne cliquent pas). La réponse de Google a été en substance : les comportements de recherche évoluent, nous envisageons davantage de contrôles, mais il ne faut pas fragmenter le produit de manière maladroite… ce qui, certes, est compréhensible, mais aussi pratique.

🛡️ Protéger vos données lorsqu'un agent IA clique sur un lien

OpenAI a détaillé un risque de sécurité spécifique lié aux agents : l’exfiltration de données via URL. Un attaquant peut ainsi tromper une IA en lui faisant charger une URL qui intègre discrètement des informations privées dans la chaîne de requête. Même si le modèle ne divulgue jamais le secret, la requête elle-même peut le révéler. C’est une technique malveillante, et d’une simplicité déconcertante.

Leur solution consiste en une règle simple, mais rigoureuse : les agents ne doivent récupérer automatiquement que les URL publiques et dont l’existence est vérifiée par un index web indépendant. Si un lien n’est pas vérifié comme public, le système doit ralentir et redonner le contrôle à l’utilisateur par le biais d’avertissements – une contrainte volontaire, mais constructive.

🇪🇺 Le prochain chapitre de l'IA dans l'UE

OpenAI a publié un plan directeur axé sur l'UE qui met en lumière le problème du « surdimensionnement des capacités » : les modèles peuvent faire bien plus que ce que les particuliers et les entreprises en font actuellement, et cet écart risque d'entraîner des progrès inégaux entre les pays. C'est comme posséder une voiture de course et ne l'utiliser que pour aller faire ses courses… sauf que le magasin du coin représente toute votre économie.

Au-delà des déclarations d'intention, il y a des mesures concrètes : un programme visant à former des milliers de PME européennes aux compétences en IA, une subvention liée à la recherche sur la sécurité et le bien-être des jeunes, et un renforcement de la collaboration avec les gouvernements. C'est à la fois une note de politique générale et une campagne de sensibilisation – et, il faut bien le dire, les deux se confondent.

🔐 Risques liés à l'IA et gouvernance cybernétique : projet de profil de l'IA en matière de cybersécurité du NIST

Un nouveau projet de profil du NIST (basé sur l'analyse d'un rapport d'un cabinet d'avocats) explique comment les organisations devraient intégrer l'IA à leur gouvernance en matière de cybersécurité : sécuriser les systèmes d'IA eux-mêmes et utiliser l'IA pour améliorer la cyberdéfense. Sur le papier, c'est facultatif, mais le « volontaire » a tendance à devenir la norme avec le temps.

Les groupes de travail se penchent sur des thèmes tels que la sécurisation des composants d'IA et le déploiement de défenses basées sur l'IA, en tenant compte notamment de la chaîne d'approvisionnement et de l'automatisation des processus de réponse. Le principe est clair : il faut considérer l'IA à la fois comme une nouvelle surface d'attaque et comme un nouvel ensemble d'outils, sans prétendre que ces deux aspects s'annulent.

FAQ

Qu'est-ce que l'AlphaGenome de DeepMind, et quel problème tente-t-il de résoudre ?

AlphaGenome est un système d'IA, selon DeepMind, capable de prédire l'impact des mutations de l'ADN sur la régulation des gènes : quand les gènes s'activent, où et avec quelle intensité. Il est conçu pour analyser simultanément de très vastes portions d'ADN, y compris les régions non codantes, réputées difficiles à interpréter. Son objectif est d'aider les chercheurs à identifier les mutations les plus susceptibles d'être à l'origine de maladies, afin que les analyses en laboratoire puissent se concentrer sur les pistes les plus prometteuses.

Comment AlphaGenome pourrait-il aider les chercheurs à identifier plus rapidement les facteurs génétiques à l'origine des maladies ?

Dans de nombreux protocoles de recherche en génétique, la difficulté majeure réside dans la réduction des listes de variants à ceux susceptibles de modifier l'activité des gènes. AlphaGenome promet de réduire cette incertitude en prédisant comment des mutations spécifiques pourraient altérer la régulation de longues séquences d'ADN. Si ces prédictions se confirment, les équipes peuvent concentrer leurs expériences sur les variants les plus susceptibles d'être liés au risque de cancer ou à des maladies héréditaires complexes, et ainsi consacrer moins de temps aux pistes infructueuses.

L'adoption de l'IA va-t-elle réellement entraîner des pertes d'emplois au Royaume-Uni, et quels sont les métiers les plus menacés ?

La secrétaire d'État britannique aux Technologies, Liz Kendall, a déclaré que l'adoption de l'IA entraînerait des pertes d'emplois et a souligné les inquiétudes concernant les postes accessibles aux jeunes diplômés. Elle a notamment cité des secteurs comme le droit et la finance, où les tâches de début de carrière sont susceptibles d'être davantage automatisées. Parallèlement, le gouvernement insiste sur l'adaptation par le biais de formations à grande échelle aux compétences de base en IA, reconnaissant que la transition pourrait être inégale même si de nouveaux emplois émergent.

Les éditeurs britanniques peuvent-ils se désinscrire des aperçus IA de Google sans perdre leur classement dans les résultats de recherche ?

Les autorités britanniques de la concurrence ont proposé des modifications permettant aux éditeurs de refuser que leur contenu soit utilisé pour les résumés IA de Google (ou pour l'entraînement de modèles d'IA indépendants) sans que cela n'ait d'impact négatif sur leur classement dans les résultats de recherche classiques. L'objectif est de rééquilibrer les rapports de force, car les résumés IA modifient les comportements de clic. Google a indiqué envisager des mesures de contrôle supplémentaires, tout en mettant en garde contre une fragmentation de l'expérience de recherche.

Comment un agent d'IA peut-il divulguer des données privées simplement en cliquant sur un lien ?

OpenAI a décrit un risque d'exfiltration de données via URL où un attaquant incite un agent d'IA à récupérer un lien qui intègre discrètement des informations sensibles dans la chaîne de requête. Même si le modèle ne répète jamais le secret dans sa réponse, la requête elle-même peut le transmettre. Une solution courante consiste à ajouter des mécanismes de sécurité, comme des avertissements et l'exigence d'une confirmation de l'utilisateur lorsqu'un lien n'est pas vérifié indépendamment comme public.

Qu’est-ce que le projet de profil d’IA cybernétique du NIST, et comment change-t-il la gouvernance cybernétique ?

Un projet de profil du NIST (analysé juridiquement) présente l'IA à la fois comme un élément à sécuriser et un outil de cyberdéfense. Il organise les travaux autour de thèmes tels que la sécurisation des composants d'IA, la gestion des risques liés à la chaîne d'approvisionnement et le déploiement de défenses s'appuyant sur l'IA, notamment des flux de travail de réponse plus automatisés, de type agent. Bien que présentés comme volontaires, ces cadres deviennent souvent des attentes de facto, incitant les organisations à intégrer formellement l'IA à leur gouvernance et à leurs contrôles.

Actualités IA d'hier : 27 janvier 2026

Découvrez les dernières fonctionnalités d'IA sur la boutique officielle des assistants IA

À propos de nous

Retour au blog