Actualités IA 22 février 2026

Résumé de l'actualité de l'IA : 22 février 2026

🏫 Dans certaines écoles, des chatbots interrogent les élèves sur leur travail. Mais la révolution de l'IA inquiète les enseignants

Certaines écoles australiennes expérimentent une version plus rigoureuse du système de justification des raisonnements : les élèves terminent un devoir, puis un chatbot doté d'intelligence artificielle les interroge de manière interactive pour vérifier leur compréhension du travail rendu. Il s'agit en quelque sorte d'un oral, mais avec une machine qui demande « Que voulez-vous dire par là ? » jusqu'à ce que l'élève commence à se sentir mal à l'aise.

Le plus inquiétant est le déploiement inégal : un document sectoriel met en garde contre le risque que les pays adoptant rapidement l’IA prennent de l’avance tandis que d’autres restent à la traîne, créant ainsi un système éducatif à deux vitesses. Les enseignants continuent également de soulever les préoccupations habituelles – et toujours sérieuses – : la protection de la vie privée, le bien-être et la nécessité d’éviter que l’« aide de l’IA » ne se transforme en « IA responsable ».

👮 La police métropolitaine utilise des outils d'IA fournis par Palantir pour signaler les fautes professionnelles des agents

La police métropolitaine de Londres utilise une intelligence artificielle fournie par Palantir pour analyser les tendances internes de ses effectifs (maladies, absences, heures supplémentaires) afin de déceler d'éventuels liens avec des problèmes de déontologie. Présentée comme un projet pilote temporaire, la police métropolitaine insiste sur le fait que les décisions finales restent prises par des humains… mais que ces humains accomplissent un travail considérable.

La Fédération de police est loin d'être enthousiaste, dénonçant une « suspicion automatisée » et mettant en garde contre le risque que des outils opaques interprètent à tort le stress et la charge de travail comme des actes répréhensibles. C'est le genre de situation où la technologie paraît séduisante sur le papier, mais où, une fois sur le terrain, elle se révèle très problématique.

🛡️ L'autorité britannique de protection de la vie privée met en garde contre les images générées par l'IA dans une déclaration conjointe

L'ICO britannique s'est jointe à d'autres organismes de réglementation pour mettre en garde contre les images générées par IA représentant des personnes identifiables sans leur consentement. En clair : ne considérez pas l'argument « c'est synthétique » comme une excuse valable. Le message est clair : il faut mettre en place des mesures de protection dès le départ et dialoguer avec les autorités de réglementation, plutôt que de reproduire l'erreur classique des entreprises technologiques qui consistent à commercialiser le produit d'abord et à présenter des excuses ensuite.

Ils soulignent également les risques accrus pour les enfants, ce qui est logique, car une fois que ce phénomène se propage, c'est comme essayer de remettre des paillettes dans un pot. L'idée principale est que la vie privée et la dignité sont censées survivre aux caprices de la mode, du moins en apparence.

🪖 Le secrétaire américain à la Défense, Hegseth, convoque le PDG d'Anthropic pour des discussions franches concernant l'utilisation militaire de Claude, rapporte Axios

Selon Reuters, le secrétaire américain à la Défense doit rencontrer le PDG d'Anthropic pour une discussion plus directe concernant l'utilisation militaire de Claude. Le Pentagone souhaiterait que les principaux fournisseurs d'IA rendent leurs modèles accessibles sur les réseaux classifiés avec moins de restrictions, et Anthropic s'oppose à tout assouplissement des mesures de sécurité.

Le sous-texte évoque un dilemme classique : « agir vite, mais… avec des missiles en jeu ». Si les parties ne parviennent pas à s'entendre sur des garde-fous, la relation pourrait se tendre, voire se rompre. Pourtant, Anthropic indique également que les discussions avec le gouvernement restent constructives. La situation est donc tendue, mais il ne s'agit pas encore d'une rupture définitive.

🧠 Notes de version de ChatGPT

Les notes de version d'OpenAI mentionnent une fenêtre de contexte étendue pour le mode « Réflexion », ce qui permet de fournir davantage de texte au modèle et de maintenir la cohérence des échanges plus longs sans qu'il perde des détails antérieurs. Si vous avez déjà vu un modèle « oublier » quelque chose que vous veniez de dire (quelle galère !), cette fonctionnalité est faite pour y remédier.

C'est une amélioration très technique qui modifie discrètement la réalité : des documents plus longs, des projets plus complexes, des séances de recherche plus longues. Pas glamour, certes, mais c'est le genre de changement qui donne soudainement l'impression d'agrandir l'espace.

FAQ

Que signifie le fait que les écoles utilisent des chatbots pour « interroger » les élèves sur leurs devoirs ?

Dans certains établissements scolaires australiens, les élèves réalisent un devoir puis dialoguent avec un chatbot doté d'intelligence artificielle qui analyse leur raisonnement. Ce processus s'apparente à un oral, incitant les élèves à expliquer leur travail et leurs justifications. L'objectif est de vérifier leur compréhension, et non la simple production de leurs idées. Il permet également de déceler les lacunes d'un élève lorsqu'il ne parvient pas à défendre des arguments clés.

Comment les chatbots d'IA dans les écoles pourraient-ils créer un système éducatif à « deux vitesses » ?

Un document sectoriel met en garde contre le risque que les établissements adoptant rapidement ces outils prennent de l'avance, tandis que les écoles plus lentes à suivre accusent un retard croissant. Si certaines écoles déploient des outils d'IA pour évaluer la compréhension, soutenir l'apprentissage ou prévenir les abus, elles pourraient améliorer leurs résultats plus rapidement. D'autres, en revanche, pourraient manquer de budget, de personnel qualifié ou de clarté politique pour déployer des systèmes comparables. Cette adoption inégale risque d'accentuer les disparités existantes en matière de ressources et de réussite scolaire.

Comment les enseignants tentent-ils d'empêcher que l'« aide de l'IA » ne se transforme en « c'est l'IA qui a fait le travail » ?

Une approche courante consiste à privilégier l'évaluation du processus et des explications, plutôt que le seul produit final. Les questions posées par un chatbot, les brouillons, les réflexions ou les vérifications orales peuvent dissuader de soumettre un travail que l'on ne comprend pas. Les enseignants peuvent également définir des limites plus claires quant à l'aide acceptable, par exemple en privilégiant le brainstorming à la réécriture complète. L'accent est mis sur la démonstration de la compréhension, et non sur le contrôle de chaque outil utilisé.

Quels problèmes de confidentialité et de bien-être se posent lorsque l'IA est utilisée dans les salles de classe ?

Les enseignants expriment régulièrement leurs inquiétudes quant aux données des élèves collectées, à leur lieu de stockage et aux personnes qui y ont accès. Le bien-être des élèves est également une préoccupation majeure s'ils se sentent constamment surveillés ou soumis à la pression de questionnaires automatisés. Les enfants constituent un groupe particulièrement vulnérable, car les informations sensibles peuvent se propager ou persister dans les systèmes de manière inattendue. De nombreux établissements scolaires privilégient la mise en place de mesures de protection dès le départ plutôt que d'essayer de les ajouter a posteriori.

Comment la police métropolitaine utilise-t-elle l'IA fournie par Palantir pour signaler les potentiels manquements à la déontologie de ses agents ?

La police métropolitaine de Londres utilise une intelligence artificielle fournie par Palantir pour analyser les habitudes de travail de ses employés, notamment les arrêts maladie, les absences et les heures supplémentaires. L'objectif est de repérer des signaux pouvant révéler des problèmes de déontologie. Il s'agit d'un projet pilote temporaire, et la police métropolitaine précise que les décisions restent prises par des humains. Les critiques estiment que l'outil peut donner l'impression d'une « suspicion automatisée » s'il interprète le stress comme une faute professionnelle.

Pourquoi les syndicats de police s'inquiètent-ils de la « suspicion automatisée » engendrée par les outils de surveillance basés sur l'IA ?

La Fédération de police craint que des modèles opaques ne conduisent à des conclusions erronées à partir de comportements qui s'expliquent simplement. Des pics de charge de travail, des problèmes de santé et le stress peuvent modifier l'assiduité ou les heures supplémentaires sans pour autant impliquer une faute. Si la logique de l'outil n'est pas transparente, il devient plus difficile pour les agents de contester les alertes ou pour les responsables de définir des seuils équitables. Même avec des décisions humaines, les signaux automatisés peuvent influencer les résultats.

De quoi l'ICO britannique met-elle en garde concernant les images de personnes identifiables générées par l'IA ?

L'autorité britannique de protection des données s'est jointe à d'autres organismes de réglementation pour avertir que le terme « synthétique » n'est pas synonyme d'absence de conséquences. Si une image générée par IA représente une personne identifiable sans son consentement, des risques d'atteinte à la vie privée et à la dignité demeurent. Les autorités insistent sur l'importance de mettre en place des mesures de protection dès le début et de privilégier la supervision plutôt que de diffuser le contenu sans discernement. Elles signalent également des risques accrus pour les enfants, chez qui les dommages peuvent se propager rapidement une fois le contenu diffusé.

Qu’est-ce qui explique les pressions exercées par le Pentagone sur Anthropic concernant l’utilisation militaire de Claude ?

Reuters rapporte que le secrétaire américain à la Défense doit rencontrer le PDG d'Anthropic pour des discussions plus approfondies concernant l'utilisation militaire de Claude. Le Pentagone souhaiterait que les principaux fournisseurs d'IA rendent leurs modèles accessibles sur les réseaux classifiés avec moins de restrictions. Anthropic s'oppose à un assouplissement des contrôles, invoquant un désaccord sur les limites de la sécurité. Les relations semblent tendues, même si les deux parties indiquent que les discussions restent constructives.

Qu’est-ce qui a changé dans les notes de version de ChatGPT concernant la longueur du contexte en mode « Réflexion » ?

Les notes de version d'OpenAI mentionnent une fenêtre de contexte étendue pour le mode « Réflexion », permettant d'afficher davantage de texte dans un même fil de discussion. En pratique, cela s'avère utile pour les documents longs, les projets complexes et les recherches en plusieurs étapes où les détails précédents sont importants. Il s'agit d'une amélioration structurelle plutôt que d'une fonctionnalité spectaculaire. Le principal avantage est une réduction des pertes d'informations lors des sessions prolongées.

Actualités IA d'hier : 21 février 2026

Découvrez les dernières fonctionnalités d'IA sur la boutique officielle des assistants IA

À propos de nous

Retour au blog