🚫 Les législateurs européens soutiennent l'interdiction des applications d'IA générant des images explicites ↗
Les législateurs européens ont approuvé une proposition visant à interdire les applications d'intelligence artificielle qui créent des images explicites sans consentement – les fameux outils de nudification. Cette mesure paraît plus que nécessaire, compte tenu de la rapidité avec laquelle les abus liés aux deepfakes se sont propagés de manière marginale à un phénomène inquiétant et généralisé.
Cette proposition s'inscrirait dans le cadre des révisions de la loi européenne sur l'IA, les législateurs soutenant également un report de certaines obligations à haut risque en matière d'IA, les normes techniques n'étant pas encore pleinement finalisées. Ainsi, d'un côté des règles plus strictes, de l'autre une plus grande marge de manœuvre : une contradiction typiquement bruxelloise.
🔎 Google développe des options permettant de désactiver l'IA dans la recherche afin d'apaiser les inquiétudes au Royaume-Uni ↗
Suite aux pressions des autorités britanniques de la concurrence, Google travaille à des solutions permettant aux sites web de désactiver ses fonctionnalités d'intelligence artificielle générative dans les résultats de recherche. Le principal grief est simple : les éditeurs ne devraient pas être contraints de céder leur contenu à l'IA pour rester visibles dans les résultats de recherche, ce qui constitue un grave problème de politique de recherche.
Ce débat s'inscrit également dans le contexte de la domination de Google sur la recherche au Royaume-Uni, qui demeure considérable. Les groupes de médias réclament des garanties renforcées afin que le refus du web scraping par l'IA ne se traduise pas, de manière détournée, par une pénalité de référencement.
🏷️ Le Royaume-Uni va examiner l'étiquetage des contenus IA dans le cadre de réformes plus larges du droit d'auteur ↗
Le gouvernement britannique a annoncé qu'il examinerait la possibilité d'étiqueter les contenus générés par l'IA dans le cadre d'une réforme plus large du droit d'auteur. Cette réforme prend notamment en compte les problèmes liés à la désinformation, aux copies numériques et à la question de savoir si les créateurs disposent d'un contrôle suffisant sur leurs œuvres une fois celles-ci intégrées à la machine.
Ce qui frappe, c'est l'hésitation, voire la pause. Les autorités s'efforcent encore de concilier le développement de l'IA et la protection des droits d'auteur, mais aucune solution définitive n'a été trouvée et l'hésitation est palpable. De grandes ambitions, un terrain d'atterrissage incertain.
⚖️ Microsoft envisage des poursuites judiciaires concernant l'accord de 50 milliards de dollars entre Amazon et OpenAI dans le domaine du cloud, rapporte le Financial Times ↗
Microsoft envisagerait des poursuites judiciaires concernant un important accord cloud entre Amazon et OpenAI, susceptible d'entrer en conflit avec son propre contrat d'exclusivité avec OpenAI. La tension est palpable : Microsoft a contribué au financement d'OpenAI, a bâti Azure sur cette relation, et voilà qu'un autre géant pourrait bien s'immiscer dans ce marché.
Le différend semble porter sur la question de savoir si le dispositif mis en place par Amazon viole l'esprit, voire la lettre, des droits existants de Microsoft. Derrière les considérations juridiques, il s'agit de savoir qui hébergera l'infrastructure future de l'IA et qui sera écarté lorsque les enjeux financiers atteindront des sommes astronomiques.
🧠 Exclusif : Sekhon, directeur scientifique de Bridgewater, rejoint DeepMind, l’unité d’intelligence artificielle de Google ↗
L'arrivée de Tej Sekhon, directeur scientifique de Bridgewater, chez Google DeepMind en dit long sur les perspectives offertes par les laboratoires de pointe en matière d'innovation. La finance, et plus particulièrement la finance systémique, est devenue un vivier de talents pour l'IA – pas de façon systématique, certes, mais suffisamment important pour être remarqué.
C'est le genre de recrutement qui semble anecdotique au premier abord, mais qui s'avère finalement essentiel. DeepMind souhaite clairement recruter davantage de personnes capables d'appréhender les systèmes complexes, le raisonnement probabiliste et l'interprétation des signaux provenant du terrain – ce qui ressemble étrangement à la course actuelle à l'IA, en miniature.
🤖 Jensen Huang, spécialiste en intelligence artificielle, souhaite que chaque entreprise dispose d'un plan OpenClaw ↗
Lors de la conférence GTC de Nvidia, Jensen Huang a défendu l'idée que la prochaine phase de l'IA concernera des agents capables de contrôler des ordinateurs et d'agir pour les humains, et non plus seulement de répondre intelligemment à des conversations. Le terme « OpenClaw » a été évoqué, un nom qui évoque un peu un ustensile de cuisine cyberpunk, mais l'idée est sérieuse.
L'ambiance générale à la GTC semblait évoluer : on passait de l'obsession de la taille des maquettes à l'action, à des logiciels qui permettent de cliquer, de finaliser, de naviguer et de construire. Peut-être est-ce là le prochain chapitre, ou peut-être simplement le dernier slogan en date. Quoi qu'il en soit, la direction prise est indéniable.
FAQ
Qu’est-ce que les législateurs européens tentent d’interdire dans le cadre de la dernière répression contre l’IA générative ?
Les législateurs européens ont approuvé une proposition visant à interdire les applications d'IA qui créent des images explicites sans consentement, souvent qualifiées d'outils de nudification. Cette modification serait intégrée aux révisions de la loi européenne sur l'IA. L'article présente cette mesure comme une réponse à l'essor des deepfakes, dont l'utilisation abusive est passée d'une pratique marginale à un phénomène beaucoup plus répandu et néfaste.
Pourquoi l'UE renforce-t-elle les règles relatives à l'IA tout en retardant certaines obligations découlant de la loi sur l'IA ?
Les législateurs ont également soutenu le report de certaines obligations relatives aux systèmes d'IA à haut risque, les normes techniques n'étant pas encore pleinement finalisées. Concrètement, cela se traduit par des règles plus strictes dans certains domaines et une plus grande marge de manœuvre dans d'autres. L'article présente cette situation comme une tension bien connue à Bruxelles entre ambition réglementaire et préparation opérationnelle.
Comment l'option de désactivation de l'IA générative de Google dans la recherche pourrait-elle affecter les éditeurs ?
Google développe des options permettant aux sites web de désactiver les fonctionnalités d'IA générative dans la recherche. Le principal problème est que les éditeurs ne devraient pas être contraints d'autoriser l'utilisation de leur contenu par l'IA pour rester visibles dans les résultats de recherche. Une question majeure reste en suspens : le refus du scraping par l'IA pourrait-il constituer un désavantage caché en termes de classement ?.
Quelles sont les mesures envisagées par le Royaume-Uni concernant l'étiquetage de l'IA générative et la réforme du droit d'auteur ?
Le gouvernement britannique a annoncé qu'il examinerait l'étiquetage des contenus générés par l'IA dans le cadre d'une réforme plus large du droit d'auteur. Le débat porte également sur la désinformation, les copies numériques et la question de savoir si les créateurs ont suffisamment de contrôle sur l'utilisation de leurs œuvres par les systèmes d'IA. L'article suggère que l'orientation politique reste incertaine, et qu'il existe une réelle hésitation quant au juste équilibre à trouver.
Pourquoi le conflit autour du cloud entre Microsoft, Amazon et OpenAI est-il si important ?
Le différend rapporté est important car il semble mettre à l'épreuve la compatibilité d'un accord majeur entre Amazon et OpenAI avec les droits cloud existants de Microsoft auprès d'OpenAI. Cela soulève des questions qui dépassent le simple cadre contractuel. Cela révèle un conflit plus vaste concernant l'hébergement de l'infrastructure des systèmes d'IA avancés et les acteurs exclus de ces partenariats.
Que révèlent l'embauche chez DeepMind et la stratégie d'Nvidia en matière d'agents sur l'avenir de l'IA ?
Pris ensemble, ces éléments suggèrent que la course à l'IA s'oriente vers l'action concrète, et non plus seulement vers des modèles plus grands ou une meilleure communication. Le recrutement par DeepMind du directeur scientifique de Bridgewater souligne la demande de profils capables de travailler avec des systèmes complexes, des signaux et un raisonnement probabiliste. Le message de Nvidia lors de la GTC véhiculait la même idée générale : la prochaine étape pourrait se concentrer sur des agents capables d'exécuter des logiciels et de réaliser des tâches.