🏗️ Les États-Unis incitent les entreprises à adopter un nouveau « pacte » pour les centres de données d'IA, rapporte Politico ↗
Les États-Unis tenteraient, selon certaines informations, d'obtenir des grandes entreprises qu'elles signent un nouveau « pacte » pour les centres de données d'IA – essentiellement un ensemble d'engagements sur la manière dont ces énormes infrastructures de calcul devraient être gérées.
Les détails restent encore un peu flous (classique), mais la direction semble familière : normaliser les attentes en matière d'énergie, de sécurité et peut-être aussi de rapports - une version polie et politique de « s'il vous plaît, ne laissez pas cela se transformer en un fiasco »
🎬 Autodesk poursuit Google en justice au sujet d'un logiciel de création de films basé sur l'IA ↗
Autodesk poursuit Google en justice au sujet du nom « Flow », affirmant qu'elle utilisait déjà « Flow » pour ses logiciels de production et de gestion des effets visuels, et que l'outil de réalisation de films par IA de Google est arrivé avec la même marque.
Le détail le plus frappant est l'allégation selon laquelle Google aurait initialement indiqué qu'il ne commercialiserait pas le nom… avant de finalement déposer des marques. Il s'agit certes d'une bataille juridique autour des marques, mais elle prend également des allures de conflit, à petite échelle, entre une grande plateforme et un fabricant d'outils spécialisé.
🏥 L'IA n'est pas plus efficace que les autres méthodes pour les patients en quête de conseils médicaux, selon une étude ↗
Une nouvelle étude a révélé que l'utilisation de l'IA pour les conseils médicaux aux patients n'était pas plus performante que les autres approches, ce qui n'est pas surprenant et est légèrement rassurant, selon votre degré de scepticisme envers les outils d'évaluation des symptômes.
Cela ne signifie pas que l'IA est inutile dans le domaine de la santé, mais simplement que « demander à un bot » ne constitue pas automatiquement une amélioration par rapport aux options existantes, surtout lorsque la précision et la sécurité sont primordiales.
🩺 Les applications et les robots dotés d'intelligence artificielle font irruption dans le domaine médical. Les médecins ont des questions. ↗
Une enquête examine comment les applications de santé basées sur l'IA et les chatbots s'infiltrent dans les espaces cliniques, parfois plus rapidement que les recommandations, la surveillance ou les preuves scientifiques classiques ne peuvent suivre.
Les médecins s'inquiètent de la fiabilité, des risques pour les patients et de la responsabilité lorsqu'un robot virtuel donne des conseils qui semblent assurés mais erronés… un peu comme un GPS qui vous incite à conduire dans un lac, sauf qu'ici, il s'agit de médicaments.
📈 Le PDG d'OpenAI affirme que ChatGPT enregistre à nouveau une croissance mensuelle de plus de 10 %, rapporte CNBC ↗
Le PDG d'OpenAI aurait déclaré que ChatGPT avait renoué avec une croissance mensuelle de plus de 10 %, ce qui est un événement important si l'on suppose que la phase « tout le monde l'a déjà essayé » avait atteint son apogée.
Cela laisse penser que soit de nouveaux utilisateurs continuent d'affluer, soit les utilisateurs existants trouvent davantage de raisons de rester, voire les deux. Quoi qu'il en soit, le produit se comporte moins comme un phénomène de mode que comme une infrastructure… du moins, c'est l'impression qu'il donne.
FAQ
En quoi consiste ce « pacte » pour les centres de données d'IA que les États-Unis proposent-ils de promouvoir ?
Il s'agit d'un ensemble d'engagements que les grandes entreprises devraient prendre lors de la construction ou de l'exploitation de vastes centres de données dédiés à l'IA. L'objectif est d'harmoniser les attentes afin que ces projets de calcul massif ne soient ni dispersés ni incohérents d'une entreprise à l'autre. Si les détails restent encore à définir, l'accent semble mis sur des aspects pratiques : la consommation d'énergie, la sécurité et, éventuellement, un système de reporting.
Pourquoi les États-Unis voudraient-ils que les entreprises signent un accord sur les centres de données d'IA ?
Un accord permet d'établir des attentes communes sans contraindre les législateurs à rédiger une nouvelle réglementation pour chaque cas particulier. Face à l'expansion rapide des centres de données d'IA, les décideurs politiques s'inquiètent souvent de l'impact sur le réseau électrique, des risques de sécurité et de la transparence opérationnelle. Une stratégie courante consiste à aligner rapidement les principaux acteurs afin que les bonnes pratiques se diffusent plus vite et que les responsabilités soient plus facilement établies en cas de problème.
Quels types d'engagements pourraient être inclus dans un accord-cadre sur les centres de données d'IA ?
D'après les propositions formulées, les engagements pourraient porter sur la planification énergétique (production et gestion de l'électricité), les mesures de sécurité (physiques et cybernétiques) et une forme de déclaration ou de transparence. Dans de nombreux projets, la déclaration constitue un mécanisme de contrôle simplifié qui rend les normes lisibles et mesurables. Si l'accord est volontaire, ces engagements pourraient être présentés comme des lignes directrices qui contribueront ultérieurement à l'élaboration de la réglementation.
De quel procès s'agit-il concernant « Flow », l'outil de création de films par intelligence artificielle de Google ?
Autodesk poursuit Google pour violation du nom « Flow », arguant qu'elle l'utilisait déjà pour ses logiciels de production et de gestion d'effets visuels. Le litige porte sur un conflit de marques et d'image de marque, et il est également reproché à Autodesk d'avoir initialement indiqué qu'elle ne commercialiserait pas ce nom avant de déposer des demandes de marques. Ce type d'affaires repose souvent sur la priorité accordée à la marque et le risque de confusion.
Que signifie le fait que l'IA n'était pas meilleure que les autres méthodes pour donner des conseils médicaux aux patients ?
Cela suggère que « poser une question à un chatbot » n’est pas automatiquement plus précis ni plus sûr que les méthodes existantes utilisées par les patients pour obtenir des conseils. Cela peut être rassurant si l’on s’inquiète des réponses trop péremptoires des outils d’évaluation des symptômes ou des chatbots. Cela ne remet pas en cause la valeur potentielle de l’IA dans le domaine de la santé, mais souligne la nécessité de données probantes, d’un contrôle rigoureux et d’une intégration prudente, car les erreurs peuvent avoir des conséquences néfastes.
Pourquoi les médecins s'inquiètent-ils des applications de santé et des chatbots basés sur l'IA ?
Les médecins s'inquiètent de la fiabilité, des risques pour les patients et de la responsabilité lorsqu'un outil fournit des conseils erronés, même s'ils sont assurés de leur exactitude. Le problème ne se limite pas à la précision ; il concerne également l'interprétation des résultats par les patients et le risque que le système les incite à une autogestion dangereuse. En milieu clinique, l'absence de clarté des responsabilités peut représenter un risque majeur : les patients peuvent faire confiance à l'outil, les cliniciens peuvent ne pas le contrôler et les recommandations peuvent être mises en place tardivement.