L'intelligence artificielle promet rapidité, envergure et parfois même un soupçon de magie. Mais attention, l'illusion peut être trompeuse. Si vous vous demandez pourquoi l'IA est néfaste pour la société, ce guide expose clairement ses principaux méfaits, avec des exemples, des solutions et quelques vérités dérangeantes. Il n'est pas contre la technologie, mais pour un retour à la réalité.
Articles que vous aimeriez peut-être lire après celui-ci :
🔗 Quelle quantité d'eau l'IA utilise-t-elle ?
Explique la consommation d'eau surprenante de l'IA et pourquoi cela a une importance mondiale.
🔗 Qu'est-ce qu'un ensemble de données d'IA ?
Analyse la structure, les sources et l'importance des données pour l'entraînement des modèles.
🔗 Comment l'IA prédit-elle les tendances ?
Illustre comment les algorithmes analysent les tendances pour prévoir les résultats avec précision.
🔗 Comment mesurer les performances de l'IA
Ce document présente les indicateurs clés permettant d'évaluer la précision, la vitesse et la fiabilité du modèle.
Réponse rapide : Pourquoi l’IA est-elle mauvaise pour la société ? ⚠️
Car, sans garde-fous sérieux, l’IA peut amplifier les biais, inonder l’espace informationnel de fausses informations convaincantes, décupler la surveillance, remplacer les travailleurs plus vite qu’on ne les forme, mettre à rude épreuve les systèmes énergétiques et hydriques et prendre des décisions cruciales difficiles à contrôler ou à contester. Les principaux organismes de normalisation et de réglementation signalent ces risques à juste titre. [1][2][5]
Anecdote (composite) : Un organisme de crédit régional teste un outil d’évaluation des prêts par IA. L’outil accélère le traitement des demandes, mais une évaluation indépendante révèle que le modèle est moins performant pour les demandeurs résidant dans certains codes postaux ayant fait l’objet de pratiques discriminatoires en matière de crédit immobilier. La solution ne réside pas dans une simple note de service ; elle passe par un travail sur les données, les politiques et le produit. Ce schéma se répète tout au long de cet article.
Pourquoi l'IA est-elle néfaste pour la société ? Arguments convaincants ✅
Les bonnes critiques font trois choses :
-
Fournir des preuves reproductibles de préjudice ou de risque accru, et non des impressions – par exemple, des cadres et des évaluations des risques que tout le monde peut lire et appliquer. [1]
-
Montrez les dynamiques structurelles telles que les schémas de menaces au niveau du système et les incitations à l'abus, et non pas seulement des accidents ponctuels. [2]
-
Proposez des mesures d’atténuation spécifiques qui s’alignent sur les outils de gouvernance existants (gestion des risques, audits, orientations sectorielles), et non de vagues appels à « l’éthique ». [1][5]
Je sais, ça paraît d'une logique exaspérante. Mais c'est le minimum requis.

Les méfaits, déballés
1) Préjugés, discrimination et décisions injustes 🧭
Les algorithmes peuvent noter, classer et étiqueter les personnes de manière à refléter des données biaisées ou une conception défectueuse. Les organismes de normalisation avertissent explicitement que les risques liés à l'IA non maîtrisée — équité, explicabilité, confidentialité — se traduisent par des préjudices réels si l'on néglige la mesure, la documentation et la gouvernance. [1]
Pourquoi c’est néfaste pour la société : des outils biaisés à grande échelle contrôlent discrètement l’accès au crédit, à l’emploi, au logement et aux soins de santé. Les tests, la documentation et les audits indépendants sont utiles, mais seulement si nous les mettons réellement en œuvre. [1]
2) Désinformation, deepfakes et érosion de la réalité 🌀
Il est désormais peu coûteux de fabriquer des contenus audio, vidéo et textuels d'un réalisme saisissant. Les rapports sur la cybersécurité montrent que les adversaires utilisent activement les médias synthétiques et les attaques au niveau des modèles pour éroder la confiance et amplifier les fraudes et les opérations d'influence. [2]
Pourquoi c’est néfaste pour la société : la confiance s’effondre lorsque n’importe qui peut prétendre qu’une vidéo est fausse – ou vraie – selon son bon vouloir. L’éducation aux médias est utile, mais les normes d’authenticité du contenu et la coordination interplateforme sont encore plus importantes. [2]
3) Surveillance de masse et pression sur la vie privée 🕵️♀️
L’IA réduit le coût du suivi à l’échelle de la population (visages, voix, habitudes de vie). Les évaluations du contexte des menaces soulignent l’utilisation croissante de la fusion de données et de l’analyse assistée par modélisation, qui peuvent transformer des capteurs dispersés en systèmes de surveillance de facto si elles ne sont pas contrôlées. [2]
Pourquoi c’est néfaste pour la société : les effets dissuasifs sur la liberté d’expression et les interactions sociales sont difficiles à percevoir avant qu’ils ne se manifestent. La surveillance doit précéder le déploiement, et non le suivre de loin. [2]
4) Emploi, salaires et inégalités 🧑🏭→🤖
L’IA peut certes accroître la productivité, mais son impact est inégal. Des enquêtes menées auprès d’employeurs et de travailleurs à l’échelle internationale révèlent des avantages et des risques de perturbation, certaines tâches et professions étant plus exposées que d’autres. La montée en compétences est utile, mais les transitions se font sentir concrètement dans les foyers, en temps réel. [3]
Pourquoi c’est mauvais pour la société : si les gains de productivité profitent principalement à quelques entreprises ou propriétaires d’actifs, nous creusons les inégalités tout en haussant poliment les épaules à l’égard de tous les autres. [3]
5) Cybersécurité et exploitation des modèles 🧨
Les systèmes d’IA élargissent la surface d’attaque : empoisonnement des données, injection de code malveillant, vol de modèles et vulnérabilités de la chaîne d’approvisionnement des outils associés aux applications d’IA. Les rapports européens sur les menaces documentent des cas concrets d’utilisation abusive de médias synthétiques, de jailbreaks et de campagnes d’empoisonnement. [2]
Pourquoi c'est néfaste pour la société : lorsque ce qui protège le château devient le nouveau pont-levis. Appliquez les principes de sécurité dès la conception et le renforcement de la sécurité aux pipelines d'IA, et pas seulement aux applications traditionnelles. [2]
6) Coûts énergétiques, hydriques et environnementaux 🌍💧
L’entraînement et l’exécution de modèles complexes peuvent engendrer une forte consommation d’électricité et d’eau via les centres de données. Les analystes énergétiques internationaux suivent de près la croissance rapide de la demande et mettent en garde contre les impacts sur le réseau électrique liés à l’augmentation des charges de travail de l’IA. L’important est de planifier, et non de paniquer. [4]
Pourquoi c’est néfaste pour la société : les tensions invisibles sur les infrastructures se traduisent par des factures plus élevées, une congestion du réseau et des conflits d’implantation – souvent dans des communautés ayant moins de poids. [4]
7) Santé et autres décisions à enjeux élevés 🩺
Les autorités sanitaires mondiales signalent des problèmes de sécurité, d’explicabilité, de responsabilité et de gouvernance des données liés à l’IA clinique. Les ensembles de données sont complexes ; les erreurs sont coûteuses ; la supervision doit être de niveau clinique. [5]
Pourquoi c’est néfaste pour la société : la confiance de l’algorithme peut être confondue avec la compétence. Ce n’est pas le cas. Les garde-fous doivent refléter les réalités médicales, et non l’impression de démonstration. [5]
Tableau comparatif : outils pratiques pour réduire les risques
(Oui, les titres sont volontairement originaux.)
| Outil ou politique | Public | Prix | Pourquoi ça marche... en quelque sorte |
|---|---|---|---|
| Cadre de gestion des risques liés à l'IA du NIST | Équipes produit, sécurité et direction | Temps + audits | Un langage commun pour la gestion des risques, les contrôles du cycle de vie et la structure de gouvernance. Ce n'est pas une solution miracle. [1] |
| Audits de modèles indépendants et équipes rouges | Plateformes, startups, agences | Moyen à élevé | Détecte les comportements dangereux et les défaillances avant les utilisateurs. A besoin d'indépendance pour être crédible. [2] |
| provenance des données et authenticité du contenu | Médias, plateformes, fabricants d'outils | Outillage + opérations | Permet de retracer les sources et de signaler les contrefaçons à grande échelle dans différents écosystèmes. Ce n'est pas parfait, mais cela reste utile. [2] |
| plans de transition de la main-d'œuvre | RH, formation et développement, décideurs politiques | Requalification $$ | Le perfectionnement ciblé et la redéfinition des tâches atténuent les déplacements dans les rôles exposés ; mesurez les résultats, pas les slogans. [3] |
| Orientations sectorielles pour la santé | Hôpitaux, organismes de réglementation | Temps de politique | Le déploiement est aligné sur l’éthique, la sécurité et la validation clinique. Priorité aux patients. [5] |
Analyse approfondie : comment les préjugés s’insinuent réellement 🧪
-
Données biaisées – les archives historiques intègrent les discriminations passées ; les modèles les reflètent à moins de les mesurer et de les atténuer. [1]
-
Évolution des contextes – un modèle qui fonctionne dans une population peut s’effondrer dans une autre ; la gouvernance nécessite une définition du périmètre et une évaluation continue. [1]
-
Variables proxy – la suppression des attributs protégés ne suffit pas ; les fonctionnalités corrélées les réintroduisent. [1]
Mesures pratiques : documenter les ensembles de données, réaliser des évaluations d’impact, mesurer les résultats auprès de différents groupes et publier les résultats. Si vous ne le défendriez pas en première page, ne le publiez pas. [1]
Analyse approfondie : pourquoi la désinformation est si tenace avec l’IA 🧲
-
Rapidité + personnalisation = contrefaçons ciblant des micro-communautés.
-
Exploitation de l'incertitude – lorsque tout potentiellement faux, les personnes mal intentionnées n'ont qu'à semer le doute.
-
Retard de vérification – les normes de provenance ne sont pas encore universelles ; les médias authentiques perdent la course à moins que les plateformes ne se coordonnent. [2]
Analyse approfondie : la facture des infrastructures arrive à échéance 🧱
-
Consommation d'énergie – Les charges de travail liées à l'IA font augmenter la consommation d'électricité des centres de données ; les projections indiquent une forte croissance au cours de cette décennie. [4]
-
L'eau – les besoins en refroidissement mettent à rude épreuve les systèmes locaux, parfois dans des régions sujettes à la sécheresse.
-
Conflits d'implantation – les communautés protestent lorsqu'elles subissent les coûts sans les avantages escomptés.
Mesures d’atténuation : efficacité, modèles plus petits et plus légers, prise en compte des heures creuses, implantation à proximité des énergies renouvelables, transparence sur la consommation d’eau. Facile à dire, plus difficile à faire. [4]
Liste de contrôle tactique pour les leaders qui ne veulent pas faire la une des journaux 🧰
-
Effectuez une évaluation des risques liés à l'IA en vous appuyant sur un registre en temps réel des systèmes en service. Cartographiez les impacts sur les personnes, et pas seulement sur les SLA. [1]
-
Mettez en œuvre d'authentification du contenu et des procédures de gestion des incidents pour les deepfakes ciblant votre organisation. [2]
-
Mettez en place des audits indépendants et des équipes d'évaluation des risques pour les systèmes critiques. Si une autorité prend des décisions concernant le personnel, elle mérite d'être examinée de près. [2]
-
Dans les cas d’utilisation dans le domaine de la santé, suivez les recommandations du secteur et insistez sur la validation clinique, et non sur des benchmarks de démonstration. [5]
-
Associer le déploiement à la refonte des tâches et à la montée en compétences , mesurées trimestriellement. [3]
Réponses aux questions fréquentes 🙋♀️
-
L'IA n'est-elle pas aussi une bonne chose ? Bien sûr. Cette question permet d'identifier les points faibles afin de pouvoir les corriger.
-
Ne pourrait-on pas simplement ajouter de la transparence ? Utile, mais insuffisant. Il faut des tests, un suivi et une responsabilisation. [1]
-
La réglementation va-t-elle tuer l'innovation ? Des règles claires tendent à réduire l'incertitude et à libérer les investissements. Les cadres de gestion des risques visent précisément à garantir la sécurité des investissements. [1]
En bref et réflexions finales 🧩
Pourquoi l'IA est-elle néfaste pour la société ? Parce que l'échelle, l'opacité et les incitations divergentes engendrent des risques. Livrée à elle-même, l'IA peut renforcer les préjugés, éroder la confiance, alimenter la surveillance, épuiser les ressources et prendre des décisions que les humains devraient pouvoir contester. En revanche, nous disposons déjà d'une infrastructure permettant de mettre en place de meilleurs cadres d'évaluation des risques, des audits, des normes d'authenticité et des orientations sectorielles. Il ne s'agit pas de freiner brutalement, mais de mettre en place des mécanismes, de vérifier la direction et de se rappeler que des êtres humains sont aux commandes. [1][2][5]
Références
-
Cadre de gestion des risques liés à l'intelligence artificielle du NIST (AI RMF 1.0). Lien
-
ENISA – Panorama des menaces 2025. Lien
-
OCDE – L’impact de l’IA sur le lieu de travail : Principales conclusions des enquêtes de l’OCDE sur l’IA auprès des employeurs et des travailleurs . Lien
-
AIE – Énergie et IA (demande et perspectives d'électricité). Lien
-
Organisation mondiale de la santé – Éthique et gouvernance de l’intelligence artificielle en santé . Lien
Remarques sur la portée et l'équilibre : Les conclusions de l'OCDE reposent sur des enquêtes menées dans des secteurs et des pays spécifiques ; il convient de les interpréter en tenant compte de ce contexte. L'évaluation de l'ENISA reflète la situation des menaces au sein de l'UE, mais met en lumière des tendances pertinentes à l'échelle mondiale. Les perspectives de l'AIE fournissent des projections modélisées, et non des certitudes ; il s'agit d'un signal d'aide à la planification, et non d'une prédiction.