En bref : les détecteurs d’IA ne « prouvent » pas l’auteur d’un texte ; ils estiment la correspondance d’un passage avec des modèles linguistiques connus. La plupart s’appuient sur une combinaison de classificateurs, de signaux de prédictibilité (perplexité/irrégularité), de stylométrie et, plus rarement, de vérification de filigrane. Si l’échantillon est court, très formel, technique ou rédigé par un auteur dont l’anglais n’est pas la langue maternelle, considérez le score comme une indication pour une relecture, et non comme un verdict.
Points clés à retenir :
Probabilité, pas preuve : considérez les pourcentages comme des signaux de risque liés à la « similitude avec l’IA », et non comme une certitude.
Faux positifs : Les textes formels, techniques, standardisés ou rédigés par des personnes non natives sont fréquemment signalés à tort.
Méthodes mixtes : Les outils combinent des classificateurs, la perplexité/l'éclatement, la stylométrie et des vérifications de filigrane inhabituelles.
Transparence : Privilégiez les détecteurs qui indiquent les étendues, les caractéristiques et l'incertitude, et non pas un seul chiffre.
Contestabilité : Conservez les brouillons/notes et les preuves de procédure à portée de main en cas de litiges et d'appels.

Articles que vous pourriez aimer lire après celui-ci :
🔗 Quel est le meilleur détecteur d'IA ?
Comparaison des meilleurs outils de détection par IA : précision, fonctionnalités et cas d’utilisation.
🔗 Les détecteurs IA sont-ils fiables ?
Explique la fiabilité, les faux positifs et pourquoi les résultats varient souvent.
🔗 Turnitin peut-il détecter l'IA ?
Guide complet sur la détection par IA de Turnitin : limites et bonnes pratiques.
🔗 Le détecteur d'IA QuillBot est-il précis ?
Examen détaillé de la précision, des points forts, des points faibles et des tests en situation réelle.
1) En bref : que fait réellement un détecteur d’IA ? ⚙️
La plupart des détecteurs d'IA ne « capturent » pas l'IA comme un filet attrape un poisson. Ils font quelque chose de plus prosaïque :
-
Ils estiment la probabilité qu'un extrait de texte semble provenir d'un modèle de langage (ou avoir été fortement influencé par un tel modèle). ( Étude sur la détection de texte généré par un modèle de langage ; OpenAI )
-
Ils comparent votre texte aux modèles observés dans les données d'entraînement (écriture humaine vs écriture générée par un modèle). ( Étude sur la détection de texte générée par LLM )
-
Ils attribuent un score (souvent un pourcentage) qui semble définitif… mais qui ne l’est généralement pas. ( Guides Turnitin )
Soyons honnêtes : l’interface affichera un message du genre « 92 % IA », et votre cerveau se dira : « Bon, d’accord, c’est un fait. » Ce n’est pas un fait. C’est une estimation d’un modèle à partir des empreintes digitales d’un autre modèle. Ce qui est assez cocasse, un peu comme des chiens qui se reniflent entre eux 🐕🐕
2) Comment fonctionnent les détecteurs d'IA : les « moteurs de détection » les plus courants 🔍
Les détecteurs utilisent généralement une (ou une combinaison) de ces approches : ( Une étude sur la détection de texte généré par LLM )
A) Modèles de classification (les plus courants)
Un classificateur est entraîné sur des exemples étiquetés :
-
Exemples rédigés par des humains
-
Échantillons générés par l'IA
-
Parfois, des échantillons « hybrides » (texte IA édité par un humain)
Il apprend ensuite des schémas permettant de distinguer les groupes. C'est l'approche classique de l'apprentissage automatique, et elle peut s'avérer étonnamment efficace… jusqu'à un certain point. ( Étude sur la détection de texte générée par LLM )
B) Évaluation de la perplexité et de la « rafale » 📈
Certains détecteurs calculent le degré de « prévisibilité » du texte.
-
Perplexité : en gros, le degré de surprise d’un modèle de langage face au mot suivant. ( Université de Boston – Articles sur la perplexité )
-
Une faible perplexité peut indiquer que le texte est très prévisible (ce qui peut se produire avec les résultats de l'IA). ( DetectGPT )
-
« Burstiness » tente de mesurer la variation de la complexité et du rythme des phrases. ( GPTZero )
Cette approche est simple et rapide. Elle est aussi facile à confondre, car les humains peuvent également écrire de manière prévisible (coucou les courriels d'entreprise). ( OpenAI )
C) Stylométrie (empreinte digitale écrite) ✍️
La stylométrie examine des modèles tels que :
-
longueur moyenne des phrases
-
style de ponctuation
-
Fréquence des mots fonctionnels (le, et, mais…)
-
variété du vocabulaire
-
scores de lisibilité
C'est comme l'analyse graphologique, mais appliquée au texte. Parfois, ça aide. Parfois, c'est comme diagnostiquer un rhume en regardant les chaussures de quelqu'un. ( Stylométrie et sciences forensiques : une revue de la littérature ; Mots fonctionnels dans l'attribution d'auteur )
D) Détection du filigrane (lorsqu'il existe) 🧩
Certains fournisseurs de modèles peuvent intégrer des motifs subtils (« filigranes ») dans le texte généré. Si un détecteur connaît le schéma de filigrane, il peut tenter de le vérifier. ( Un filigrane pour les grands modèles de langage ; SynthID Text )
Cependant… tous les modèles n’intègrent pas de filigrane, tous les résultats ne conservent pas le filigrane après modification, et tous les détecteurs n’ont pas accès à cette information. Il ne s’agit donc pas d’une solution universelle. ( À propos de la fiabilité des filigranes pour les grands modèles de langage ; OpenAI )
3) Qu'est-ce qui fait une bonne version d'un détecteur d'IA ? ✅
Un « bon » détecteur (d'après mon expérience, après avoir testé plusieurs détecteurs côte à côte dans des flux de travail éditoriaux) n'est pas celui qui crie le plus fort, mais celui qui se comporte de manière responsable.
Voici ce qui fait la qualité d'un détecteur IA :
-
Niveau de confiance calibré : un score de 70 % doit être cohérent et non approximatif. ( Étude sur la détection de texte générée par LLM )
-
Faible taux de faux positifs : le système ne devrait pas signaler comme « IA » des textes rédigés en anglais non natif, des documents juridiques ou des manuels techniques simplement parce qu’ils sont exempts de ces erreurs. ( Stanford HAI ; Liang et al. (arXiv) )
-
Limites transparentes : il faut reconnaître l’incertitude et indiquer les fourchettes, sans prétendre à l’omniscience. ( OpenAI ; Turnitin )
-
Connaissance du domaine : les détecteurs entraînés sur des blogs informels ont souvent des difficultés avec les textes académiques, et inversement. ( Étude sur la détection de texte généré par des étudiants de master en droit )
-
Traitement des textes courts : les bons outils évitent de surévaluer les résultats sur de petits échantillons (un paragraphe ne représente pas l’univers). ( OpenAI ; Turnitin )
-
Sensibilité aux modifications : le système doit gérer les modifications humaines sans produire instantanément des résultats incohérents. ( Étude sur la détection de texte générée par LLM )
Les meilleurs que j'ai vus sont plutôt modestes. Les pires se prennent pour des devins 😬
4) Tableau comparatif - Les « types » courants de détecteurs d'IA et leurs points forts 🧾
Vous trouverez ci-dessous une comparaison pratique. Il ne s'agit pas de marques, mais des principales catégories que vous rencontrerez. ( Étude sur la détection de texte généré par LLM )
| Type d'outil (approximatif) | Meilleure audience | Prix ressenti | Pourquoi ça marche (parfois) |
|---|---|---|---|
| Vérificateur de perplexité Lite | Enseignants, vérifications rapides | Gratuit | Signal rapide sur la prévisibilité, mais parfois instable… |
| Scanner de classification Pro | Rédaction, RH, conformité | Abonnement | Apprend les tendances à partir de données étiquetées - résultats corrects sur des textes de longueur moyenne |
| Analyseur de stylométrie | Chercheurs, experts en médecine légale | $$$ ou niche | Comparaison des empreintes digitales d'écriture - original mais pratique pour les textes longs |
| Détecteur de filigrane | Plateformes, équipes internes | Souvent groupés | C'est efficace lorsqu'il y a un filigrane ; sinon, c'est comme hausser les épaules |
| Suite d'entreprise hybride | Grandes organisations | Contrats par siège | Combine plusieurs signaux - meilleure couverture, plus de boutons de réglage (et plus de risques de mauvaise configuration, oups) |
Remarquez la colonne « Impression de prix ». Certes, ce n'est pas scientifique, mais c'est sincère 😄
5) Les principaux signaux que les détecteurs recherchent - les « indices » 🧠
Voici ce que de nombreux détecteurs tentent de mesurer en interne :
Prévisibilité (probabilité du jeton)
Les modèles de langage génèrent du texte en prédisant les prochains jetons probables. Cela tend à créer :
-
des transitions plus fluides
-
moins de choix de mots surprenants
-
moins de digressions étranges (sauf si on les y invite)
-
ton cohérent ( Université de Boston - Publications sur la perplexité ; DetectGPT )
Les humains, en revanche, ont tendance à zigzaguer davantage. Nous nous contredisons, nous ajoutons des remarques hors sujet, nous utilisons des métaphores un peu bancales – comme comparer un détecteur d'IA à un grille-pain qui juge de la poésie. Cette métaphore est maladroite, mais vous comprenez l'idée.
Modèles de répétition et de structure
L'écriture par IA peut présenter des répétitions subtiles :
-
structures de phrases répétées (« En conclusion… », « De plus… », « Par ailleurs… »)
-
longueur de paragraphe similaire
-
rythme constant ( Une étude sur la détection de texte générée par LLM )
Mais il faut aussi savoir que beaucoup de gens écrivent ainsi, surtout à l'école ou en entreprise. La répétition est donc un indice, pas une preuve.
Une clarté excessive et un style « trop propre » ✨
C’est un cas particulier. Certains détecteurs considèrent implicitement une écriture très propre comme suspecte. ( OpenAI )
Ce qui est gênant car :
-
Il existe de bons écrivains
-
Il existe des éditeurs
-
La vérification orthographique existe
Si vous vous demandez comment fonctionnent les détecteurs d'IA , voici une partie de la réponse : ils valorisent parfois la rugosité. Ce qui est… un peu paradoxal.
Densité sémantique et formulation générique
Les détecteurs peuvent signaler un texte qui semble :
-
trop général
-
peu de détails précis sur la vie vécue
-
L'accent est mis sur des déclarations équilibrées et neutres ( Une étude sur la détection de texte générée par LLM ).
L'IA produit souvent du contenu qui semble plausible, mais légèrement retouché. Un peu comme une chambre d'hôtel qui a l'air bien, mais qui manque totalement de personnalité 🛏️
6) L'approche par classificateur : comment il est entraîné (et pourquoi il dysfonctionne) 🧪
Un détecteur classificateur est généralement entraîné de la manière suivante :
-
Constituer un ensemble de données textuelles (essais, articles, forums, etc.)
-
Générer du texte par IA (plusieurs invites, styles, longueurs)
-
Étiquetez les échantillons
-
Entraînez un modèle pour les séparer à l'aide de caractéristiques ou d'embeddings
-
Validez-le sur des données mises de côté
-
Lancez le projet… et la réalité vous rattrape ( Une étude sur la détection de texte générée par LLM )
Pourquoi la réalité nous frappe de plein fouet :
-
Changement de domaine : les données d'entraînement ne correspondent pas à l'écriture réelle des utilisateurs
-
Changement de modèle : les modèles de nouvelle génération ne se comportent pas comme ceux de l'ensemble de données.
-
Effets de retouche : les retouches humaines peuvent supprimer les motifs évidents mais conserver les plus subtils.
-
Variations linguistiques : les dialectes, l'écriture en anglais langue seconde et les styles formels sont mal interprétés ( Une étude sur la détection de texte générée par LLM ; Liang et al. (arXiv) )
J'ai vu des détecteurs qui étaient « excellents » sur leur propre plateau de démonstration, puis qui se sont révélés totalement inefficaces face à des scénarios d'écriture professionnels. C'est comme dresser un chien renifleur sur une seule marque de biscuits et s'attendre à ce qu'il trouve toutes les friandises du monde 🍪
7) Perplexité et explosivité - le raccourci mathématique 📉
Cette famille de détecteurs tend à s'appuyer sur un système de notation basé sur un modèle de langage :
-
Ils analysent votre texte à l'aide d'un modèle qui estime la probabilité de chaque jeton suivant.
-
Ils calculent la « surprise » globale (perplexité). ( Université de Boston - Articles sur la perplexité )
-
Ils peuvent ajouter des indicateurs de variation (« rafales ») pour vérifier si le rythme paraît naturel. ( GPTZero )
Pourquoi cela fonctionne parfois :
-
Le texte brut généré par l'IA peut être extrêmement fluide et statistiquement prévisible ( DetectGPT ).
Pourquoi cela échoue :
-
Les échantillons courts sont bruyants
-
L'écriture formelle est prévisible
-
La rédaction technique est prévisible
-
L'écriture des non-natifs peut être prévisible
-
Un texte fortement modifié par l'IA peut avoir une apparence quasi humaine ( OpenAI ; Turnitin ).
Le fonctionnement des détecteurs d'IA ressemble parfois à celui d'un radar qui confond vélos et motos. Même route, moteurs différents 🚲🏍️
8) Filigranes - l'idée de « l'empreinte digitale dans l'encre » 🖋️
Le tatouage numérique semble être la solution idéale : marquer le texte généré par l’IA lors de sa génération, puis le détecter ultérieurement. ( Un tatouage numérique pour les grands modèles de langage ; SynthID Text )
En pratique, les filigranes peuvent être fragiles :
-
La paraphrase peut les affaiblir
-
La traduction peut les briser
-
Les citations partielles peuvent les supprimer
-
Le mélange de plusieurs sources peut brouiller le schéma ( Sur la fiabilité des filigranes pour les grands modèles de langage )
De plus, la détection des filigranes ne fonctionne que si :
-
un filigrane est utilisé
-
le détecteur sait comment le vérifier
-
Le texte n'a pas subi beaucoup de transformations ( OpenAI ; SynthID Text ).
Alors oui, les filigranes peuvent être puissants, mais ils ne constituent pas un insigne de police universel.
9) Les faux positifs et leurs causes (la partie douloureuse) 😬
Cela mérite une section à part entière car c'est là que se concentre la plupart des controverses.
Déclencheurs courants de faux positifs :
-
Ton très formel (rédaction académique, juridique, de conformité)
-
Anglais non natif (des structures de phrases plus simples peuvent paraître « modèles »)
-
Rédaction à partir de modèles (lettres de motivation, procédures opérationnelles standard, rapports de laboratoire)
-
Courts extraits de texte (signal insuffisant)
-
Contraintes thématiques (certains sujets imposent des formulations répétitives) ( Liang et al. (arXiv) ; Turnitin )
Si vous avez déjà vu quelqu'un se faire signaler pour avoir trop bien écrit… eh bien, ça arrive. Et c'est terrible.
Un score de détecteur doit être traité comme :
-
Un détecteur de fumée, pas un verdict de tribunal 🔥
Il vous dit « vérifiez peut-être », pas « affaire classée ». ( OpenAI ; Turnitin )
10) Comment interpréter les scores du détecteur comme un adulte 🧠🙂
Voici une méthode pratique pour interpréter les résultats :
Si l'outil donne un pourcentage unique
Considérez-le comme un signal de risque approximatif :
-
0-30%: probablement humain ou fortement modifié
-
30-70%Zone ambiguë : ne présumez de rien
-
70-100 % : plus probablement des schémas de type IA, mais toujours pas une preuve ( Guides Turnitin )
Même les scores élevés peuvent être erronés, notamment pour :
-
écriture standardisée
-
certains genres (résumés, définitions)
-
Écriture en anglais langue seconde ( Liang et al. (arXiv) )
Cherchez des explications, pas seulement des chiffres
Les meilleurs détecteurs offrent :
-
étendues mises en évidence
-
Points clés (prévisibilité, répétition, etc.)
-
intervalles de confiance ou langage d'incertitude ( Une étude sur la détection de texte générée par LLM )
Si un outil refuse de donner la moindre explication et se contente d'afficher un chiffre… je ne lui fais pas confiance. Vous devriez en faire autant.
11) Comment fonctionnent les détecteurs d'IA : un modèle mental simple 🧠🧩
Pour un résultat impeccable, utilisez ce modèle mental :
-
Les détecteurs d'IA recherchent des schémas statistiques et stylistiques communs aux textes générés par machine. ( Étude sur la détection de texte généré par LLM )
-
Ils comparent ces modèles à ce qu'ils ont appris à partir d'exemples d'entraînement. ( Étude sur la détection de texte générée par LLM )
-
Ils produisent une estimation probabiliste , et non un récit factuel des origines. ( OpenAI )
-
La prédiction est sensible au genre, au sujet, à la longueur, aux modifications et aux données d'entraînement du détecteur . ( Étude sur la détection de texte générée par LLM )
En d'autres termes, les détecteurs d'IA fonctionnent en « évaluant la ressemblance », et non l'attribution. C'est comme dire que quelqu'un ressemble à son cousin. Ce n'est pas comparable à un test ADN… et même les tests ADN présentent des cas particuliers.
12) Conseils pratiques pour réduire les drapeaux accidentels (sans jouer) ✍️✅
Non pas « comment tromper les détecteurs », mais plutôt comment écrire de manière à refléter une véritable paternité et à éviter les interprétations erronées.
-
Ajoutez des détails concrets : les noms des concepts que vous avez réellement utilisés, les étapes que vous avez suivies, les compromis que vous avez envisagés
-
Utilisez la variation naturelle : alternez phrases courtes et longues (comme le font les humains lorsqu’ils réfléchissent)
-
Tenez compte des contraintes réelles : délais, outils utilisés, problèmes rencontrés, ce que vous feriez différemment
-
Évitez les formulations trop stéréotypées : remplacez « De plus » par une expression que vous utiliseriez réellement
-
Conservez vos brouillons et vos notes : en cas de litige, les preuves procédurales comptent plus que l’intuition
En réalité, la meilleure défense, c'est tout simplement… l'authenticité. Une authenticité imparfaite, pas une authenticité « parfaite comme dans une brochure ».
Remarques finales 🧠✨
Les détecteurs d'IA peuvent être utiles, mais ils ne détiennent pas la vérité absolue. Ce sont des systèmes de reconnaissance de formes entraînés sur des données imparfaites, opérant dans un monde où les styles d'écriture se chevauchent constamment. ( OpenAI ; Étude sur la détection de texte générée par LLM )
Bref:
-
Les détecteurs s'appuient sur des classificateurs, la perplexité/l'irrégularité, la stylométrie et parfois des filigranes 🧩 ( Une étude sur la détection de texte généré par LLM )
-
Ils évaluent la « ressemblance avec l'IA », et non la certitude ( OpenAI ).
-
Les faux positifs sont fréquents dans les écrits formels, techniques ou rédigés par des personnes non natives 😬 ( Liang et al. (arXiv) ; Turnitin )
-
Utilisez les résultats du détecteur comme une incitation à la vérification, et non comme un verdict ( Turnitin ).
Et oui… si quelqu’un vous demande encore comment fonctionnent les détecteurs IA , vous pouvez lui répondre : « Ils devinent en se basant sur des schémas – parfois ingénieux, parfois farfelus, toujours limités. » 🤖
FAQ
Comment fonctionnent concrètement les détecteurs d'IA ?
La plupart des détecteurs d'IA ne « prouvent » pas l'attribution d'un texte. Ils évaluent la ressemblance de votre texte avec les modèles de langage courants, puis attribuent un score probabiliste. En interne, ils peuvent utiliser des modèles de classification, des scores de prédictibilité de type perplexité, des caractéristiques stylométriques ou des vérifications de filigrane. Le résultat doit être considéré comme un signal d'alerte, et non comme un verdict définitif.
Quels signaux les détecteurs d'IA recherchent-ils dans l'écriture ?
Parmi les signaux courants, on retrouve la prévisibilité (le degré de surprise du modèle face à vos prochains mots), la répétition dans la structure des phrases, un rythme inhabituellement régulier et un phrasé générique peu détaillé. Certains outils analysent également des marqueurs stylométriques tels que la longueur des phrases, les habitudes de ponctuation et la fréquence des mots fonctionnels. Ces signaux peuvent se confondre avec l'écriture humaine, notamment dans les genres formels, académiques ou techniques.
Pourquoi les détecteurs d'IA signalent-ils l'écriture humaine comme étant de l'IA ?
Les faux positifs surviennent lorsque l'écriture humaine semble statistiquement « homogène » ou stéréotypée. Un ton formel, un langage réglementaire, des explications techniques, des exemples courts et un anglais non natif peuvent être interprétés à tort comme du texte généré par une IA, car ils réduisent la variation. C'est pourquoi un paragraphe clair et bien rédigé peut obtenir un score élevé. Un détecteur compare les ressemblances, il ne vérifie pas l'origine.
Les détecteurs de perplexité et de « rafales » sont-ils fiables ?
Les méthodes basées sur la perplexité peuvent fonctionner avec des textes bruts, issus d'une IA et hautement prévisibles. Cependant, elles sont fragiles : les courts passages sont bruités, et de nombreux genres littéraires légitimes sont naturellement prévisibles (résumés, définitions, courriels d'entreprise, manuels). La révision et la mise au point peuvent également modifier considérablement le résultat. Ces outils conviennent au tri rapide, mais ne peuvent être utilisés seuls pour des décisions importantes.
Quelle est la différence entre les détecteurs de classificateurs et les outils de stylométrie ?
Les classificateurs apprennent à partir d'ensembles de données étiquetées de textes écrits par des humains et des IA (parfois hybrides) et prédisent à quelle catégorie votre texte appartient le plus. Les outils de stylométrie se concentrent sur les « empreintes » de l'écriture, comme les schémas de choix des mots, les mots fonctionnels et les indices de lisibilité, qui peuvent s'avérer plus informatives pour l'analyse de textes longs. Ces deux approches sont sensibles au changement de domaine et peuvent rencontrer des difficultés lorsque le style d'écriture ou le sujet diffèrent de leurs données d'entraînement.
Les filigranes résolvent-ils définitivement le problème de la détection par IA ?
Les filigranes sont efficaces lorsqu'un modèle les utilise et que le détecteur connaît leur schéma. En réalité, tous les fournisseurs n'utilisent pas de filigrane, et des transformations courantes (paraphrase, traduction, citation partielle ou mélange de sources) peuvent affaiblir ou rompre le schéma. La détection de filigranes est performante dans les rares cas où la chaîne de transmission est complète, mais elle n'est pas universelle.
Comment interpréter un score « X % IA » ?
Considérez un pourcentage comme un indicateur approximatif de la « ressemblance avec une IA », et non comme une preuve de sa paternité. Les scores moyens sont particulièrement ambigus, et même les scores élevés peuvent être erronés dans des écrits standardisés ou formels. Les outils plus performants fournissent des explications telles que des zones mises en évidence, des notes sur les fonctionnalités et des indications d'incertitude. Si un détecteur ne fournit pas d'explications, ne considérez pas le chiffre comme une donnée fiable.
Qu'est-ce qui fait un bon détecteur d'IA pour les écoles ou les flux de travail éditoriaux ?
Un détecteur fiable est calibré, minimise les faux positifs et communique clairement ses limites. Il doit éviter les conclusions hâtives sur de petits échantillons, s'adapter à différents domaines (académique, blogue, technique) et rester stable même après des corrections humaines. Les outils les plus performants font preuve d'humilité : ils présentent des preuves et des indications d'incertitude plutôt que de prétendre lire dans les pensées.
Comment puis-je réduire les alertes IA accidentelles sans « manipuler » le système ?
Privilégiez les indices d'authenticité plutôt que les artifices. Apportez des détails concrets (étapes suivies, contraintes, compromis), variez naturellement le rythme de vos phrases et évitez les transitions trop stéréotypées que vous n'utiliseriez pas spontanément. Conservez vos brouillons, notes et l'historique des révisions : en cas de litige, les preuves du processus sont souvent plus importantes qu'un simple score de détection. L'objectif est d'obtenir un style clair et personnel, et non une prose digne d'une brochure.
Références
-
Association for Computational Linguistics (ACL Anthology) - Étude sur la détection de texte générée par LLM - aclanthology.org
-
OpenAI - Nouveau classificateur d'IA pour la détection de textes générés par IA - openai.com
-
Guides Turnitin - Détection de l'écriture par IA dans la vue de rapport classique - guides.turnitin.com
-
Guides Turnitin - Modèle de détection d'écriture par IA - guides.turnitin.com
-
Turnitin - Comprendre les faux positifs dans nos capacités de détection d'écriture par IA - turnitin.com
-
arXiv - DétecterGPT - arxiv.org
-
Université de Boston - Articles sur la perplexité - cs.bu.edu
-
GPTZero - Perplexité et rafales : de quoi s'agit-il ? - gptzero.me
-
PubMed Central (NCBI) - Stylométrie et sciences forensiques : une revue de la littérature - ncbi.nlm.nih.gov
-
Association for Computational Linguistics (ACL Anthology) - Mots fonctionnels dans l'attribution d'auteur - aclanthology.org
-
arXiv - Un filigrane pour les grands modèles de langage - arxiv.org
-
IA de Google pour les développeurs - SynthID Text - ai.google.dev
-
arXiv - Sur la fiabilité des filigranes pour les grands modèles de langage - arxiv.org
-
OpenAI - Comprendre la source de ce que nous voyons et entendons en ligne - openai.com
-
Stanford HAI - Détecteurs d'IA biaisés contre les rédacteurs non anglophones - hai.stanford.edu
-
arXiv - Liang et al. - arxiv.org