Rendre le contenu généré par l`IA plus humain
Rendre le contenu généré par l`IA plus humain
Nous prenons l'éthique de l'IA au sérieux. Sur cette page, nous expliquons clairement nos positions, nos garde-fous et l'usage prévu de nos logiciels.
Soyons clairs : utiliser nos outils pour nuire à vous-même ou à autrui est inacceptable. Nous ne cautionnons aucun usage déontologiquement problématique d'un système d'IA. Cette page précise ce qui est acceptable ou non. D'abord, familiarisez-vous avec nos Conditions d''utilisation (notamment la section « Usage interdit »).
Nous avons lancé Undetectable AI avec un objectif constant : aider à créer des contenus perçus comme authentiques.
L''IA peut être (et est) utilisée pour rééquilibrer les chances des personnes défavorisées.
Aujourd'hui, un petit chef d'entreprise sans budget pour un rédacteur marketing peut s'appuyer sur l'intelligence artificielle.
Le problème, c'est que le texte généré par l'IA est souvent médiocre. Si vous suivez l'évolution des grands modèles de langage, vous comprenez. L'humanisation rend le texte plus crédible.
Le TPE qui ne pouvait pas rivaliser ? Désormais, c'est possible.
La personne qui ne sait pas taper et utilise l'IA pour communiquer n'est plus réduite à « sonner comme ChatGPT ».
Voici quelques cas d'usage qui nous donnent espoir et préservent notre conscience.
Notre humaniseur est puissant. Nous avons vu des usages éthiques et d'autres non. Undetectable ne remplace pas les rédacteurs ; il aide ceux qui n'en ont pas.
Nous détaillons ici notre position éthique sur tous nos produits — surtout les plus controversés — et nos réflexions sur la régulation, les garde-fous et la gouvernance.
Notre premier produit phare, l'humaniseur IA, est le plus populaire. Un algorithme réécrit le texte à la manière d'un humain ; le texte humanisé est moins souvent détecté comme généré par IA.
Les utilisateurs veulent éviter un ton rigide ou robotique. Il y a de bonnes et de mauvaises intentions. Quels sont les usages éthiques et permis de notre humaniseur ? Quelques exemples dans le tableau ci-dessous :
Usage acceptable
Usage inacceptable
Tout usage acceptable doit relever de « dès que l'usage de texte IA n'est pas interdit ». L'humaniseur doit enrichir contenu et communication — instaurer la confiance, pas la trahir.
Cela dit, certains contournements de détection nous semblent acceptables.
Éthique / Permis
Non éthique / Non permis
Dans le premier cas, pas de « violation grave de la confiance ». Dans le second, il y a violation grave et contournement des règles « pas d'IA » — ce qui est inacceptable.
Certains utilisateurs doivent produire du contenu non détecté comme IA ; l'IA est autorisée mais la qualité doit être humaine.
Quand les gens croient qu'un contenu est issu de l'IA (même à tort), ils font moins confiance.
Une recherche du Institut de Nuremberg pour les décisions de marché (NIM) a montré que le contenu présenté comme fait par IA était perçu plus négativement que le même contenu présenté comme humain. Les gens cliquaient moins sur les produits dans des pubs générées par IA.
Certains mots ou styles sont associés à l'IA — par exemple le tiret cadratin « — » ou des termes comme « delve » ou « realm ».
C''est plus profond. Nous avons identifié des centaines de schémas typiques de texte IA.
Les humains produisent aussi ces schémas. Beaucoup d'auteurs préfèrent « humaniser » plutôt que tout changer — pour préserver la confiance.
Comme indiqué dans nos Conditions d''utilisation, nous n''autorisons pas les personnes à « s'engager dans une utilisation automatisée du système, comme l'envoi de commentaires ou messages par scripts, le data mining, les robots ou outils similaires ».
Nous avons banni plus de 7 000 comptes pour spam. Les chatbots utilisent notre API d'humanisation mais sont étiquetés et ne se font pas passer pour des humains.
Les automatisations non approuvées sont faciles à sanctionner. Face aux IA agentiques (ex. clawdbot), tolérance zéro si des bots se présentent comme humains. Nous surveillons.
Nous ne tolérons jamais la triche. Notre modération examine les inscriptions .edu.
La vie privée compte ; nous n'accuserons pas si le doute est raisonnable. Certains étudiants utiliseront l'IA pour leurs dissertations. Si vous êtes étudiant, savoir : externaliser toute votre pensée à l'IA vous nuit.
On entend parfois que notre logiciel « facilite la triche ». La triche est un symptôme plus large. Notre logiciel aide aussi les usages éthiques et authentiques.
Qu'un acteur malveillant tente d'aider à tricher n'annule pas les usages positifs de l'humaniseur.
Nous restons ouverts au dialogue avec le monde académique et cherchons à limiter les dommages.
Des étudiants utilisent l'humaniseur pour se protéger de fausses accusations de détection IA (faux positifs). Nous y reviendrons dans la section détecteur.
Nous détectons contenu automatisé et bots, ainsi que les inscriptions .edu. Des points de contrôle internes appliquent les règles. Les limites se résument surtout à la vie privée.
La vie privée cède seulement si la sécurité publique est en jeu ou si une ordonnance judiciaire américaine l''exige. Notre action vise surtout l''illégalité ou un danger physique direct.
La divulgation est multifactorielle ; le facteur principal est l'obligation (politiques internes, réglementation, lois, CGU).
Nous ne croyons pas que chacun doive moralement déclarer son usage de l''IA.
Sans accord de gouvernance IA ni obligation légale, il n''y a pas à notre avis de devoir moral de divulguer.
Pour préciser, nous maintenons le critère moral des «violations graves de la confiance. »
Ce n''est pas une violation grave de la confiance
Quelqu'un rédige avec l'IA, vérifie, édite, apporte son expertise et publie sous son nom sans mentionner l'IA.
C''est une violation grave de la confiance
Quelqu''un demande à un chatbot un article sur XYZ sans expertise, sans relecture, et le publie comme s''il était expert.
Pour la divulgation de l'IA, le contexte prime pour nous. Certains utilisateurs divulguent volontairement tous leurs outils, d'autres non. Le contexte et l'usage déterminent l'éthique.
Nous soutenons les politiques de gouvernance IA ; toute entreprise devrait en avoir. Sans règles internes sur l'usage de l'IA (divulgation, cas permis/interdits), il y a un angle mort.
Données médiocres issues d'outils IA ou fuites d'informations vers des systèmes non sécurisés — attribuer les effets positifs et négatifs de l'usage des outils est logique. Les outils sont nouveaux ; certains oublient ce qu'ils partagent.
Notre politique externe (usage autorisé ou non de l'outil) est définie dans nos Conditions d''utilisation. En interne, nous maintenons une gouvernance IA dans tous les services.
Notre deuxième outil le plus utilisé est le détecteur de texte IA. Comme pour l'humaniseur, il y a bons et mauvais usages.
La détection de texte actuelle ne suffit pas à écarter objectivement l'usage de l'IA dans un texte avec certitude absolue. Les détecteurs modernes (y compris le nôtre) analysent structure et syntaxe.
Le pourcentage IA est une probabilité. Comme en stylométrie, c'est un point de départ d'enquête — pas une preuve unique de fraude.
Ces exemples illustrent :
Ces exemples montrent : le détecteur doit être un outil complémentaire dans une enquête. Une seule alerte ne constitue pas une preuve irréfutable.
Dans une enquête académique ou professionnelle, la détection doit être une preuve secondaire ou tertiaire. Un score seul ne suffit pas.
Au début, modèle « par consensus » (2023) : 8 modèles imitant les grands détecteurs.
Certains modèles biaisaient le consensus (5/8 = probablement IA).
Nous avons retiré les modèles imprécis en renforçant ML/R&D.
Aujourd'hui un score agrégé, plusieurs couches ; évite la confusion avec d'autres outils qui changent de modèles bêta.
Nous ne voulions pas un substitut en direct d'autres détecteurs. Les modèles scientifiques sont identifiés ; la « boîte noire » devient « compréhensible » et « quantifiable ».
Entropie linguistique et perplexité comme mesures.
Les LLM sont prévisibles au niveau token ; perplexité souvent plus basse.
Des outils comme notre humaniseur peuvent tromper les détecteurs.
Les détecteurs sont imparfaits ; utiles mais pas oracles. Nous ne cautionnons pas les accusations fondées uniquement sur la détection.
Mieux vaut un détecteur fiable que rien — l'essentiel est l'usage et la compréhension.
L'humanisation et la détection ont des rôles distincts. Il est clair que le texte généré par IA est bien moins dangereux que d''autres modalités de contenu IA.
Nous étudions la fraude IA : prévention, détection, risques réels des images, vidéos et audio.
Nous ne produirons ni ne tolérerons jamais des deepfakes indétectables. Depuis 2024, nous concevons des outils de détection — focus TruthScan, organisation sœur pour image, audio et vidéo.
Contrairement au texte, les médias offrent plus de données à analyser. Nos équipes peuvent résoudre le dilemme de détection.
Undetectable AI et TruthScan ont chacun leurs équipes ; la priorité est d'aider TruthScan à limiter les dégâts des deepfakes.
Le projet TruthScan est né du désir d'aider et de résoudre de vrais problèmes. Chaque abonné Undetectable finance la lutte de TruthScan contre les deepfakes nuisibles.
Notre objectif : grandir, apprendre et contribuer à un monde meilleur pour tous.