"KI-generierte Inhalte menschlicher machen"
"KI-generierte Inhalte menschlicher machen"
Wir nehmen KI-Ethik ernst. Auf dieser Seite legen wir klar dar, wofür wir stehen, welche Schutzmechanismen gelten und welche Verwendung unserer Software vorgesehen ist.
Zur Klarstellung: Unsere Tools zu nutzen, um sich oder anderen zu schaden, ist falsch. Wir dulden keinen unethischen Einsatz von KI-Systemen. Diese Seite erklärt daher, was in Ordnung ist und was nicht. Zuerst sollten Sie unsere Nutzungsbedingungen kennen (insbesondere den Abschnitt „Verbotene Nutzung“).
Wir haben Undetectable AI mit einem durchgehenden Ziel gestartet: Menschen dabei zu helfen, Inhalte zu schaffen, die authentisch wirken.
KI kann (und wird) genutzt werden, um Chancen für benachteiligte Menschen auszugleichen.
Heute kann ein kleiner Unternehmer ohne Budget für einen Marketing-Texter Künstliche Intelligenz nutzen, um diese Rolle zu füllen.
Das Problem: KI-Texte sind oft schwach. Wer die Entwicklung großer Sprachmodelle verfolgt hat, weiß, was gemeint ist. Humanisierung lässt KI-Text menschlicher wirken.
Der Kleinunternehmer, der nicht mithalten konnte? Jetzt kann er es.
Wer nicht tippen kann und KI zur Kommunikation nutzt, ist nicht mehr auf „wie ChatGPT klingen“ beschränkt.
Das sind nur einige Anwendungsfälle, die uns Hoffnung geben und unser Gewissen beruhigen.
Unser Humanizer ist zweifellos leistungsfähig. Wir haben ethische und unethische Nutzung gesehen. Undetectable soll Texter nicht ersetzen, sondern Menschen helfen, die keine Texter haben.
Hier wollen wir unsere ethische Position zu allen unseren Produkten – besonders den umstrittensten – detailliert darlegen. Außerdem finden Sie Gedanken zu Regulierung, Schutzmechanismen und Governance.
Unser erstes Flaggschiff, der KI-Humanizer, ist am beliebtesten. Ein Algorithmus formuliert Text wie ein Mensch. Humanisierter Text wird seltener als KI-generiert erkannt.
Nutzer setzen den Humanizer ein, weil Inhalte nicht steif oder roboterhaft wirken sollen. Natürlich gibt es gute und schlechte Absichten. Was sind die ethisch zulässigen Nutzungen unseres Humanizers? Einige Beispiele in der folgenden Tabelle:
Zulässige Nutzung
Unzulässige Nutzung
Jeder zulässige Humanizer-Einsatz sollte unter „Immer wenn KI-Text nicht verboten ist“ fallen. Der Humanizer soll Inhalte und Kommunikation verbessern – Vertrauen aufbauen, nicht verraten.
Gleichwohl gibt es Fälle der Erkennungsumgehung, die wir für zulässig halten.
Ethisch / Zulässig
Unethisch / nicht zulässig
Im ersten Beispiel gab es keinen „groben Vertrauensbruch“. Im zweiten gab es nicht nur einen solchen Bruch, sondern die Person humanisierte auch, um „kein KI-Einsatz“-Regeln zu umgehen – das ist falsch.
Wir haben Nutzer, die aus verschiedenen Gründen Inhalte erstellen müssen, die nicht als KI erkannt werden. Ihnen ist KI erlaubt, aber menschliche Qualität ist gefordert.
Wenn Menschen glauben, Inhalt sei KI-generiert (auch wenn nicht), vertrauen sie weniger.
Forschung des Nürnberg Institut für Marktentscheidungen (NIM) zeigte: KI-zugeschriebene Inhalte wurden negativer bewertet als identischer Inhalt als menschlich präsentiert. Nutzer klickten seltener auf Produkte in KI-Anzeigen.
Es gibt Wörter und Stile, die viele als KI-Merkmale sehen – z. B. den Gedankenstrich „—“ oder Wörter wie „delve“ oder „realm“.
Es geht tiefer. Ohne uns zu verlieren: Wir haben hunderte Muster KI-typischer Formulierungen identifiziert.
Menschen zeigen diese Muster ebenfalls. Viele Autoren finden es leichter, Muster zu „humanisieren“, als den Schreibstil komplett zu ändern – um Vertrauen trotz neuer Sprachvorurteile zu wahren.
Wie in unseren Nutzungsbedingungen festgehalten, erlauben wir nicht, dass Personen „automatisierte Nutzung des Systems betreiben, einschließlich Skripte für Kommentare oder Nachrichten, Data Mining, Roboter oder ähnliche Datenerfassung“.
Spam hat bei uns über 7.000 Sperren zur Folge. Chatbot-Tools nutzen unsere Humanisierungs-API, sind aber als Bots gekennzeichnet und geben sich nicht als Menschen aus.
Nicht genehmigte Automatisierung ist leicht zu erkennen. Angesichts agentischer KI (z. B. clawdbot) gilt Null-Toleranz, wenn Bots sich als echte Menschen ausgeben. Wir beobachten.
Wir dulden niemals Schummeln. Unser Moderationsteam prüft .edu-Registrierungen.
Wir nehmen Privatsphäre ernst und erheben keine Vorwürfe, wenn wir uns irren könnten. Einige Studenten nutzen KI für Aufsätze. Wenn Sie Student sind: Komplettes Auslagern des Denkens an KI schadet Ihnen selbst.
Manchmal hört man, unsere Software „erleichtere Schummeln“. Schummeln ist aber Symptom eines größeren Problems. Unsere Software hilft auch ethischen Nutzern zu authentischer Kommunikation.
Dass jemand unser Tool für akademisches Schummeln missbrauchen könnte, macht die positiven Einsätze des Humanizers nicht unwirksam.
Wir sind zum Dialog mit der Wissenschaft offen und wollen Schaden so weit wie möglich minimieren.
Es gibt Studenten, die den Humanizer nutzen, nicht zum Schummeln, sondern um sich vor falschen KI-Vorwürfen (false positives) zu schützen. Dazu mehr im Detector-Abschnitt.
Wir erkennen automatisierte und Bot-Inhalte sowie .edu-Registrierungen. Interne Moderationspunkte sichern die Einhaltung der Richtlinien. Die Grenzen drehen sich im Kern um Datenschutz.
Datenschutz tritt zurück, wenn öffentliche Sicherheit unmittelbar gefährdet ist oder ein US-Gerichtsbeschluss Daten verlangt. Unsere Durchsetzung zielt vor allem auf Rechtsbruch oder direkte körperliche Gefahr.
KI-Offenlegung ist vielschichtig. Entscheidend ist die Pflicht (interne Governance, Vorschriften, Gesetze, AGB).
Wir glauben nicht, dass jeder moralisch verpflichtet ist, KI-Nutzung offenzulegen.
Wer nicht an eine KI-Governance gebunden ist und nicht gesetzlich offenlegen muss, hat unserer Ansicht nach keine moralische Pflicht dazu.
Klarstellung: Wir halten weiterhin am Maßstab "grober Vertrauensbruch."
Kein grober Vertrauensbruch
Jemand erstellt einen Artikel mit KI, prüft Fakten, bearbeitet, bringt Expertise ein und veröffentlicht unter eigenem Namen, ohne KI offenzulegen.
Grober Vertrauensbruch
Jemand fragt einen Chatbot nach einem Artikel über XYZ, ist kein Experte, prüft nichts und gibt ihn als eigenes Expertenwissen aus.
Bei der Offenlegung von KI zählt für uns der Kontext. Manche Nutzer legen freiwillig alle Tools offen, andere nicht. Entscheidend sind Kontext und Art der Nutzung.
Wir unterstützen KI-Governance und jede Firma sollte sie haben. Ohne klare interne Regeln für KI-Einsatz (Offenlegung, erlaubte/verbotene Fälle) haben Sie eine blinden Fleck.
Schlechte Daten aus KI-Tools oder Mitarbeiter, die Daten an unsichere Systeme geben – beides ist denkbar. Nutzungsfolgen positiv und negativ zuordnen ist sinnvoll. Die Tools sind neu; manche nutzen sie ohne über Daten nachzudenken.
Unsere externe Governance (erlaubte/verbotene Tool-Nutzung) steht in unseren Nutzungsbedingungen. Intern pflegen wir KI-Governance in allen Abteilungen.
Unser zweitbeliebtestes Tool ist der KI-Texterkenner. Wie beim Humanizer gibt es richtige und falsche Nutzung.
Texterkennung allein reicht derzeit nicht aus, KI-Nutzung in einem Text mit absoluter Sicherheit auszuschließen. Moderne Erkenner (auch unserer) analysieren Struktur und Syntax.
Der KI-Prozentsatz ist eine Wahrscheinlichkeit. Wie stilometrische Analysen ist er ein Ausgangspunkt für Untersuchungen – nicht der alleinige Beweis für Betrug.
Diese Beispiele verdeutlichen das:
Hoffentlich wird klar: Ein KI-Texterkenner ist nur ein Hilfsmittel in einer Untersuchung. Eine einzelne Meldung ist kein Schuldbeweis nach hohem Maßstab.
In akademischen oder beruflichen Verfahren sollte Texterkennung ergänzende Evidenz sein. Eine Zahl allein reicht nicht.
Zuerst hatten wir ein „konsensbasiertes“ Modell (2023). Acht Modelle nachahmten große Erkenner. Nutzer sahen jede Teilbewertung.
Manche Modelle verzerrten den Gesamtschluss (5 von 8 = wahrscheinlich KI).
Mit wachsendem ML-Team entfernten wir ungenaue Modelle.
Heute eine Gesamtzahl, aber mehrere Schichten. Wir änderten das auch, weil Nutzer glaubten, unsere nachgebauten Scores entsprächen anderen Tools – die wechselten aber Beta-Modelle.
Wir wollten keinen Live-Ersatz für andere Erkenner. Wir können nichts benennen, aber wissen, welche Modelle wissenschaftlich sind; „Black Box“ wird langsam „verständlich“ und „messbar“.
Wichtig ist linguistische Entropie – Unvorhersehbarkeit von Text. Perplexität dient als Metrik.
Große Modelle sind auf Token-Ebene vorhersehbar und erzeugen oft niedrigere Perplexität.
Humanizer-ähnliche Tools können Erkenner täuschen.
Texterkenner sind fehlbar. Nützlich, aber kein Orakel. Wir dulden keine alleinigen Anschuldigungen aufgrund der Erkennung.
Ein zuverlässiger Erkenner ist besser als keiner – entscheidend sind Nutzung und Verständnis.
Humanisierung und Texterkennung haben verschiedene Rollen. In zwei Jahren wurde klar: KI-generierter Text ist weit weniger gefährlich als andere KI-Inhalte.
Wir erforschen KI-Betrug: Prävention, Erkennung und Risiko von Bild, Video und Audio.
Undetectable Deepfakes produzieren oder dulden wir nie. Seit 2024 nutzen wir Daten für Deepfake-Erkennung – Fokus TruthScan. TruthScan ist unsere Schwesterorganisation für Erkennung von Deepfakes in Bild, Audio und Video.
Anders als Text bieten Medien mehr Analysefläche. Unsere Teams, die führende adversarial-KI-Tools bauten, können das Erkennungsproblem lösen.
Undetectable AI und TruthScan haben eigene Abteilungen. Priorität aber: TruthScan bei Deepfake-Schäden zu unterstützen.
Das TruthScan-Projekt entstand aus dem Wunsch zu helfen und echte Probleme zu lösen. Jeder zahlende Undetectable-Nutzer finanziert TruthScans Kampf gegen schädliche KI-Deepfakes.
Unser Ziel: wachsen, lernen und eine bessere Welt mitgestalten.