"AI-gegenereerde inhoud menselijker maken"
"AI-gegenereerde inhoud menselijker maken"
We nemen AI-ethiek serieus. Op deze pagina leggen we uit wat we voorstaan, welke waarborgen gelden en welk gebruik van onze software bedoeld is.
Laten we duidelijk zijn: onze tools gebruiken om uzelf of anderen schade toe te brengen is fout. We keuren geen onethisch gebruik van AI-systemen goed. Deze pagina legt uit wat wel en niet mag. Maak eerst kennis met onze Servicevoorwaarden (vooral het gedeelte "Verboden gebruik").
We lanceerden Undetectable AI met een doorlopend doel: mensen helpen inhoud te maken die authentiek aanvoelt.
AI kan (en wordt) gebruikt om kansen te vergelijken voor mensen in een nadeelpositie.
Vandaag kan een kleine ondernemer zonder budget voor een marketingtekstschrijver kunstmatige intelligentie gebruiken.
Het probleem: AI-tekst is vaak zwak. Als u grote taalmodellen volgt, begrijpt u wat we bedoelen. Humanisering maakt tekst menselijker.
De kleine ondernemer die niet kon concurreren? Nu wel.
Wie niet kan typen en AI gebruikt om te communiceren, hoeft niet meer "als ChatGPT" te klinken.
Dit zijn enkele voorbeelden die ons hoop geven en ons geweten rust geven.
Onze humanizer is krachtig. We zien ethisch en onethisch gebruik. Undetectable vervangt geen schrijvers; het helpt wie geen schrijvers heeft.
Hier willen we ons ethische standpunt over al onze producten — vooral de meest controversiële — uitleggen, plus reflecties over regulering, waarborgen en governance.
Ons eerste vlaggenschip, de AI-humanizer, is het populairst. Een algoritme herschrijft tekst als een mens; gehumaniseerde tekst wordt minder vaak als AI gedetecteerd.
Gebruikers willen geen stijve of robotachtige toon. Er zijn goede en slechte bedoelingen. Wat zijn de ethische en toegestane toepassingen van onze humanizer? Enkele voorbeelden in de tabel hieronder:
Aanvaardbaar gebruik
Onaanvaardbaar gebruik
Elk aanvaardbaar gebruik hoort onder "wanneer AI-schrijven niet verboden is". De humanizer moet inhoud en communicatie verbeteren — vertrouwen opbouwen, niet verraden.
Dat gezegd hebbende, zijn er gevallen van detectie-omzeiling die we toestaan.
Ethisch / Toegestaan
Onethisch / Niet toegestaan
In het eerste voorbeeld geen "grove schending van vertrouwen". In het tweede wel, plus omzeiling van "geen AI"-regels — fout.
We hebben gebruikers die inhoud moeten maken die niet als AI wordt gemarkeerd; AI is toegestaan maar kwaliteit moet menselijk zijn.
Als mensen denken dat inhoud van AI komt (ook als niet), vertrouwen ze minder.
Onderzoek van het Neurenberg Instituut voor Marktbeslissingen (NIM) toonde dat inhoud beschreven als AI-gemaakt negatiever werd beoordeeld dan dezelfde inhoud als menselijk gepresenteerd. Mensen klikten minder op producten in AI-advertenties.
Er zijn woorden en stijlen die met AI worden geassocieerd — bijv. het em-dash "—" of woorden als "delve" of "realm".
Het gaat dieper. We hebben honderden patronen van AI-schrijven geïdentificeerd.
Mensen tonen deze patronen ook. Veel schrijvers vinden het makkelijker te "humanizen" dan hun hele stijl te veranderen — om vertrouwen te behouden.
Zoals vermeld in onze Servicevoorwaarden, staan we niet toe dat mensen "geautomatiseerd gebruik van het systeem maken, zoals scripts voor reacties of berichten, datamining, robots of vergelijkbare tools".
We hebben meer dan 7.000 gebruikers voor spam geband. Chatbots gebruiken onze humanisatie-API maar zijn gelabeld en doen zich niet voor als mensen.
Niet-goedgekeurde automatisering is makkelijk te handhaven. Bij agentische AI (bijv. clawdbot) nultolerantie als bots zich als echte mensen voordoen. We letten op.
We tolereren nooit spieken. Ons moderatieteam onderzoekt .edu-registraties.
Privacy telt; we beschuldigen niet als redelijke twijfel bestaat. Sommige studenten gebruiken AI voor essays. Als u student bent: al uw denken uitbesteden aan AI schaadt uzelf.
Soms horen we dat onze software "spieken makkelijker maakt". Spieken is symptoom van een groter probleem. Onze software helpt ook ethische gebruikers authentiek te communiceren.
Dat iemand misbruik zou kunnen plegen, maakt de positieve toepassingen van de humanizer niet ongeldig.
We staan open voor dialoog met de academische wereld en willen schade beperken.
Er zijn studenten die de humanizer gebruiken niet om te spieken maar om valse AI-beschuldigingen (false positives) te vermijden. Meer in het detector-gedeelte.
We detecteren geautomatiseerde en bot-inhoud en .edu-registraties. Interne moderatiecontroles handhaven beleid. De beperkingen komen neer op privacy.
Privacy wijkt alleen bij direct gevaar voor openbare veiligheid of Amerikaanse gerechtelijke bevelen. Onze handhaving richt zich vooral op wetsovertreding of direct fysiek gevaar.
Openbaarmaking is veelzijdig; de hoofdfactor is verplichting (intern beleid, regels, wetten, TOS).
We geloven niet dat iedereen moreel verplicht is AI-gebruik te melden.
Zonder AI-governance-akkoord noch wettelijke verplichting is er naar onze mening geen morele plicht om te melden.
Ter verduidelijking: we houden vast aan de maatstaf "grove schendingen van vertrouwen."
Geen grove schending van vertrouwen
Iemand stelt met AI een artikel samen, controleert feiten, bewerkt, voegt expertise toe en publiceert op eigen naam zonder AI te vermelden.
Wel een grove schending van vertrouwen
Iemand vraagt een chatbot om een artikel over XYZ zonder expertise, zonder controle, en publiceert als expert.
Voor openbaarmaking van AI telt voor ons de context. Sommige gebruikers melden vrijwillig alle tools, anderen niet. Context en gebruik bepalen de ethiek.
We steunen AI-governance; elk bedrijf zou het moeten hebben. Zonder intern beleid over AI-gebruik (openbaarmaking, toegestane/verboden gevallen) is er een blinde vlek.
Slechte data van AI-tools of medewerkers die vertrouwelijke info delen met onveilige systemen — effecten toeschrijven is logisch. Tools zijn nieuw; sommigen denken niet na over wat ze delen.
Ons externe beleid (toegestaan/verboden toolgebruik) staat in onze Servicevoorwaarden. Intern onderhouden we AI-governance in alle afdelingen.
Ons op één na populairste hulpmiddel is de AI-tekstdetector. Zoals bij de humanizer zijn er goede en foute manieren.
Tekstdetectie alleen is nu niet genoeg om AI-gebruik in een tekst met absolute zekerheid uit te sluiten. Moderne detectors (ook de onze) analyseren structuur en syntaxis.
Het AI-percentage is een waarschijnlijkheid. Zoals stylometrie is het een startpunt voor onderzoek — geen enkel bewijs van fraude.
Deze voorbeelden illustreren:
Hopelijk maken deze voorbeelden duidelijk: een AI-tekstdetector moet een aanvullend hulpmiddel in een onderzoek zijn. Eén melding is geen bewijs voorbij redelijke twijfel.
In academische of professionele onderzoeken moet detectie secundair of tertiair bewijs zijn. Eén score alleen is niet genoeg.
Eerst een "consensus"-model (2023): 8 modellen die grote detectors nabootsten.
Sommige modellen verstoorden de consensus (5/8 = waarschijnlijk AI).
Onnauwkeurige modellen verwijderd met groeiende ML/R&D.
Nu één score, meerdere lagen; vermijdt verwarring met andere tools die bèta wisselen.
We wilden geen live-vervanger van andere detectors. "Zwarte doos" wordt "begrijpelijk" en "meetbaar".
Linguïstische entropie en perplexiteit als metriek.
LLM zijn voorspelbaar op tokenniveau; lagere perplexiteit.
Tools zoals onze humanizer kunnen detectors misleiden.
Detectors zijn feilbaar; nuttig maar geen orakel. We keuren beschuldigingen alleen op detectie af.
Beter een betrouwbare detector dan geen — gebruik en begrip tellen.
Humanisering en detectie hebben verschillende rollen. Het is duidelijk dat door AI gegenereerde tekst veel minder gevaarlijk is dan andere AI-inhoud.
We onderzoeken AI-fraude: preventie, detectie, echte risico's van beeld, video en audio.
We produceren of tolereren nooit ondetecteerbare deepfakes. Sinds 2024 ontwerpen we detectietools — focus TruthScan, zusterorganisatie voor beeld, audio en video.
Anders dan tekst bieden media meer analysegegevens. Onze teams kunnen het detectiedilemma oplossen.
Undetectable AI en TruthScan hebben eigen afdelingen; prioriteit is TruthScan helpen deepfake-schade te beperken.
Het TruthScan-project ontstond uit de wens mensen te helpen en echte problemen op te lossen. Elke betalende Undetectable-gebruiker financiert TruthScans strijd tegen schadelijke AI-deepfakes.
Ons doorlopende doel: groeien, leren en een betere wereld bouwen voor iedereen.