"Tworzenie treści generowanych przez AI bardziej przypominających człowieka"
"Tworzenie treści generowanych przez AI bardziej przypominających człowieka"
Traktujemy etykę AI poważnie. Na tej stronie wyjaśniamy, co reprezentujemy, jakie mamy zabezpieczenia i jakiego użytku naszego oprogramowania oczekujemy.
Bądźmy jasni: używanie naszych narzędzi do wyrządzania sobie lub innym krzywdy jest niewłaściwe. Nie akceptujemy nieetycznego wykorzystywania systemów AI. Ta strona wyjaśnia, co jest dozwolone, a co nie. Przede wszystkim zapoznaj się z naszymi Regulamin (zwłaszcza z sekcją „Zakazane użycie”).
Uruchomiliśmy Undetectable AI z ciągłym celem: pomagać ludziom tworzyć treści postrzegane jako autentyczne.
AI może być (i jest) używana do wyrównywania szans osobom w trudnej sytuacji.
Dziś mały przedsiębiorca bez budżetu na copywritera może skorzystać ze sztucznej inteligencji.
Problem w tym, że tekst z AI bywa słaby. Jeśli śledzisz rozwój dużych modeli językowych, wiesz, o co chodzi. Humanizacja sprawia, że tekst brzmi bardziej ludzko.
Właściciel małej firmy, który nie mógł konkurować? Teraz może.
Osoba, która nie pisze na klawiaturze i używa AI do komunikacji, nie jest już ograniczona do „brzmienia jak ChatGPT”.
To tylko kilka przykładów użycia, które dają nam nadzieję i czyste sumienie.
Nasz humanizer jest potężny. Widzieliśmy użycie etyczne i nieetyczne. Undetectable nie zastępuje pisarzy; pomaga tym, którzy pisarzy nie mają.
Tu szczegółowo określamy nasze stanowisko etyczne wobec wszystkich produktów — zwłaszcza kontrowersyjnych — oraz refleksje o regulacjach, zabezpieczeniach i ładzie korporacyjnym.
Nasz pierwszy flagowy produkt, humanizer AI, jest najpopularniejszy. Algorytm przepisuje tekst jak człowiek; zhumanizowany tekst rzadziej jest wykrywany jako generowany przez AI.
Użytkownicy chcą uniknąć sztywnego, robotycznego tonu. Są dobre i złe intencje. Jakie są etyczne i dozwolone zastosowania naszego humanizera? Kilka przykładów w tabeli poniżej:
Dopuszczalne użycie
Niedopuszczalne użycie
Każdy dopuszczalny przypadek humanizacji powinien mieścić się w „gdy pisanie z AI nie jest zabronione”. Humanizer ma poprawiać treść i komunikację — budować zaufanie, nie je zdradzać.
Mimo to są przypadki omijania wykrywania, które uznajemy za dopuszczalne.
Etyczne / Dozwolone
Nieetyczne / Niedozwolone
W pierwszym przykładzie nie było „rażącego naruszenia zaufania”. W drugim było, plus omijanie zasad „bez AI” — to błąd.
Mamy użytkowników, którzy muszą tworzyć treść niewykrywaną jako AI; AI jest dozwolone, ale jakość musi być ludzka.
Gdy ludzie wierzą, że treść jest z AI (nawet jeśli nie), mniej ufają.
Badanie Instytut Norymbergi ds. Decyzji Rynkowych (NIM) wykazało, że treść opisana jako stworzona przez AI była oceniana gorzej niż ta sama przedstawiona jako ludzka. Ludzie rzadziej klikali produkty w reklamach generowanych przez AI.
Są słowa i style kojarzone z AI — np. półpauza „—” lub słowa typu „delve”, „realm”.
To głębsza sprawa. Zidentyfikowaliśmy setki wzorców typowych dla tekstu z AI.
Ludzie też pokazują te wzorce. Wielu autorów woli „zhumanizować” niż całkowicie zmienić styl — by utrzymać zaufanie.
Jak podano w naszych Regulamin, nie zezwalamy, by osoby „podejmowały zautomatyzowane używanie systemu, np. skrypty do komentarzy lub wiadomości, data mining, roboty lub podobne narzędzia”.
Za spam zbanowaliśmy ponad 7000 użytkowników. Chatboty używają naszego API humanizacji, ale są oznaczone i nie udają ludzi.
Niezatwierdzone automatyzacje łatwo egzekwować. Przy AI agentowej (np. clawdbot) zerowa tolerancja, gdy boty podszywają się pod ludzi. Obserwujemy.
Nigdy nie akceptujemy oszustw. Moderacja bada rejestracje .edu.
Prywatność ma znaczenie; nie stawiamy zarzutów, gdy jest uzasadniona wątpliwość. Niektórzy studenci użyją AI do esejów. Jeśli jesteś studentem: całkowite oddanie myślenia AI szkodzi tobie.
Czasem słyszymy, że nasze oprogramowanie „ułatwia oszukiwanie". Oszukiwanie to objaw większego problemu. Oprogramowanie pomaga też etycznym użytkownikom w autentycznej komunikacji.
Że ktoś może nadużyć, nie anuluje pozytywnych zastosowań humanizera.
Jesteśmy otwarci na dialog ze środowiskiem akademickim i chcemy minimalizować szkody.
Są studenci używający humanizera nie do oszukiwania, lecz by chronić się przed fałszywymi oskarżeniami detekcji AI (fałszywe pozytywy). Więcej w sekcji detektora.
Wykrywamy treść zautomatyzowaną i boty oraz rejestracje .edu. Wewnętrzne punkty moderacji egzekwują zasady. Ograniczenia sprowadzają się do prywatności.
Prywatność ustępuje tylko przy bezpośrednim zagrożeniu bezpieczeństwa publicznego lub nakazie sądu USA. Nasze działania celują głównie w łamanie prawa lub bezpośrednią krzywdę fizyczną.
Ujawnianie jest wielowymiarowe; główny czynnik to wymóg (polityki wewnętrzne, regulacje, prawo, regulamin).
Nie wierzymy, że każdy ma moralny obowiązek ujawniać użycie AI.
Bez umowy o ładzie AI ani wymogu prawnego nie ma według nas moralnego obowiązku ujawniania.
Dla jasności: nadal trzymamy się standardu „rażących naruszeń zaufania.”
To nie jest rażące naruszenie zaufania
Ktoś tworzy artykuł z AI, weryfikuje fakty, edytuje, wnosi ekspertyzę i publikuje pod swoim nazwiskiem bez ujawnienia AI.
To jest rażące naruszenie zaufania
Ktoś prosi chatbota o artykuł o XYZ bez ekspertyzy, bez weryfikacji i publikuje jako ekspert.
W ujawnianiu użycia AI liczy się dla nas kontekst. Część użytkowników dobrowolnie ujawnia wszystkie narzędzia, inni nie. Kontekst i sposób użycia decydują o etyce.
Wspieramy polityki ładów AI; każda firma powinna je mieć. Bez wewnętrznych zasad użycia AI (ujawnianie, dozwolone/niedozwolone przypadki) jest ślepa plama.
Złe dane z narzędzi AI lub pracownicy udostępniający dane niezabezpieczonym systemom — przypisywanie skutków jest logiczne. Narzędzia są nowe; część użytkowników nie myśli o tym, co udostępnia.
Nasza zewnętrzna polityka (dozwolone i niedozwolone użycie narzędzia) jest zdefiniowana w naszych Regulamin. Wewnętrznie utrzymujemy ład AI we wszystkich działach.
Nasz drugi co do popularności produkt to detektor tekstu AI. Jak humanizer — są właściwe i niewłaściwe sposoby użycia.
Obecne wykrywanie tekstu nie wystarcza samo w sobie, by obiektywnie wykluczyć użycie AI w tekście z absolutną pewnością. Nowoczesne detektory (w tym nasz) analizują strukturę i składnię.
Procent AI to prawdopodobieństwo. Jak stylometria — punkt wyjścia dochodzenia, nie jedyne dowód oszustwa.
Te przykłady to ilustrują:
Mamy nadzieję, że te przykłady wyjaśniają: detektor tekstu AI musi być narzędziem pomocniczym w dochodzeniu. Pojedyncze oznaczenie nie jest dowodem poza uzasadnioną wątpliwością.
W dochodzeniach akademickich lub zawodowych detekcja powinna być dowodem wtórnym lub trzeciorzędnym. Sam wynik nie wystarczy.
Na początku model „konsensusowy” (2023): 8 modeli naśladujących duże detektory.
Niektóre modele zniekształcały konsensus (5/8 = prawdopodobnie AI).
Usunęliśmy niedokładne modele wraz z rozwojem ML/B+R.
Dziś jeden wynik złożony, wiele warstw; unika pomyłek z innymi narzędziami zmieniającymi betę.
Nie chcieliśmy na żywo zastępować innych detektorów. „Czarna skrzynka” staje się „zrozumiała” i „mierzalna”.
Entropia językowa i perplexity jako metryki.
LLM są przewidywalne na poziomie tokenów; niższa perplexity.
Narzędzia jak nasz humanizer mogą mylić detektory.
Detektory są omylne; przydatne, ale nie wszechwiedzą. Nie akceptujemy oskarżeń wyłącznie na podstawie detekcji.
Lepiej niezawodny detektor niż żaden — liczy się użycie i zrozumienie.
Humanizacja i detekcja mają różne role. Jest jasne, że tekst generowany przez AI jest znacznie mniej niebezpieczny niż inne formy treści AI.
Badamy oszustwa AI: zapobieganie, wykrywanie, realne ryzyko obrazu, wideo i audio.
Nigdy nie wyprodukujemy ani nie zaakceptujemy niewykrywalnych deepfake’ów. Od 2024 projektujemy narzędzia wykrywania — fokus TruthScan, organizacja siostrzana dla obrazu, audio i wideo.
W przeciwieństwie do tekstu media dają więcej danych do analizy. Nasze zespoły mogą rozwiązać dylemat wykrywania.
Undetectable AI i TruthScan mają oddziały; priorytetem jest pomoc TruthScan w ograniczaniu szkód deepfake’ów.
Projekt TruthScan powstał z pragnienia pomagania ludziom i rozwiązywania realnych problemów. Każdy płatny użytkownik Undetectable wspiera walkę TruthScan ze szkodliwymi deepfake’ami AI.
Nasz ciągły cel: rozwijać się, uczyć i pomagać budować lepszy świat dla wszystkich.