"Membuat konten yang dihasilkan AI lebih mirip manusia"
"Membuat konten yang dihasilkan AI lebih mirip manusia"
Kami menanggapi etika AI dengan serius. Di halaman ini kami menjelaskan dengan jelas apa yang kami pegang, pengaman yang kami terapkan, dan penggunaan yang dimaksudkan untuk perangkat lunak kami.
Jelas: menggunakan alat kami untuk menyakiti diri sendiri atau orang lain adalah salah. Kami tidak menyetujui penggunaan tidak etis sistem AI apa pun. Halaman ini menjelaskan apa yang boleh dan tidak. Pertama-tama, bacalah Ketentuan layanan (terutama bagian "Penggunaan yang dilarang").
Kami meluncurkan Undetectable AI dengan tujuan berkelanjutan: membantu orang membuat konten yang terasa autentik.
AI dapat (dan memang) digunakan untuk menyamakan peluang bagi mereka yang kurang beruntung.
Hari ini, pemilik usaha kecil tanpa anggaran untuk copywriter pemasaran dapat memakai kecerdasan buatan untuk peran itu.
Masalahnya, tulisan AI sering lemah. Jika Anda mengikuti model bahasa besar, Anda mengerti. Humanisasi membuat teks lebih hidup.
Pemilik usaha kecil yang tidak bisa bersaing? Sekarang bisa.
Orang yang tidak bisa mengetik dan memakai AI untuk berkomunikasi tidak lagi terbatas "terdengar seperti ChatGPT".
Ini hanya beberapa contoh penggunaan yang memberi kami harapan dan hati nurani yang tenang.
Humanizer kami kuat. Kami melihat penggunaan etis dan tidak etis. Undetectable tidak mengganti penulis; ia membantu mereka yang tidak punya penulis.
Di sini kami mendefinisikan sikap etis kami terhadap semua produk — terutama yang kontroversial — serta pemikiran tentang regulasi, pengaman, dan tata kelola.
Produk unggulan pertama kami, humanizer AI, adalah yang paling populer. Algoritme menulis ulang teks seperti manusia; teks yang dihumanisasi jarang terdeteksi sebagai buatan AI.
Pengguna tidak ingin konten terasa kaku atau robotik. Ada niat baik dan buruk. Apa saja penggunaan etis dan diizinkan dari humanizer kami? Beberapa contoh di tabel di bawah:
Penggunaan yang dapat diterima
Penggunaan yang tidak dapat diterima
Setiap penggunaan humanisasi yang dapat diterima harus masuk dalam "setiap kali penulisan AI tidak dilarang". Humanizer harus memperbaiki konten dan komunikasi — membangun kepercayaan, bukan mengkhianatinya.
Meskipun demikian, ada kasus mengelak deteksi yang kami anggap diizinkan.
Etis / Diizinkan
Tidak etis / Tidak diizinkan
Pada contoh pertama tidak ada "pelanggaran kepercayaan yang berat". Pada yang kedua ada, ditambah mengelak kebijakan "tanpa AI" — itu salah.
Kami punya pengguna yang harus membuat konten yang tidak ditandai sebagai AI; AI diizinkan tetapi kualitas harus manusia.
Ketika orang percaya konten dibuat AI (meski tidak), mereka lebih sedikit percaya.
Penelitian dari Institut Nürnberg untuk Keputusan Pasar (NIM) menunjukkan bahwa konten yang digambarkan sebagai buatan AI dinilai lebih negatif daripada konten yang sama disajikan sebagai buatan manusia. Orang lebih jarang mengklik produk di iklan yang dihasilkan AI.
Ada kata dan gaya yang diasosiasikan dengan AI — misalnya tanda hubung panjang "—" atau kata seperti "delve" atau "realm".
Ini lebih dalam. Kami mengidentifikasi ratusan pola khas teks AI.
Manusia juga menunjukkan pola ini. Banyak penulis lebih mudah "humanisasi" daripada mengubah seluruh gaya — untuk menjaga kepercayaan.
Sebagaimana dinyatakan dalam Ketentuan layanan, kami tidak mengizinkan orang untuk "terlibat dalam penggunaan otomatis sistem, seperti skrip untuk komentar atau pesan, penambangan data, robot, atau alat serupa".
Kami telah melarang lebih dari 7.000 pengguna karena spam. Alat chatbot memakai API humanisasi kami tetapi dilabeli dan tidak berpura-pura menjadi manusia.
Otomatisasi yang tidak disetujui mudah ditindak. Dengan AI agentik (mis. clawdbot), nol toleransi jika bot berpura-pura menjadi manusia sungguhan. Kami mengawasi.
Kami tidak pernah mentolerir menyontek. Tim moderasi menyelidiki pendaftaran .edu.
Privasi penting; kami tidak menuduh jika ada keraguan yang wajar. Beberapa mahasiswa akan memakai AI untuk esai. Jika Anda mahasiswa: mengalihkan seluruh berpikir ke AI merugikan Anda.
Kadang kami mendengar perangkat lunak kami "memudahkan menyontek". Menyontek adalah gejala masalah lebih besar. Perangkat lunak kami juga membantu pengguna etis berkomunikasi secara autentik.
Bahwa seseorang mungkin menyalahgunakan tidak membatalkan penggunaan positif humanizer.
Kami terbuka untuk dialog dengan dunia akademis dan ingin meminimalkan kerugian.
Ada mahasiswa yang memakai humanizer bukan untuk menyontek tetapi untuk melindungi diri dari tuduhan deteksi AI yang salah (positif palsu). Lebih lanjut di bagian detektor.
Kami mendeteksi konten otomatis dan bot serta pendaftaran .edu. Titik moderasi internal menerapkan kebijakan. Batasan pada intinya tentang privasi.
Privasi hanya mundur jika keselamatan publik terancam langsung atau perintah pengadilan AS meminta data. Penegakan kami terutama menargetkan pelanggaran hukum atau bahaya fisik langsung.
Pengungkapan bersifat banyak faktor; faktor utama adalah kewajiban (kebijakan internal, peraturan, hukum, TOS).
Kami tidak percaya semua orang wajib secara moral mengungkapkan penggunaan AI.
Tanpa perjanjian tata kelola AI atau kewajiban hukum, menurut kami tidak ada kewajiban moral untuk mengungkapkan.
Untuk kejelasan, kami tetap pada standar moral "pelanggaran kepercayaan yang berat."
Ini bukan pelanggaran kepercayaan yang berat
Seseorang menyusun artikel dengan AI, memverifikasi fakta, mengedit, menambahkan keahlian, dan menerbitkan atas namanya tanpa mengungkapkan AI.
Ini pelanggaran kepercayaan yang berat
Seseorang meminta chatbot artikel tentang XYZ tanpa keahlian, tanpa verifikasi, dan menerbitkan seolah ahli.
Untuk pengungkapan penggunaan AI, konteks penting bagi kami. Ada pengguna yang secara sukarela mengungkapkan semua alat, ada yang tidak. Konteks dan cara penggunaan menentukan etika.
Kami mendukung kebijakan tata kelola AI; setiap perusahaan seharusnya memilikinya. Tanpa kebijakan internal tentang penggunaan AI (pengungkapan, kasus yang diizinkan/dilarang) ada titik buta.
Data buruk dari alat AI atau karyawan yang membocorkan ke sistem tidak aman — mengaitkan efek positif dan negatif masuk akal. Alat baru; beberapa tidak memikirkan apa yang mereka bagikan.
Kebijakan eksternal kami (penggunaan alat yang diizinkan/dilarang) didefinisikan dalam Ketentuan layanan. Secara internal kami memelihara tata kelola AI di semua departemen.
Alat kedua paling populer kami adalah detektor teks AI. Seperti humanizer, ada cara benar dan salah.
Deteksi teks saat ini tidak cukup sendiri untuk secara objektif menyingkirkan penggunaan AI dalam teks dengan kepastian mutlak. Detektor modern (termasuk milik kami) menganalisis struktur dan sintaksis.
Persentase AI adalah probabilitas. Seperti stilometri, itu titik awal penyelidikan — bukan satu-satunya bukti kecurangan.
Contoh ini menggambarkan:
Semoga contoh ini memperjelas: detektor teks AI harus menjadi alat pelengkap dalam penyelidikan. Satu penandaan bukan bukti di luar keraguan yang wajar.
Dalam penyelidikan akademis atau profesional, deteksi harus menjadi bukti sekunder atau tersier. Satu skor saja tidak cukup.
Awalnya model "konsensus" (2023): 8 model yang meniru detektor besar.
Beberapa model memiringkan konsensus (5/8 = mungkin AI).
Kami menghapus model tidak akurat dengan ML/R&D yang berkembang.
Sekarang satu skor agregat, beberapa lapisan; menghindari kebingungan dengan alat lain yang mengganti beta.
Kami tidak ingin pengganti langsung detektor lain. "Kotak hitam" menjadi "dapat dipahami" dan "terkuantifikasi".
Entropi linguistik dan perplexity sebagai metrik.
LLM dapat diprediksi di tingkat token; perplexity lebih rendah.
Alat seperti humanizer kami dapat menipu detektor.
Detektor dapat salah; berguna tetapi bukan orakel. Kami tidak menyetujui tuduhan hanya berdasarkan deteksi.
Lebih baik detektor andal daripada tidak ada — penggunaan dan pemahaman penting.
Humanisasi dan deteksi memiliki peran berbeda. Jelas bahwa ancaman teks yang dihasilkan AI jauh lebih kecil daripada modalitas konten AI lainnya.
Kami meneliti penipuan AI: pencegahan, identifikasi, risiko nyata gambar, video, dan audio.
Kami tidak akan pernah memproduksi atau mentolerir deepfake yang tidak terdeteksi. Sejak 2024 kami merancang alat deteksi — fokus TruthScan, organisasi saudara untuk gambar, audio, dan video.
Tidak seperti teks, media menawarkan lebih banyak data untuk dianalisis. Tim kami dapat menyelesaikan dilema deteksi.
Undetectable AI dan TruthScan masing-masing punya departemen; prioritas adalah membantu TruthScan membatasi kerugian deepfake.
Proyek TruthScan lahir dari keinginan membantu orang dan menyelesaikan masalah nyata. Setiap pengguna berbayar Undetectable membantu membiayai perjuangan TruthScan melawan deepfake AI berbahaya.
Tujuan berkelanjutan kami: tumbuh, belajar, dan membantu membangun dunia yang lebih baik untuk semua.