"AI tarafından oluşturulan içeriği daha insansı hale getirmek"
"AI tarafından oluşturulan içeriği daha insansı hale getirmek"
Yapay zekâ etiğini ciddiye alıyoruz. Bu sayfada nerede durduğumuzu, güvenlik sınırlarımızı ve yazılımlarımızın amaçlanan kullanımını açıkça anlatıyoruz.
Açık konuşalım. Araçlarımızı kendinize veya başkalarına zarar vermek için kullanmak yanlıştır. Herhangi bir yapay zekâ sisteminin etik dışı kullanımını onaylamıyoruz. Bu nedenle bu sayfada neyin uygun olduğunu ve neyin olmadığını açıklıyoruz. Her şeyden önce, Hizmet Şartları (özellikle "Yasaklanmış Kullanım" bölümüne) aşina olmalısınız.
Undetectable AI'yi sürekli bir hedefle başlattık: insanlara otantik hissedilen içerik üretmelerinde yardımcı olmak.
Yapay zekâ, dezavantajlı kişilerin fırsatları dengelemesi için kullanılabilir (ve kullanılmaktadır).
Bugün, pazarlama metin yazarı ücretini karşılayamayan küçük bir işletme sahibi, o rolü yapay zekâ ile doldurmak için ondan yararlanabilir.
Sorun şu ki, yapay zekâ çıktıları bazen zayıf kalıyor. Büyük dil modellerini takip ettiysanız ne demek istediğimizi bilirsiniz. İnsanileştirme ise yapay metnin daha gerçek hissettirmesini sağlar.
Rekabet edemeyen küçük işletme sahibi? Artık edebilir.
Yazmakta zorlanıp iletişimde yardım için yapay zekâ kullanan kişi artık yalnızca “ChatGPT gibi” görünmekle sınırlı değildir.
Bunlar, umudumuzu artıran ve vicdanımızı temiz tutan kullanım örneklerinden yalnızca birkaçı.
Oluşturduğumuz insanileştiricinin güçlü olduğu şüphesiz. Etik ve etik olmayan kullanımlarını da gördük. Undetectable, yazarların yerini almak için değil; yazarı olmayanların yanında olmak için bir araçtır.
Burada, özellikle tartışmalı ürünlerimiz de dahil tüm ürünlerimizde duruşumuzu ayrıntılı biçimde tanımlamayı umuyoruz. Ayrıca düzenleme, güvenlik sınırları ve yönetişim üzerine düşüncelerimizi bulacaksınız.
İlk amiral gemimiz ürün olan yapay zekâ insanileştiricimiz en popüler aracımızdır. Bir metni insanın yazacağı gibi yeniden yazmak için bir algoritma kullanır. Metin insanileştirildiğinde yapay zekâ üretimi olarak algılanma olasılığı azalır.
İnsanileştiriciyi kullananlar içeriğinin katı veya robotik görünmesini istemez. Elbette iyi ve kötü niyetli kullanıcılar vardır. Peki insanileştiricimizin etik ve izin verilen kullanımları tam olarak nelerdir? Birkaç örnek için aşağıdaki tabloya bakın:
Kabul edilebilir kullanım
Kabul edilemez kullanım
Kabul edilebilir her insanileştirme kullanımı “yapay zekâ yazımı yasaklanmadığı sürece” çerçevesine uymalıdır. İnsanileştiricimiz içeriği ve iletişimi geliştirmek; güveni artırmak için kullanılmalıdır, güveni ihanet etmek için değil.
Buna karşın, algılamayı aşmaya yönelik bazı kullanım senaryolarını biz izin verilebilir görüyoruz.
Etik / İzin verilen
Etik dışı / İzin verilmeyen
İlk örnekte “güvenin ciddi ihlali” yoktu. İkincisinde yalnızca böyle bir ihlal olmakla kalmadı; kişi ayrıca “yapay zekâ kullanılmaz” politikalarını aşmak için içeriği insanileştiriyordu — bu yanlıştır.
Çeşitli nedenlerle yapay zekâ üretimi olarak işaretlenmeyen içerik üretmesi gereken kullanıcılarımız var. Yapay zekâ kullanabilecekleri ancak içeriğin insan kalitesinde olması gerektiği söyleniyor.
Önemli olan şu: İnsanlar bir içeriğin yapay zekâ üretimi olduğuna inandığında (olmasa bile) ona daha az güvenir.
Nuremberg Pazar Kararları Enstitüsü (NIM) araştırması şunu gösterdi: yapay zekâ ile yapıldığı belirtilen içerik, özdeş metin insan yapımı olarak sunulduğunda olduğundan daha olumsuz algılandı. İnsanlar yapay zekâ üretimi reklamlarda sunulan ürünlere tıklamaya veya etkileşime girmeye daha az meyilliydi.
Metinlerde kamuoyunun artık yapay zekâ işareti saydığı sözcük ve üsluplar var. Örneğin uzun tire “—” veya “derinlemesine”, “diyar” gibi kelimeler.
Daha derine iniyor. Açıklamayı uzatmadan, yapay zekâ yazımına işaret eden yüzlerce örüntü belirledik.
İnsanlar da yazılarında bu örüntüleri gösteriyor. Birçok yazar üslubunu baştan değiştirmek yerine bu örüntüleri “insanileştirerek” çıkarmayı kolay buldu. Ana motivasyonları, ortaya çıkan dil önyargılarına rağmen güveni korumaktır.
Hizmet Şartları belgesinde belirtildiği üzere, izin vermiyoruz kişilerin “yorum veya mesaj göndermek için betik kullanmak veya herhangi bir veri madenciliği, robot veya benzeri veri toplama ve çıkarma araçları kullanmak gibi sistemin otomatik kullanımına girişmesine.”
Spam nedeniyle 7.000’den fazla kullanıcıyı yasakladık. Çeşitli platformlardaki sohbet botları mesaj göndermek için insanileştirme API’mizi kullanır; ancak sohbet botu olarak etiketlenir ve insan taklidi yapmaz.
Onaysız otomasyonlar ve otomatik kötüye kullanım, korunması ve uygulanması bizim için en kolay ihlaller arasındadır. Ajanik yapay zekâ sistemleri (ör. clawdbot) ışığında, hizmetlerimizi gerçek insan gibi göstermek için kullanan ajanik veya bot sistemlerine karşı mutlak sıfır tolerans politikamız vardır. İzliyoruz.
Kopya çekmeyi hiç onaylamadık ve onaylamayacağız. Moderasyon ekibimiz .edu e-posta kayıtlarını inceliyor.
Kişisel gizliliği ciddiye alıyoruz. Ayrıca yanılabileceğimiz bir ihtimal varsa bu tür suçlamalarda bulunmayız. Bazı öğrencilerin ödevlerini yapay zekâ ile yazacağını biliyoruz. Bunu okuyan bir öğrenciyseniz, düşünce sürecinizi tamamen dışarıya devrederek yalnızca kendinize zarar verdiğinizi bilin.
Yazılımımızın “kopya çekmeyi kolaylaştırdığı” iddiasını bazen duyuyoruz. Sorun şu ki, kopya çekme daha büyük bir sorunun belirtisidir. Yazılımımız aynı zamanda etik kullanıcıların otantik iletişim kurmasını kolaylaştırır.
Kötü niyetli birinin akademik kopyaya yardım için yazılımımızı kullanmayı denemesi, insanileştiricimizin olumlu kullanımlarını geçersiz kılmaz.
Akademiyle diyaloğa her zaman açığız ve zararı mümkün olduğunca azaltmak süregelen hedeflerimizdendir.
Öğrencilerin kopya çekmek değil, hatalı yapay zekâ algılama sistemlerinden (yanlış pozitif) kaynaklanan haksız suçlamalardan korunmak için insanileştiricimize ilgi duyduğu örnekler vardır. Bunu algılayıcı bölümünde daha ayrıntılı ele alacağız.
Otomatik ve bot içeriğini ve .edu e-postalı kayıtları tespit etmek için sınırlarımız var. Politikalara uyumu sağlamak için iç moderasyon kontrolleri kullanıyoruz. Sınırlamalar özünde gizliliğe indirgenir.
Gizliliğin ikinci planda kaldığı tek durumlar, kamu güvenliğinin doğrudan fiziksel zarar riski altında olduğu veya ABD mahkeme kararıyla kişisel verileri teslim etmekle yükümlü olduğumuz hallerdir. Uygulamamız esas olarak yasa dışı davranış veya kamuya doğrudan fiziksel zararı hedefler.
Yapay zekâ açıklamasının çok yönlü olduğunu düşünüyoruz. Ana faktör zorunluluktur (ör. iç yönetişim politikaları, düzenlemeler, yasalar, HŞ).
Herkesin yapay zekâ kullanımını ahlaken açıklamak zorunda olduğuna inanmıyoruz.
Yapay zekâ yönetişim anlaşmasına bağlı olmayan veya yasal olarak açıklamaya zorlanmayan kimselerin bunu ahlaken yapmak zorunda olmadığını düşünüyoruz.
Netleştirmek gerekirse, hâlâ şu ahlaki ölçüte bağlıyız: "güvenin ciddi ihlali."
Bu, güvenin ciddi ihlali değildir
Birisi yapay zekâ ile makale hazırlıyor. İnceliyor, doğruluyor, düzenliyor, düşüncesini ve uzmanlığını katıyor ve kendi adına yayımlıyor; yapay zekâ kullandığını açıklamıyor.
Bu, güvenin ciddi ihlalidir
Birisi sohbet botuna gidiyor. “Bana XYZ hakkında makale üret” diyor. XYZ konusunda uzman değil. Çıktıyı düzenlemiyor veya doğrulamıyor. Yayınlayıp uzmanmış gibi kendisinin yazdığını ima ediyor.
Yapay zekâ kullanımının açıklanması konusunda bizim için bağlam önemlidir. Zorunlu olmasa da kullandığı tüm araçları (yapay zekâ dahil) açıklamanın doğru olduğunu düşünen kullanıcılarımız var; düşünmeyenler de. Sonuçta kullanımın etik olup olmadığını bağlam ve araçların kullanım şekli belirler.
Yapay zekâ yönetişim politikalarını destekliyoruz ve her şirkette bulunması gerektiğine inanıyoruz. Kısacası, yapay zekânın nasıl kullanılacağını (ör. ne zaman açıklanacağı, kabul edilebilir ve edilemez durumlar) netleştiren iç politikalarınız yoksa organizasyonunuzda kör nokta vardır.
Yapay zekâ araçlarından kötü veri geliyor veya çalışanlarınız veriyi korumayan sistemlere gizli bilgi açıyor olabilir. Her durumda, bir aracın olumlu ve olumsuz etkilerini izlemek mantıklıdır. Şu an bir patlama dönemindeyiz; araçlar yeni ve bazı kullanıcılar ne aldıkları veya ne paylaştıklarını düşünmeden ilerliyor.
Aracımızın nasıl kullanılıp kullanılamayacağına dair dış yönetişim politikamız Hizmet Şartları ile tanımlanır. İçeride tüm departmanlarda yapay zekâ yönetişim politikaları sürdürüyoruz.
İkinci en popüler aracımız yapay zekâ metin algılayıcımızdır. İnsanileştiricide olduğu gibi doğru ve yanlış kullanım şekilleri vardır.
Öncelikle, bugünkü hâliyle yapay zekâ metin algılama, bir metinde yapay zekânın kullanımını (mutlak kesinlikle) nesnel biçimde dışlamak için tek başına YETERLİ değildir. Modern algılayıcılar (bizimki dahil) yazılı içeriğin yapısını ve sözdizimini inceler.
Metne atanan yapay zekâ yüzdesi, üretimin olasılığını gösteren bir skordur. Soruşturmalarda stilometrik analize benzer şekilde bu skor bir soruşturmanın “başlangıç noktası” olarak görülmelidir. Bu nedenle tek bir algılama skoru tek başına hile veya aldatmayı dışlamaya yetmez.
Bu örnekler şunu gösterir:
Umarız bu örnekler şunu netleştirir: yapay zekâ metin algılayıcı kullanırken bu araç bir soruşturmaya yardımcı araç olmalıdır. Şu an için tek bir uyarı, makul şüphenin ötesinde suç kanıtı sayılamaz.
Akademik veya profesyonel soruşturmalarda metin algılama, yanlışlık iddiasını destekleyen ikincil veya üçüncül kanıt olmalıdır. Tek başına bir skor yeterli değildir.
Başta “fikir birliğine dayalı” bir algılama modeli yayınladık. 2023’tü; algılayıcılar yeniydi ve “kara kutu” araçlar sayılıyordu — birleşik bir metodoloji yoktu. Dönemin büyük algılayıcılarını taklit eden 8 model oluşturduk. Kullanıcı metin analiz ettiğinde her modelin skorunu gösteriyorduk.
Bazı modellerin genel sonucu çarpıttığını gördük. Başlangıçta 8 modelden 5’i yapay zekâ dediğinde fikir birliği “muhtemelen öyle” sonucuna varıyordu.
Makine öğrenmesi ve araştırma ekibimizi büyüttükçe hatalı modelleri kaldırdık.
Bugün algılayıcımız tek skor gösteriyor; yine de birkaç algılama katmanına dayanıyor. Bunu değiştirmemizin bir nedeni de insanların bizim modellediğimiz skorların diğer araçlarla aynı sonucu vereceğini sanmasıydı. Oysa bazı araçlar beta modeller arasında geçiş yapıp farklı sonuçlar gösterebiliyordu.
İnsanların algılayıcımızı diğer araçların canlı vekili gibi kullanmasını istemedik. Kamuya ad açamasak da hangi modellerin bilimsel olduğunu belirledik; metin algılamanın “kara kutu” durumu yavaş yavaş “anlaşılır” ve “ölçülebilir” bilime kaydı.
Algılayıcımızın baktığı ana unsurlardan biri dilsel entropidir: metnin ne kadar öngörülemez veya değişken olduğu. Entropinin belirsizliği ölçtüğü yerde değerlendirme ölçütü olarak perplexity kullanıyoruz.
Büyük dil modelleri belirteç düzeyinde öngörülebilirlikle çalıştığından genelde daha düşük perplexity üretir. Bu değişebilir ama genel olarak öngörülebilir bir örüntü izlerler.
İnsanileştirici gibi insan yazısını taklit etmek için tasarlanmış araçların varlığı, metin algılayıcılarının yanılabileceği anlamına gelir.
Yapay zekâ metin algılayıcıları yanılabilir araçlardır. Bulundurmak faydalıdır ama her şeyi bilen bir kehanet değildir. Yalnızca metin algılamaya dayanarak birini suçlamayı onaylamıyoruz.
Güvenilir bir yapay zekâ metin algılayıcı kullanmak hiç kullanmamaktan iyidir. Önemli olan yalnızca araç değil, nasıl kullanıldığı ve anlaşıldığıdır.
İnsanileştirme ve metin algılamanın her birinin ayrı rolü vardır. Son iki yılda şu netleşti: yapay zekâ ile üretilmiş metin tehdidi, diğer içerik türlerine kıyasla çok daha az tehlikelidir.
Yapay zekâ dolandırıcılığını geniş çapta inceliyoruz: nasıl önlenir, nasıl tespit edilir ve yapay zekâ ile üretilmiş görüntü, video ve ses ne kadar risklidir.
Asla üretmeyeceğimiz veya onaylamayacağımız şey, tespit edilemez derin sahteciliktir. 2024’ten beri yıllar içinde topladığımız verilerle derin sahte tespit araçları tasarlıyoruz. Bu, TruthScan projesindeki odak noktamız. TruthScan, derin sahte görüntü, ses ve videoları tespit eden yazılım araştıran ve geliştiren kardeş kuruluşumuzdur.
Metinden farklı olarak görüntü, video ve ses dosyalarında analiz edilecek daha çok veri vardır. Önde gelen adversaryal yapay zekâ aracını yaratan ekiplerimizin derin sahte tespit ikilemini çözebileceğine inanıyoruz.
Hem Undetectable AI hem TruthScan’in her biri için ayrı departmanları vardır. Ancak genel odak ve önceliğimiz TruthScan’in derin sahte zararını durdurmasına yardım etmektir.
TruthScan projesi, insanlara yardım etme ve gerçek sorunları çözme arzumuzdan doğdu. Undetectable AI aboneliği ödeyen her kullanıcı, zararlı yapay zekâ derin sahtelerine karşı TruthScan mücadelesini desteklemeye katkıda bulunur.
Sürekli hedefimiz büyümek, öğrenmek ve hepimiz için daha iyi bir dünya inşa etmeye yardım etmektir.