"جعل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أكثر شبهاً بالإنسان"
"جعل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أكثر شبهاً بالإنسان"
نأخذ أخلاقيات الذكاء الاصطناعي على محمل الجد. نوضح هنا بالضبط موقفنا، وحدود الحماية لدينا، والاستخدامات المقصودة لبرامجنا.
لنكن واضحين: استخدام أدواتنا لإلحاق الضرر بنفسك أو بالآخرين أمر خاطئ. لا نبرّر الاستخدام غير الأخلاقي لأي نظام ذكاء اصطناعي. لذلك تشرح هذه الصفحة ما المسموح وما غير المسموح. أولاً وقبل كل شيء، يجب أن تكون على دراية بـ شروط الخدمة (خاصةً قسم «الاستخدام المحظور»).
أطلقنا Undetectable AI بهدف مستمر: مساعدة الناس على إنشاء محتوى يبدو أصيلاً.
يمكن استخدام الذكاء الاصطناعي (ويُستخدم فعلاً) من قبل المحرومين لموازنة الفرص.
اليوم، يمكن لصاحب عمل صغير لا يستطيع تحمل تكلفة كاتب تسويق أن يستخدم الذكاء الاصطناعي لملء هذا الدور.
المشكلة أن كتابة الذكاء الاصطناعي غالباً ضعيفة. إذا كنت تتابع تطور نماذج اللغة الكبيرة، فتفهم قصدنا. أما التأنسين فيجعل الكتابة تبدو حقيقية.
صاحب العمل الصغير الذي لم يستطع المنافسة؟ أصبح بإمكانه ذلك الآن.
من لا يستطيع الكتابة ويستخدم الذكاء الاصطناعي للتواصل لم يعد مقيداً بأن «يبدو مثل ChatGPT».
هذه مجرد أمثلة قليلة من حالات الاستخدام التي رأيناها وتمنحنا أملاً وتبقي ضمائرنا نظيفة.
بلا شك، أداة التأنسين التي أنشأناها قوية. رأينا استخداماً أخلاقياً وغير أخلاقي. Undetectable ليست لاستبدال الكُتّاب، بل لمساعدة من لا كُتّاب لهم ليستبدلوهم.
نأمل هنا أن نعرّف موقفنا الأخلاقي بتفصيل لجميع منتجاتنا — خاصة الأكثر إثارة للجدل. كما ستجدون أفكارنا حول التنظيم وحدود الحماية والحوكمة.
منتجنا الرائد الأول، أداة تأنسين النصوص بالذكاء الاصطناعي، هو الأكثر شعبية. يعيد صياغة النص كما يكتبه إنسان. عند التأنسين يقل احتمال اعتبار النص مُنشأً آلياً.
يستخدم الناس أداتنا لأنهم لا يريدون أن يبدو محتواهم جامداً أو آلياً. طبعاً هناك نوايا حسنة وسيئة. فما الاستخدامات الأخلاقية والمسموحة لأداتنا بالضبط؟انظر الجدول أدناه لبعض الأمثلة:
استخدام مقبول
استخدام غير مقبول
يجب أن يدخل كل استخدام مقبول للتأنسين تحت «أي وقت لا يُحظر فيه استخدام الكتابة بالذكاء الاصطناعي». يجب استخدام أداتنا لتحسين المحتوى والتواصل؛ لبناء الثقة لا لخيانتها.
مع ذلك، هناك حالات لتجاوز الكشف نعتبرها مسموحة.
أخلاقي / مسموح
غير أخلاقي / غير مسموح
في المثال الأول لم يكن هناك «خروق جسيم للثقة». في الثاني لم يحدث خروق للثقة فحسب، بل تأنسين لمحتوى «للتحايل على سياسات عدم استخدام الذكاء الاصطناعي» — وهذا خطأ.
لدينا مستخدمون يجب أن يُنشئوا محتوى لا يُصنَّف كذكاء اصطناعي لأسباب مختلفة. يُقال لهم إنهم يمكنهم استخدام الذكاء الاصطناعي لكن المحتوى يجب أن يلبي معايير جودة بشرية.
المهم أن الناس عندما يعتقدون أن المحتوى مُنشأ بالذكاء الاصطناعي (حتى لو لم يكن كذلك) يثقون به أقل.
بحث من معهد نورنبرغ لقرارات السوق (NIM) وجد أن المحتوى الموصوف كصنع ذكاء اصطناعي أُدرك سلباً أكثر من المحتوى المطابق المقدَّم كمُنشأ بشري. كان الناس أقل ميلاً للنقر أو التفاعل مع منتجات في إعلانات مُنشأة بالذكاء الاصطناعي.
في النصوص هناك كلمات وأنماط كتابة يعتبرها الجمهور الآن دليلاً على صنع الذكاء الاصطناعي، مثل الشرطة الطويلة «—» وحتى كلمات مثل «تعمّق» أو «مملكة».
الأمر أعمق من ذلك. دون إطالة، حددنا مئات الأنماط المرتبطة بالكتابة الآلية.
المشكلة أن البشر يظهرون هذه الأنماط في كتابتهم أيضاً. وجد كثير من الكُتّاب أن «إزالة التأنسين» لهذه الأنماط أسهل من تغيير أسلوبهم بالكامل. دافعهم الأساسي الحفاظ على الثقة رغم تحيزات لغوية جديدة.
كما ورد في شروط الخدمة، لا نسمح لأي شخص بـ «المشاركة في أي استخدام آلي للنظام، مثل استخدام سكربتات لإرسال تعليقات أو رسائل، أو أي تعدين للبيانات أو روبوتات أو أدوات جمع واستخراج بيانات مماثلة».
حظرنا أكثر من 7000 مستخدم بسبب الإزعاج. أدوات الدردشة عبر المنصات تستخدم واجهة التأنسين لدينا لإرسال رسائل، لكنها مُعلَّمة كروبوتات دردشة ولا تنتحل هوية البشر.
الأتمتة غير المعتمدة والإساءة الآلية من أسهل الانتهاكات التي نحمي منها وننفّذ ضدها. وفي ضوء أنظمة الذكاء الاصطناعي الوكيلة (مثل clawdbot)، لدينا سياسة عدم تسامح مطلق مع الأنظمة الوكيلة أو الروبوتية التي تستخدم خدماتنا لتقديم نفسها كبشر حقيقيين. نحن نراقب.
لم نبرّر الغش ولن نبرّره أبداً. يحقق فريق الإشراف لدينا تسجيلات البريد .edu.
لكننا نأخذ الخصوصية الشخصية على محمل الجد. ولن نوجّه مثل هذه الاتهامات إن كان هناك احتمال أن نكون مخطئين. نعلم أن بعض الطلاب سيستخدمون الذكاء الاصطناعي لكتابة مقالاتهم. إذا كنت طالباً تقرأ هذا، فاعلم أنك تضر نفسك فقط عندما تفوّض عملية تفكيرك بالكامل للذكاء الاصطناعي.
نسمع أحياناً أن برمجياتنا «تسهّل الغش». لكن الغش عرض لأزمة أكبر. برمجياتنا تسهّل أيضاً للمستخدمين الأخلاقيين التواصل الأصيل.
أن فاعلاً سيئاً قد يحاول استخدام برمجياتنا للمساعدة في الغش الأكاديمي لا يلغي الاستخدامات الإيجابية لأداتنا.
نحن منفتحون دائماً على الحوار مع المجتمع الأكاديمي، وهدفنا المستمر تقليل الضرر قدر الإمكان.
هناك حالات اهتم فيها الطلاب بأداتنا ليس للغش بل للحماية من اتهامات خاطئة بسبب أنظمة كشف غير دقيقة (إيجابيات كاذبة). سنناقش ذلك أكثر في قسم الكاشف.
لدينا حدود لاكتشاف المحتوى الآلي والروبوتي وتسجيلات .edu. نستخدم نقاط تفتيش إشراف داخلية لضمان اتباع السياسات. تتلخص القيود في النهاية في الخصوصية.
لا تُهمَن الخصوصية إلا عندما تكون سلامة الجمهور معرّضة مباشرة لأذى جسدي، أو عندما نُلزَم قانوناً بأمر محكمة أمريكية بتسليم بيانات شخصية. يستهدف إنفاذنا بشكل أساسي مخالفة القانون أو الأذى الجسدي المباشر للجمهور.
نعتقد أن الإفصاح متعدد الأوجه. العامل الرئيسي هو الالتزام (سياسات الحوكمة الداخلية/اللوائح/القوانين/شروط الخدمة).
لا نعتقد أن على الجميع إفصاحاً أخلاقياً عن استخدامهم للذكاء الاصطناعي.
نعتقد أن من لا يلتزم باتفاق حوكمة ذكاء اصطناعي ولا يُطلب منه قانوناً الإفصاح ليس عليه التزام أخلاقي بالإفصاح.
للتوضيح، ما زلنا نلتزم بمعيار «الخروق الجسيمة للثقة."
هذا ليس خروقاً جسيماً للثقة
شخص يُعد مقالاً بالذكاء الاصطناعي، يراجعه، يتحقق من الحقائق، يحرره، يضيف خبرته، وينشره باسمه دون الإفصاح عن استخدام الذكاء الاصطناعي.
هذا خروق جسيم للثقة
يذهب إلى دردشة ويقول «أنشئ لي مقالاً عن كذا». ليس خبيراً في الموضوع، لا يحرر ولا يتحقق من المخرجات، ثم ينشر ويدّعي الخبرة وكأنه كتبه بنفسه.
إذن، بخصوص الإفصاح عن استخدام الذكاء الاصطناعي: السياق هو ما يهمنا. لدينا مستخدمون يشعرون رغم عدم الالتزام أن الإفصاح عن كل الأدوات (بما فيها الذكاء الاصطناعي) مناسب لهم، وآخرون لا. في النهاية السياق وطريقة الاستخدام تحددان الأخلاقية.
ندعم سياسات حوكمة الذكاء الاصطناعي ونعتقد أنه ينبغي أن تتوفر لدى كل شركة. ببساطة، إن لم تكن لديكم سياسات داخلية توضح وتنظم استخدام الذكاء الاصطناعي (متى يجب الإفصاح، الحالات المقبولة وغير المقبولة، إلخ)، فهناك نقطة عمياء في مؤسستكم.
ربما تأتي بيانات سيئة من أدوات الذكاء الاصطناعي، أو يفشي موظفون معلومات سرية لأنظمة لا تحميها. في كل الأحوال، من المنطقي تتبع الآثار الإيجابية والسلبية لاستخدام أي أداة. نحن في طفرة؛ الأدوات جديدة ويستخدمها البعض دون أن يفكروا في البيانات التي يحصلون عليها أو ما يشاركونه.
سياسة الحوكمة الخارجية لدينا (لكيفية استخدام أداتنا وعدم استخدامها) مُعرَّفة في شروط الخدمة. داخلياً نحافظ على سياسات حوكمة الذكاء الاصطناعي في جميع الأقسام.
أداتنا الثانية من حيث الشعبية هي كاشف النصوص. كأداة التأنسين، هناك طرق صحيحة وخاطئة للاستخدام.
أولاً، كشف النص بالذكاء الاصطناعي بحالته الحالية لا يكفي لاستبعاد استخدام الذكاء الاصطناعي (بيقين مطلق) في نص. الكواشف الحديثة (بما فيها لدينا) تحلل البنية والصرف.
النسبة المئوية للذكاء الاصطناعي احتمال أو درجة. كالتحليل الأسلوبي في التحقيقات، يجب اعتبارها «نقطة انطلاق» للتحقيق. لذلك لا يكفي رصد واحد وحده لاستبعاد الغش أو الخداع.
توضح هذه الأمثلة:
نأمل أن توضح هذه الأمثلة شيئاً واحداً: عند استخدام كاشف نصوص بالذكاء الاصطناعي يجب أن يكون أداة مساعدة في التحقيق. حتى الآن لا يمكن لرصد واحد أن يكون دليل إدانة بلا شك معقول.
في تحقيقات أكاديمية أو مهنية يجب أن يكون الكشف دليلاً ثانوياً أو ثالثاً يدعم استنتاجاً بالخطأ. الدرجة وحدها لا تكفي.
في البداية أطلقنا نموذج كشف «إجماعي». كان عام 2023؛ الكواشف جديدة واعتُبرت «صناديق سوداء» — لا منهجية موحدة. أنشأنا 8 نماذج تحاكي الكواشف الكبرى. عند التحليل أظهرنا درجة كل نموذج.
اكتشفنا أن بعض النماذج تشوّه النتيجة الإجمالية. في البداية إذا رفع 5 من 8 الأعلام، يُستنتج أن النص غالباً بالذكاء الاصطناعي.
مع توسيع قسم التعلم الآلي والبحث أزلنا النماذج غير الدقيقة.
اليوم يظهر كاشفنا درجة واحدة لكنه ما زال يعتمد طبقات عدة. غيّرنا ذلك أيضاً لأن الناس ظنوا أن درجاتنا المقلّدة لأدوات أخرى ستطابق نتائجها، بينما بعض الأدوات تبدّل نماذج تجريبية وتعرض نتائج مختلفة.
لم نرد أن يُستخدم كاشفنا كإسناد مباشر لأدوات أخرى. رغم أننا لا نسمّي علناً، حددنا أي النماذج علمية، وحالة «الصندوق الأسود» تتحول تدريجياً إلى علم «مفهوم وقابل للقياس».
أحد الجوانب الرئيسية هو الإنتروبيا اللغوية: مدى تقلب النص. حيث تقيس الإنتروبيا عدم اليقين نستخدم الارتباك كمعيار.
لأن نماذج اللغة الكبيرة تتنبأ على مستوى الرموز، غالباً تنتج ارتباكاً أقل. قد يختلف ذلك لكن الأنماط غالباً متوقعة.
مع وجود أدوات مثل أداة التأنسين التي تحاكي الكتابة البشرية، يمكن أن يخطئ الكواشف.
كواشف النصوص بالذكاء الاصطناعي أدوات قابلة للخطأ. مفيدة لكنها ليست عرافة تعلم كل شيء. لا نبرّر الاكتفاء بالكشف لاتهام أحد بالخطأ.
بكل الأحوال، استخدام كاشف موثوق أفضل من عدم الاستخدام. المهم ليس الأداة فقط بل كيف تُستخدم وتُفهم.
للتأنسين والكشف أدوار مختلفة. خلال العامين الماضيين اتضح أن تهديد النص المُنشأ بالذكاء الاصطناعي أقل خطورة بكثير من أشكال أخرى من محتوى الذكاء الاصطناعي.
نبحث بعمق في احتيال الذكاء الاصطناعي: الوقاية، التعرف، ومدى خطورة الصور والفيديو والصوت المُنشأة آلياً.
لن ننتج ولن نبرّر أبداً تزييفاً عميقاً لا يُكشف. منذ 2024 نستخدم البيانات المجمّعة لسنوات لتصميم أدوات كشف التزييف العميق. هذا تركيزنا الحالي مع مشروع TruthScan. TruthScan منظمتنا الشقيقة لبحث وتطوير برمجيات تكشف صوراً وفيديو وصوتاً مزيّفاً عميقاً.
على عكس النص، تحتوي الصور والفيديو والصوت على بيانات أكثر للتحليل. نثق بقدرة فرقنا التي أنشأت أداة الخصومة الرائدة على حل معضلة الكشف.
لكل من Undetectable AI وTruthScan أقسام مخصصة. لكن أولويتنا العامة مساعدة TruthScan على إيقاف أضرار التزييف العميق.
TruthScan وُلد من رغبتنا في مساعدة الناس وحل مشاكل حقيقية. كل مستخدم يدفع اشتراك Undetectable AI يساهم في تمويل TruthScan لمحاربة التزييف العميق الضار المُنشأ بالذكاء الاصطناعي.
هدفنا المستمر هو النمو والتعلم ومساعدة العالم على أن يكون أفضل للجميع.