"AI生成コンテンツをより人間らしくする"
"AI生成コンテンツをより人間らしくする"
私たちはAI倫理を真剣に受け止めています。このページでは、私たちの立場、ガードレール、ソフトウェアの想定される利用方法を明確に示します。
明確に言います。私たちのツールを使って自分や他人に害を与えることは誤りです。いかなるAIシステムの非倫理的な利用も容認しません。このページでは何が許され、何が許されないかを説明します。まず 利用規約 をお読みください(特に「禁止される利用」セクション)。
Undetectable AIは一貫した目標を持って立ち上げました。人々が本物らしいコンテンツを作れるよう支援することです。
AIは不利な立場の人々が機会を均等化するために(実際に)利用されています。
今日、マーケティングライターを雇う余裕のない小規模事業者も、人工知能でその役割を補えます。
問題は、AIの文章がしばしば質が低いことです。大規模言語モデルの動向を追っていればお分かりでしょう。人間化はAIの文章をより自然にします。
競争できなかった小規模事業の経営者?今は違います。
タイピングが難しくAIでコミュニケーションする人は、もはや「ChatGPTのように聞こえる」ことだけに縛られません。
これらは希望を与え、良心を清める使用例のほんの一部です。
私たちが作った人間化ツールは強力です。倫理的・非倫理的な利用の両方を見てきました。Undetectableはライターの代わりではなく、ライターを持てない人を助けるためのツールです。
ここでは、特に物議を醸す製品を含むすべての製品について、倫理的立場を詳しく定義します。また、規制、ガードレール、ガバナンスについての考えも示します。
最初の主力製品であるAI人間化ツールが最も人気です。アルゴリズムが人間のように文章を書き換えます。人間化されたテキストはAI生成として検出されにくくなります。
ユーザーはコンテンツが硬直的またはロボットのように聞こえないようにしたいと考えています。善意と悪意の両方があります。 私たちの人間化ツールの倫理的かつ許容される利用とは何でしょうか。以下の表に例を示します。
許容される利用
許容されない利用
許容される人間化の利用はすべて「AIによる執筆が禁止されていない場合」に該当すべきです。人間化ツールはコンテンツとコミュニケーションを改善し、信頼を築くためのものであり、裏切るためではありません。
とはいえ、検出回避のうち私たちが許容すると考えるケースもあります。
倫理的/許容される
非倫理的/許容されない
最初の例では「信頼の重大な侵害」はありませんでした。2番目では侵害があり、さらに「AI禁止」ポリシーを回避する人間化も行われていました——それは誤りです。
さまざまな理由でAI生成としてフラグが立たないコンテンツを作る必要があるユーザーがいます。AIの使用は許可されていますが、品質は人間並みでなければなりません。
人々がコンテンツをAI生成だと信じると(そうでなくても)、信頼は低下します。
ニュルンベルク市場判断研究所(NIM)の調査では、AI製と説明されたコンテンツは、同一内容が人間製として提示された場合より否定的に受け取られました。 AI生成広告に掲載された製品をクリックする意欲は低くなりました。
テキストには、公衆がAIの印と考える語や文体があります。例えばダッシュ「—」や「delve」「realm」などの語です。
さらに深く。 説明を尽くさずとも、AI執筆を示す何百ものパターンを特定しています。
人間の文章にもこれらのパターンは現れます。多くのライターは文体全体を変えるより「人間化して」消す方が容易だと感じています。主な動機は、新たな言語バイアスが生じても信頼を保つことです。
当社の利用規約に記載されているとおり、私たちは許可しません ユーザーが「コメントやメッセージ送信のためのスクリプトの使用、データマイニング、ロボット、または類似のデータ収集・抽出ツールを使用するなど、システムのいかなる自動利用」に及ぶこと。
スパムで7,000人以上を禁止しました。各種プラットフォームのチャットボットツールは人間化APIを使いますが、チャットボットとして表示され、人間のふりはしません。
未承認の自動化と自動化された悪用は、私たちが防御・執行しやすい違反です。エージェント型AI(clawdbotなど)を踏まえ、サービスを使って本物の人間のふりをするエージェントまたはボットシステムには絶対的なゼロトレランスです。監視しています。
私たちはカンニングを決して容認しません。モデレーションチームが.eduメールの登録を調査します。
個人のプライバシーは重視します。誤る可能性がある場合は、そのような非難はしません。一部の学生はAIでレポートを書くでしょう。学生の方へ:思考プロセスをすべてAIに委ねるのは自分を害します。
私たちのソフトウェアが「カンニングを容易にする」という主張を耳にすることがあります。 しかしカンニングはより大きな問題の症状です。ソフトウェアは倫理的ユーザーの真のコミュニケーションも容易にします。
悪意のある利用者が学術的カンニングに使おうとしても、人間化ツールの肯定的な利用を無効にはしません。
学術コミュニティとの対話には常に開いており、可能な限り害を減らすことが目標です。
不正のためではなく、不正確なAI検出システムによる誤った告発(偽陽性)から身を守るために人間化ツールに関心を持つ学生もいます。検出器のセクションでさらに述べます。
自動化およびボットコンテンツ、ならびに.eduメールからの登録を検出するガードレールがあります。内部モデレーションチェックポイントでポリシー遵守を確保します。制限は最終的にプライバシーに帰結します。
プライバシーが後回しになるのは、公共安全に直接的な危害の危険がある場合、または米国の裁判所命令で個人データの提出を法的に求められる場合のみです。 執行は主に違法行為または公衆への直接的な身体的危害を対象とします。
AI開示は多面的です。主な要因は要件です(内部ガバナンス、規制、法律、利用規約など)。
誰もが道徳的にAI利用を開示すべきだとは考えていません。
AIガバナンス契約に拘束されておらず、法的に開示を求められていない利用者に、開示の道義的義務はないと考えます。
明確にするため、私たちは依然として「信頼の重大な侵害」という道徳基準を守ります。
信頼の重大な侵害ではない
誰かがAIで記事をまとめ、検証し、編集し、専門性を加え、自分の名で公開するがAI利用を開示しない。
信頼の重大な侵害である
誰かがチャットボットにXYZについて記事を生成させ、専門家でもなく、編集も検証もせず、専門家であるかのように公開する。
AI利用の開示について、私たちにとって重要なのは文脈です。 義務がなくても自発的に使用ツール(AIを含む)をすべて開示したいユーザーと、そうしないユーザーもいます。最終的に倫理かどうかは文脈とツールの使い方で決まります。
AIガバナンス政策を支持し、すべての企業が持つべきだと考えます。AIの使用方法(いつ開示が必要か、許容・不許容のケースなど)を明確にする内部政策がなければ、組織に盲点があります。
AIツールから悪いデータが来ている、または従業員が機密を保護しないシステムに晒している——いずれにせよ、ツール利用の正負の効果を帰属できることは論理的です。今はブームで、ツールは新しく、データの出し入れを考えずに使う人もいます。
ツールの許容・不許容の利用に関する外部ガバナンス政策は、当社の 利用規約 で定義されています。社内では全部門でAIガバナンス政策を維持しています。
2番目に人気のツールはAIテキスト検出器です。人間化ツールと同様、正しい使い方と間違った使い方があります。
第一に、現状のAIテキスト検出だけでは、テキスト内のAI利用を絶対的な確実性で客観的に排除するには十分ではありません。現代の検出器(当社のものを含む)は書かれた内容の構造と構文を分析します。
テキストに付与されるAI割合は、AI生成の確率または尤度です。調査における文体分析と同様、このスコアは調査の「出発点」または「たたき台」と考えるべきです。そのため単一のAIテキスト検出スコアだけでは、不正や欺瞞を排除するには十分ではありません。
次の例が示しています。
うまくいけば、これらの例が一つ明らかにします。AIテキスト検出器を使うときは、それは調査の補助ツールでなければなりません。 現時点では、単一の検出フラグは不当行為の合理的疑いを超える証拠にはなりません。
学術的または職業的調査では、テキスト検出は不当行為の主張や結論を裏付ける二次的または三次的証拠であるべきです。スコアだけでは十分ではありません。
当初、「コンセンサスベース」の検出モデルを公開しました。2023年。検出器は新しく、当時は「ブラックボックス」ツールと見なされ、統一方法論はありませんでした。当時の主要検出器を模した8つのモデルを作成しました。ユーザーがテキストを分析すると、各モデルのスコアが表示されました。
一部のモデルが全体結果を歪めることがわかりました。当初、8モデル中5つがAIとフラグすれば、全体のコンセンサスはおそらくAIと結論づけました。
機械学習・研究部門を拡大するにつれ、不正確な検出モデルを削除しました。
現在、検出器は1つのスコアのみ表示しますが、複数の検出層に基づいています。変更した理由の一つは、他の検出ツールをモデル化したアルゴリズムスコアが同じ結果を出すと考え始めたことです。問題は、一部のツールがベータモデルを切り替え、アルゴリズムとは異なる結果を表示したことでした。
他の検出ツールのライブな帰属として検出器を使わせたくありませんでした。公には名を出せませんが、どの検出モデルが科学的かは特定しており、テキスト検出の「ブラックボックス」状態は徐々に「理解可能」で「定量化可能」な科学へ移っています。
検出器が見る主な側面の一つは言語エントロピーです。テキストブロックがどれだけ予測不可能または変動的か。エントロピーが不確実性を測る点では、評価指標としてパープレキシティを使います。
大規模言語モデルはトークンレベルで予測可能に動作し、しばしば低いパープレキシティの出力を生成します。変動はありますが、LLMは一般に予測可能なパターンに従います。
とはいえ、人間の執筆習慣を模倣するように設計された私たちの人間化ツールのようなツールが存在するということは、テキスト検出器が失敗しうることを意味します。
AIテキスト検出器は誤りうるツールです。持っていると有用ですが、全知の神託ではありません。検出だけを根拠に誰かを非難することは容認しません。
いずれにせよ、信頼できるAIテキスト検出器を使うことは使わないよりましです。重要なのはツールだけでなく、どう使い、どう理解するかです。
人間化とテキスト検出はそれぞれ役割が異なります。過去2年で明らかになったのは、AI生成テキストの脅威は、他のAIコンテンツ形態よりはるかに危険度が低いということです。
AI詐欺を広く研究しています。防止、識別、AI生成画像・動画・音声の実際の危険性。
検出不可能なディープフェイクを製造または容認することは決してありません。2024年以降、長年蓄積したデータでディープフェイク検出ツールを設計しています。TruthScanプロジェクトでの現在の焦点です。TruthScanは、ディープフェイク画像・音声・動画を識別するソフトウェアを研究・開発する姉妹組織です。
テキストとは異なり、画像・動画・音声ファイルには分析するデータがより多く含まれます。対抗AIツールを創出した私たちのチームは、ディープフェイク検出のジレンマを解決できると確信しています。
Undetectable AIとTruthScanはそれぞれ専門部門を持ちますが、全体の焦点と優先事項は、TruthScanがディープフェイク被害を止めるのを助けることです。
TruthScan プロジェクトは、人々を助け、実際の問題を解決したいという願いから生まれました。 Undetectable AIのサブスクリプションを支払うすべてのユーザーが、有害なAI生成ディープフェイクに対するTruthScanの戦いに資金を提供しています。
私たちの継続的な目標は、成長し、学び、すべての人により良い世界を築く手助けをすることです。