"使AI生成的内容更像人类"
"使AI生成的内容更像人类"
我们认真对待人工智能伦理。本页清楚说明我们的立场、防护机制以及我们软件的预期用途。
请听清楚:使用我们的工具伤害自己或他人都是错误的。我们不纵容任何人工智能系统的不道德使用。因此本页说明什么可以、什么不可以。首先,您应熟悉我们的 服务条款(尤其是「禁止使用」一节)。
我们推出 Undetectable AI 时有一个持续的目标:帮助人们创作让人感觉真实的内容。
人工智能可以(也确实)被弱势群体用来争取更公平的机会。
如今,一位无力聘请营销文案的小企业主也可以借助人工智能来承担这一角色。
问题是人工智能写作往往不尽如人意。若您一直关注大语言模型的发展,您会明白我们的意思。而人性化能让人工智能写作显得更真实。
曾经无法竞争的小企业主?现在他们可以了。
无法打字、借助人工智能沟通的人,不再局限于「听起来像 ChatGPT」。
这些只是我们见过的、让我们仍抱希望并让良心安定的部分用例。
毫无疑问,我们开发的人性化工具很强大。我们见过合乎道德的使用,也见过不合乎的。Undetectable 不是要取代写作者,而是要帮助没有写作者可取代的人。
在此我们希望详细阐明我们在所有产品——尤其是最具争议的产品——上的伦理立场。您也会看到我们对监管、防护机制与治理的思考。
我们的首款旗舰产品、人工智能人性化工具是最受欢迎的。它用算法把文本改写成人类会写的方式。文本经人性化后,被识别为人工智能生成的可能性会降低。
人们使用人性化工具,是因为不希望内容显得生硬或像机器人。自然,有人出于善意,也有人出于恶意。 那么我们的人性化工具在伦理上可接受的使用方式究竟有哪些?请参见下表示例:
可接受的使用
不可接受的使用
每一种可接受的人性化使用都应归入「在不禁用人工智能写作的情况下」。我们的工具应用于改进内容与沟通、建立信任而非背叛信任。
话虽如此,我们认为某些规避检测的使用情形是可以接受的。
合乎伦理/可接受
不合伦理/不可接受
第一个例子中没有「严重背弃信任」。第二个例子中不仅发生了「严重背弃信任」,当事人还为了规避「禁止使用人工智能」政策而人性化内容——这是错误的。
我们确实有用户出于各种原因必须创作不会被标为人工智能生成的内容。他们被告知可以使用人工智能,但内容须达到人类质量标准。
关键在于:当人们相信某段内容是人工智能生成时(即使事实并非如此),信任度会降低。
来自 纽伦堡市场决策研究所(NIM)的研究发现,被描述为人工智能制作的内容,比同一内容被标为人类创作时获得的评价更负面。 人们不太愿意点击或参与人工智能生成广告中的产品。
在文本中,公众现在认为某些用词和文风表明内容由人工智能生成,例如长破折号「—」,甚至「深入」「领域」等词。
还不止于此。 不必赘述,我们已识别出数百种与人工智能写作相关的模式。
问题是人类写作中也会出现这些模式。许多作者发现,从文章中「人性化地去掉」这些模式,比彻底改变写作方式更容易。其主要动机是在新的语言偏见下仍维持信任。
如我们在服务条款 中所述,我们不允许 任何人「以任何自动化方式使用系统,例如使用脚本发送评论或消息,或使用任何数据挖掘、机器人或类似的数据收集与提取工具」。
因垃圾信息我们已封禁逾 7000 名用户。各平台的聊天机器人工具使用我们的人性化 API 发消息,但会标明为聊天机器人,不会冒充人类。
未经批准的自动化与滥用是我们最容易防范和执行的违规类型之一。鉴于智能体人工智能系统(如 clawdbot),我们对使用我们服务冒充真人的智能体或机器人系统绝对零容忍。我们在关注。
我们从未也绝不会纵容作弊。我们的审核团队会调查 .edu 邮箱注册。
但我们重视个人隐私。此外,若存在我们可能误判的可能,我们绝不会提出此类指控。我们知道有些学生会用人工智能写论文。若您是在读本文的学生,请明白把思考过程完全外包给人工智能只会伤害自己。
我们有时听到一种说法,称我们的软件「让作弊更容易」。 但作弊只是更大问题的症状。我们的软件同样帮助有道德的用户进行真实的沟通。
我们认为,坏人可能试图用我们的软件协助学术作弊,并不否定人性化工具的积极用途。
我们始终愿与学术界对话,持续目标之一是在可行范围内尽量减少伤害。
有些学生感兴趣的是用人性化工具并非作弊,而是保护自己免受不准确的人工智能检测系统误判。我们将在检测器一节进一步讨论。
我们设有机制以检测自动化与机器人内容,以及来自 .edu 邮箱的注册。我们通过内部审核检查点确保用户遵守政策。这些限制归根结底与隐私有关。
仅在公共安全面临直接人身伤害风险,或我们根据美国法院命令依法须交出个人数据时,隐私才会让位于其他考量。 我们的执法主要针对违法或对公众的直接人身伤害。
我们认为人工智能披露是多层面的。主要因素是要求(例如内部治理政策/法规/法律/服务条款)。
我们不认为每个人都有道德义务披露其人工智能使用情况。
我们认为,不受人工智能治理协议约束、亦无法律披露义务的使用者,没有道德上的披露义务。
澄清一下,我们仍坚持「严重背弃信任"这一道德标准。
这不属于严重背弃信任
有人用人工智能整理文章,审阅、核实、编辑,融入自己的思考与专业,以自己的名义发表,但未披露使用了人工智能。
这属于严重背弃信任
有人打开聊天机器人,说「给我写一篇关于某某的文章」。他对该主题并非专家,不编辑、不核实输出,然后发表并暗示自己是专家且亲自撰写。
因此,关于是否披露人工智能使用:对我们而言情境才是关键。 有些用户虽无义务,仍觉得披露自己使用的所有工具(包括人工智能)是对的;也有人选择不披露。最终,是否合乎道德取决于情境与工具的使用方式。
我们支持人工智能治理政策,并认为每家公司都应具备。简而言之,若您没有内部政策来阐明和规范人工智能的使用(例如何时须披露、可接受与不可接受的情形等),您的组织就存在盲区。
也许人工智能工具带来了错误数据,或员工向无法保护数据的系统泄露机密。无论如何,能够追溯任何人工智能工具使用的正负影响是合理的。我们正处于爆发期,这些工具是新的,有些人在使用时并未考虑从这些工具得到什么数据——或向它们分享了什么。
我们关于工具可如何使用与不可使用的外部治理政策载于我们的 服务条款。在内部,我们在各部门维持人工智能治理政策。
我们第二受欢迎的工具是人工智能文本检测器。与人性化工具一样,有对与错的使用方式。
首先,就目前而言,仅凭人工智能文本检测不足以客观排除文本中使用人工智能(绝对确定)。现代检测器(包括我们的)分析书面内容的结构与句法。
文本被赋予的人工智能百分比是概率或可能性分数。与调查中的文体分析类似,该分数应被视为调查的「起点」。因此单凭一次检测分数不足以认定作弊或欺骗。
以下示例说明:
希望这些例子说明一点:使用人工智能文本检测器时,它必须是调查的辅助工具。 目前,单次检测标记不能作为排除合理怀疑的过错证明。
在学术或职业调查中,文本检测应是支持不当行为论点的次要或再次要证据。单凭一个分数是不够的。
最初我们发布了所谓「基于共识」的检测模型。那是 2023 年;检测器很新,当时被视为「黑箱」——没有统一方法。我们建立了 8 个模仿当时主要检测器的模型。用户分析文本时,可看到每个模型的打分。
我们发现部分检测器会扭曲总体结果。起初若 8 个中有 5 个标为人工智能生成,共识会认为文本很可能是人工智能生成。
随着机器学习与研究团队扩大,我们移除了不准确的检测模型。
如今检测器只显示一个分数,但仍基于多层检测。我们改变做法的另一个原因是,人们开始以为我们模仿其他工具的算法分数会与那些工具一致。问题是有些工具会在测试版模型间切换,显示与我们的算法不同的结果。
我们不希望人们把我们的检测器当作其他工具的实时替身。虽不能公开点名,但我们已确认哪些检测模型具有科学性,文本检测的「黑箱」状态正慢慢转向「可理解」与「可量化」的科学。
检测器关注的主要方面之一是语言熵,即文本块有多不可预测或多变。在熵衡量不确定性的地方,我们用困惑度作为评估指标。
大语言模型在词元层面具有可预测性,因此输出往往困惑度较低。情况可能变化,但大语言模型通常遵循可预测模式。
话虽如此,像人性化工具这样模仿人类写作习惯的工具存在,意味着文本检测器可能出错。
人工智能文本检测器会出错。作为工具很有用,但不是全知的神谕。我们不赞成仅凭文本检测指控他人不当行为。
总而言之,使用可靠的人工智能文本检测器总比不用好。重要的不仅是工具本身,还有如何使用与理解它。
人性化和文本检测各有其作用。过去两年已很清楚:与人工智能内容的其他形态相比,人工智能生成文本的威胁要小得多。
我们广泛研究人工智能欺诈:如何预防、如何识别,以及人工智能生成的图像、视频和音频实际有多危险。
我们绝不会制作或纵容无法检测的深度伪造。自 2024 年以来,我们利用多年收集的数据设计深度伪造检测工具。这是我们 TruthScan 项目的当前重点。TruthScan 是我们的姊妹机构,致力于研发识别深度伪造图像、音频与视频的软件。
与文本不同,图像、视频和音频文件包含更多可分析数据。我们相信打造了领先对抗性人工智能工具的团队能够解决深度伪造检测难题。
Undetectable AI 与 TruthScan 各有专门部门。但我们的总体重点与优先事项是帮助 TruthScan 阻止深度伪造造成的损害。
TruthScan 项目源于我们帮助他人、解决真实问题的愿望。 每一位支付 Undetectable AI 订阅的用户都在资助 TruthScan 对抗有害的人工智能深度伪造。
我们的持续目标是成长、学习,并帮助为所有人建设更美好的世界。