"AI 생성 콘텐츠를 더 인간적으로 만들기"
"AI 생성 콘텐츠를 더 인간적으로 만들기"
저희는 AI 윤리를 진지하게 받아들입니다. 이 페이지에서는 저희의 입장, 안전장치, 소프트웨어의 의도된 사용 방법을 명확히 설명합니다.
분명히 말씀드립니다. 저희 도구를 사용해 본인이나 타인에게 해를 끼치는 것은 잘못입니다. 어떤 AI 시스템의 비윤리적 사용도 용납하지 않습니다. 이 페이지에서는 무엇이 허용되고 그렇지 않은지 설명합니다. 우선 서비스 약관을 읽어 주세요(특히 "금지된 사용" 항목).
Undetectable AI는 지속적인 목표를 가지고 출시했습니다. 사람들이 진정성 있게 느껴지는 콘텐츠를 만들도록 돕는 것입니다.
AI는 (그리고 실제로) 불리한 처지의 사람들이 기회를 평준화하는 데 사용될 수 있습니다.
오늘날 마케팅 카피라이터를 쓸 예산이 없는 소상공인도 인공지능으로 그 역할을 채울 수 있습니다.
문제는 AI 글이 종종 품질이 낮다는 것입니다. 대규모 언어 모델의 발전을 따라오셨다면 무슨 뜻인지 아실 겁니다. 휴먼라이제이션은 AI 글을 더 사람답게 만듭니다.
경쟁할 수 없었던 소기업 주인? 이제는 할 수 있습니다.
타자가 어렵고 소통에 AI를 쓰는 사람은 더 이상 "ChatGPT처럼 들리는 것"에만 갇히지 않습니다.
이것은 저희에게 희망을 주고 양심을 깨끗이 유지하게 해 준 사용 사례 중 일부에 불과합니다.
저희가 만든 휴먼라이저는 강력합니다. 윤리적·비윤리적 사용을 모두 보아 왔습니다. Undetectable은 작가를 대체하기 위한 도구가 아니라 작가가 없는 이들을 돕기 위한 도구입니다.
여기서는 특히 논란이 많은 제품을 포함해 모든 제품에 대한 저희의 윤리적 입장을 세부적으로 밝히고, 규제·안전장치·거버넌스에 대한 생각도 담았습니다.
첫 번째 주력 제품인 AI 휴먼라이저가 가장 인기 있습니다. 알고리즘이 사람이 쓴 것처럼 글을 다시 씁니다. 휴먼라이즈된 텍스트는 AI 생성으로 탐지될 가능성이 낮아집니다.
사용자는 콘텐츠가 딱딱하거나 로봇 같게 들리기를 원하지 않습니다. 선한 의도와 악한 의도가 모두 있습니다. 저희 휴먼라이저의 윤리적이고 허용되는 사용은 무엇일까요?아래 표에 몇 가지 예가 있습니다.
허용되는 사용
허용되지 않는 사용
허용되는 모든 휴먼라이제이션 사용은 "AI 작성이 금지되지 않은 경우"에 해당해야 합니다. 휴먼라이저는 콘텐츠와 소통을 개선하고 신뢰를 쌓기 위한 것이지 배신하기 위한 것이 아닙니다.
그렇지만 저희가 허용된다고 보는 탐지 우회 사용 사례도 있습니다.
윤리적 / 허용됨
비윤리적 / 허용되지 않음
첫 번째 예에서는 "신뢰의 중대한 위반"이 없었습니다. 두 번째에서는 위반이 있었을 뿐 아니라 "AI 사용 금지" 정책을 우회하기 위해 휴먼라이제이션까지 했습니다 — 잘못입니다.
여러 이유로 AI 생성으로 표시되지 않는 콘텐츠를 만들어야 하는 사용자가 있습니다. AI는 쓸 수 있지만 품질은 사람 수준이어야 합니다.
사람들이 콘텐츠가 AI로 만들어졌다고 믿으면(그렇지 않아도) 덜 신뢰합니다.
뉘른베르크 시장결정연구소(NIM) 연구에 따르면 AI로 만들어졌다고 설명된 콘텐츠는 동일한 내용이 사람이 만든 것으로 제시될 때보다 더 부정적으로 받아들여졌습니다. 사람들은 AI 생성 광고에 나온 제품을 덜 클릭하려 했습니다.
텍스트에는 대중이 AI의 흔적으로 여기는 단어와 문체가 있습니다. 예를 들어 긴 대시 "—"나 "delve", "realm" 같은 단어입니다.
더 깊습니다. 길게 설명하지 않아도 AI 글쓰기를 나타내는 수백 가지 패턴을 찾아냈습니다.
인간의 글에도 이런 패턴이 나타납니다. 많은 작가는 문체 전체를 바꾸는 것보다 이런 패턴을 "휴먼라이즈해서" 없애는 편이 쉽다고 느낍니다. 주된 동기는 새로운 언어적 편견에도 불구하고 신뢰를 유지하는 것입니다.
저희 서비스 약관에 명시된 바와 같이 저희는 허용하지 않습니다 사용자가 "댓글이나 메시지를 보내기 위한 스크립트 사용, 데이터 마이닝, 로봇 또는 이와 유사한 데이터 수집·추출 도구 등 시스템의 자동화된 사용"에 해당하는 행위를 하는 것을.
스팸으로 7,000명 이상의 사용자를 차단했습니다. 여러 플랫폼의 챗봇 도구는 저희 휴먼라이제이션 API로 메시지를 보내지만 챗봇으로 표시되며 사람인 척하지 않습니다.
승인되지 않은 자동화와 자동화된 악용은 저희가 방어하고 집행하기 가장 쉬운 위반 중입니다. 에이전트형 AI 시스템(예: clawdbot)을 고려할 때, 서비스를 사용해 진짜 사람인 척하는 에이전트나 봇 시스템에 대해서는 절대적인 무관용 정책을 적용합니다. 감시하고 있습니다.
저희는 부정행위를 결코 용납하지 않습니다. 모더레이션 팀이 .edu 이메일 가입을 조사합니다.
개인 정보 보호를 중시합니다. 틀릴 가능성이 있으면 그런 비난은 하지 않습니다. 일부 학생은 AI로 에세이를 쓸 것입니다. 학생 여러분: 사고 과정 전체를 AI에 맡기면 본인만 해를 봅니다.
가끔 저희 소프트웨어가 "부정행위를 쉽게 한다"는 주장을 듣습니다. 하지만 부정행위는 더 큰 문제의 증상입니다. 저희 소프트웨어는 윤리적 사용자의 진정한 소통도 쉽게 합니다.
악의적인 사용자가 학업 부정에 악용하려 해도 휴먼라이저의 긍정적 사용을 무효로 하지는 않습니다.
학계와의 대화에는 항상 열려 있으며 피해를 가능한 한 줄이는 것이 목표입니다.
부정을 하려는 것이 아니라 부정확한 AI 탐지 시스템(오탐)으로 인한 억울한 비난에서 자신을 지키기 위해 휴먼라이저에 관심을 갖는 학생도 있습니다. 탐지기 섹션에서 더 다룹니다.
자동화 및 봇 콘텐츠와 .edu 이메일 가입을 탐지하는 안전장치가 있습니다. 내부 모더레이션 검문소로 정책을 준수합니다. 제한은 결국 개인 정보 보호로 귀결됩니다.
개인 정보 보호가 고려되지 않는 경우는 공공 안전에 직접적인 신체적 위험이 있거나 미국 법원 명령으로 개인 데이터를 제출해야 할 때뿐입니다. 저희 집행은 주로 불법 행위나 공공에 대한 직접적인 신체적 해를 대상으로 합니다.
AI 공개는 다층적입니다. 주요 요인은 요구 사항입니다(내부 거버넌스 정책, 규정, 법률, 이용약관).
모든 사람이 도덕적으로 AI 사용을 공개해야 한다고는 생각하지 않습니다.
AI 거버넌스 계약에 구속되지 않았고 법적으로 공개할 의무가 없다면 공개할 도덕적 의무는 없다고 봅니다.
분명히 하자면, 여전히 "신뢰의 중대한 위반"이라는 도덕 기준을 유지합니다.
신뢰의 중대한 위반이 아님
누군가 AI로 기사를 준비하고, 검토하고, 사실을 확인하고, 편집하고, 전문성을 더한 뒤 본인 이름으로 게시하지만 AI 사용은 공개하지 않습니다.
신뢰의 중대한 위반
누군가 챗봇에게 XYZ에 대한 기사를 생성하라고 하고, XYZ 전문가가 아니며, 출력을 편집하거나 사실 확인도 하지 않고 전문가인 것처럼 게시합니다.
AI 사용 공개와 관련해 저희에게 중요한 것은 맥락입니다. 의무가 없어도 사용하는 모든 도구(AI 포함)를 공개하는 것이 맞다고 느끼는 사용자도 있고 그렇지 않은 사용자도 있습니다. 결국 맥락과 도구 사용 방식이 윤리적 여부를 결정합니다.
AI 거버넌스 정책을 지지하며 모든 회사가 가져야 한다고 믿습니다. AI 사용 방식(AI 사용 공개 시기, 허용·비허용 사례 등)을 명확히 하는 내부 정책이 없으면 조직에 사각지대가 있습니다.
AI 도구에서 나쁜 데이터가 오거나 직원이 기밀을 보호하지 않는 시스템에 노출할 수 있습니다. 어느 쪽이든 AI 도구 사용의 긍정적·부정적 효과를 귀속할 수 있는 것은 논리적입니다. 지금은 붐이고 도구는 새롭습니다. 어떤 사람들은 도구에서 무엇을 얻고 무엇을 공유하는지 생각하지 않고 사용합니다.
도구의 허용·비허용 사용에 대한 외부 거버넌스 정책은 저희 서비스 약관에 정의되어 있습니다. 내부적으로 모든 부서에서 AI 거버넌스 정책을 유지합니다.
두 번째로 인기 있는 도구는 AI 텍스트 탐지기입니다. 휴먼라이저와 마찬가지로 옳은 방법과 그른 방법이 있습니다.
첫째, 현재 상태의 AI 텍스트 탐지만으로는 텍스트에서 인공지능 사용을 절대적 확실성으로 객관적으로 배제하기에 충분하지 않습니다. 현대 탐지기(저희 것 포함)는 서면 콘텐츠의 구조와 구문을 분석합니다.
텍스트에 부여된 AI 비율은 AI 생성 가능성 또는 확률 점수입니다. 조사에서 자기수법 분석을 사용하는 것과 마찬가지로 이 점수는 조사의 "출발점" 또는 "시작점"으로 여겨져야 합니다. 그래서 단일 AI 텍스트 탐지 점수만으로는 부정이나 기만을 배제하기에 충분하지 않습니다.
다음 예가 이를 보여 줍니다.
바라건대 이 예가 한 가지를 분명히 합니다. AI 텍스트 탐지기를 사용할 때는 조사의 보조 도구여야 합니다. 지금까지 단일 탐지 표시는 부당행위에 대한 합리적 의심을 넘는 증거로 쓸 수 없습니다.
학문적 또는 직업적 조사에서 텍스트 탐지는 부당행위 주장이나 결론을 뒷받침하는 이차적 또는 삼차적 증거여야 합니다. 점수 하나만으로는 부족합니다.
처음에는 "합의 기반" 탐지 모델을 출시했습니다. 2023년이었습니다. 탐지기는 새로웠고 당시 "블랙박스" 도구로 여겨졌으며 통일된 방법론이 없었습니다. 당시 주요 탐지기를 모방한 8개 모델을 만들었습니다. 사용자가 텍스트를 분석하면 각 모델이 어떻게 점수를 매겼는지 보여 주었습니다.
일부 탐지기가 전체 결과를 왜곡한다는 것을 발견했습니다. 처음에는 8개 중 5개가 텍스트를 AI 생성으로 표시하면 전체 합의가 텍스트가 그럴 가능성이 있다고 결론지었습니다.
머신러닝·연구 부서를 키우면서 부정확한 탐지 모델을 제거했습니다.
오늘날 탐지기는 하나의 점수만 보여 주지만 여전히 여러 탐지 층에 기반합니다. 바꾼 또 다른 이유는 사람들이 다른 탐지 도구를 모델링한 알고리즘 점수가 그 도구와 같은 결과를 낼 것이라고 생각하기 시작했기 때문입니다. 문제는 그중 일부 탐지 도구가 베타 모델을 바꾸며 저희 알고리즘과 다른 결과를 보였다는 것입니다.
사람들이 저희 탐지기를 다른 탐지 도구의 실시간 대리로 쓰게 하고 싶지 않았습니다. 공개적으로 이름을 말할 수는 없지만 어떤 탐지 모델이 과학적인지는 파악했고, 텍스트 탐지의 "블랙박스" 상태는 서서히 "이해 가능"하고 "정량화 가능"한 과학으로 옮겨가고 있습니다.
탐지기가 보는 주요 측면 중 하나는 언어 엔트로피입니다. 텍스트 블록이 얼마나 예측 불가능하거나 변동적인지. 엔트로피가 불확실성을 측정하는 곳에서는 평가 지표로 perplexity를 사용합니다.
대규모 언어 모델은 토큰 수준에서 예측 가능하게 작동하며 종종 더 낮은 perplexity의 출력을 생성합니다. 달라질 수 있지만 LLM은 일반적으로 예측 가능한 패턴을 따릅니다.
저희 휴먼라이저처럼 사람의 글쓰기 습관을 모방하도록 설계된 도구가 있다는 것은 텍스트 탐지기가 실패할 수 있음을 의미합니다.
AI 텍스트 탐지기는 오류가 있는 도구입니다. 갖추면 유용하지만 전지전능한 신탁은 아닙니다. 탐지만으로 누군가를 비난하는 것은 용납하지 않습니다.
어쨌든 신뢰할 수 있는 AI 텍스트 탐지기를 쓰는 것이 전혀 안 쓰는 것보다 낫습니다. 중요한 것은 도구만이 아니라 어떻게 쓰고 이해하는가입니다.
휴먼라이제이션과 텍스트 탐지는 각자 역할이 있습니다. 지난 2년간 분명해진 것은 AI 생성 텍스트의 위험이 다른 AI 콘텐츠 형태보다 훨씬 덜 위험하다는 것입니다.
AI 사기를 광범위하게 연구합니다. 예방, 식별, AI 생성 이미지·동영상·오디오의 실제 위험.
탐지 불가능한 딥페이크는 절대 만들거나 용납하지 않습니다. 2024년부터 수년간 수집한 데이터로 딥페이크 탐지 도구를 설계하고 있습니다. TruthScan 프로젝트에서의 현재 초점입니다. TruthScan은 딥페이크 이미지·오디오·동영상을 식별하는 소프트웨어를 연구·개발하는 자매 조직입니다.
텍스트와 달리 이미지·동영상·오디오 파일에는 분석할 데이터가 더 많습니다. 선도적인 적대적 AI 도구를 만든 저희 팀이 딥페이크 탐지 딜레마를 해결할 수 있다고 확신합니다.
Undetectable AI와 TruthScan은 각각 전담 부서가 있습니다. 전체 초점과 우선순위는 TruthScan이 딥페이크 피해를 막도록 돕는 것입니다.
TruthScan 프로젝트는 사람을 돕고 실제 문제를 해결하고자 하는 열망에서 태어났습니다. Undetectable AI 구독료를 내는 모든 사용자는 해로운 AI 생성 딥페이크에 맞서는 TruthScan의 싸움에 자금을 보탭니다.
저희의 지속적인 목표는 성장하고 배우며 모두를 위해 더 나은 세상을 돕는 것입니다.