"Tornar o conteúdo gerado por IA mais humano"
"Tornar o conteúdo gerado por IA mais humano"
Levamos a ética de IA a sério. Nesta página explicamos claramente nossa posição, nossas salvaguardas e o uso pretendido do(s) nosso(s) software(s).
Sejamos claros: usar nossas ferramentas para causar dano a si ou a outros é errado. Não toleramos o uso antiético de qualquer sistema de IA. Esta página explica o que é aceitável ou não. Antes de tudo, conheça nossos Termos de serviço (especialmente a seção "Uso proibido").
Lançamos a Undetectable AI com um objetivo contínuo: ajudar pessoas a criar conteúdo que se perciba como autêntico.
A IA pode ser (e é) usada para equilibrar oportunidades de quem está em desvantagem.
Hoje, um pequeno empresário sem orçamento para um redator de marketing pode usar inteligência artificial para esse papel.
O problema é que texto de IA costuma ser fraco. Se você acompanha grandes modelos de linguagem, entende. A humanização deixa o texto mais real.
O dono de pequeno negócio que não competia? Agora pode.
Quem não digita bem e usa IA para se comunicar não está mais preso a "parecer ChatGPT".
São apenas alguns exemplos que nos dão esperança e mantêm a consciência tranquila.
Nosso humanizador é poderoso. Vimos usos éticos e não éticos. A Undetectable não substitui redatores; ajuda quem não tem redatores.
Aqui detalhamos nossa posição ética em todos os produtos — especialmente os mais controversos — e nossas reflexões sobre regulação, salvaguardas e governança.
Nosso primeiro carro-chefe, o humanizador de IA, é o mais popular. Um algoritmo reescreve o texto como um humano; texto humanizado é menos detectado como gerado por IA.
As pessoas usam o humanizador porque não querem conteúdo rígido ou robótico. Há boas e más intenções. Quais são os usos éticos e permitidos do nosso humanizador? Alguns exemplos na tabela abaixo:
Uso aceitável
Uso inaceitável
Todo uso aceitável deve estar em "sempre que o uso de texto de IA não for proibido". O humanizador deve melhorar conteúdo e comunicação — construir confiança, não traí-la.
Dito isso, há casos de contorno de detecção que consideramos permitidos.
Ético / Permitido
Não ético / Não permitido
No primeiro exemplo não houve "violação grave de confiança". No segundo houve, e também contorno de políticas "no uso de IA" — errado.
Temos usuários que precisam criar conteúdo não marcado como IA; podem usar IA, mas a qualidade deve ser humana.
Quando as pessoas acham que o conteúdo é de IA (mesmo que não seja), confiam menos.
Pesquisa do Instituto de Nuremberg para Decisões de Mercado (NIM) mostrou que conteúdo descrito como feito por IA foi percebido mais negativamente que o mesmo apresentado como humano. As pessoas clicaram menos em produtos em anúncios gerados por IA.
Há palavras e estilos associados à IA — por exemplo o travessão "—" ou palavras como "delve" ou "realm".
Vai mais fundo. Identificamos centenas de padrões típicos de texto de IA.
Humanos também exibem esses padrões. Muitos autores preferem "humanizar" em vez de mudar o estilo — para manter confiança.
Conforme nossos Termos de serviço, não permitimos que pessoas "se envolvam em qualquer uso automatizado do sistema, como scripts para comentários ou mensagens, mineração de dados, robôs ou ferramentas similares".
Banimos mais de 7.000 usuários por spam. Chatbots usam nossa API de humanização mas são rotulados e não se passam por humanos.
Automações não aprovadas são fáceis de punir. Com IA agentiva (ex. clawdbot), tolerância zero se bots se apresentarem como humanos. Estamos de olho.
Nunca toleramos cola. Nossa moderação investiga cadastros .edu.
Privacidade importa; não acusamos se houver dúvida razoável. Alguns estudantes usarão IA para redações. Se você é estudante: terceirizar todo o pensamento à IA prejudica você.
Às vezes ouvimos que nosso software "facilita cola". Cola é sintoma de um problema maior. O software também ajuda usuários éticos autênticos.
Que alguém mal-intencionado tente usar para cola não anula os usos positivos do humanizador.
Estamos abertos ao diálogo com a academia e queremos minimizar danos.
Há estudantes usam o humanizador não para colar, mas para se proteger de falsas acusações de detecção IA (falsos positivos). Detalhamos na seção do detector.
Detectamos conteúdo automatizado e bot e cadastros .edu. Pontos de moderação interna aplicam políticas. As limitações giram em torno da privacidade.
Privacidade só cede quando a segurança pública está em risco direto ou ordem judicial dos EUA exige dados. Nossa ação foca principalmente ilegalidade ou dano físico direto.
Divulgação é multifacetada; o fator principal é exigência (políticas internas, regulamentos, leis, TOS).
Não acreditamos que todos tenham obrigação moral de declarar uso de IA.
Sem acordo de governança de IA nem exigência legal, não há obrigação moral de divulgar, em nossa visão.
Para esclarecer, mantemos o padrão moral de "violações graves de confiança."
Não é violação grave de confiança
Alguém usa IA para artigo, revisa, edita, coloca expertise e publica em nome próprio sem declarar IA.
É violação grave de confiança
Alguém pede artigo sobre XYZ ao chatbot sem expertise, sem revisar, e publica como se fosse especialista.
Na divulgação de uso de IA, o contexto importa para nós. Há usuários que divulgam voluntariamente todas as ferramentas, outros não. Contexto e uso determinam a ética.
Apoiamos políticas de governança de IA; toda empresa deveria ter. Sem políticas internas sobre uso de IA (divulgação, casos permitidos/proibidos), há ponto cego.
Dados ruins de ferramentas de IA ou funcionários expondo dados a sistemas inseguros — atribuir efeitos positivos e negativos é lógico. Ferramentas são novas; alguns não pensam no que compartilham.
Nossa política externa (uso permitido ou não da ferramenta) está definida em nossos Termos de serviço. Internamente mantemos governança de IA em todos os departamentos.
Nossa segunda ferramenta mais popular é o detector de texto por IA. Como o humanizador, há usos certos e errados.
A detecção de texto por IA, no estado atual, NÃO basta sozinha para excluir objetivamente o uso de IA em um texto com certeza absoluta. Detectores modernos (incluindo o nosso) analisam estrutura e sintaxe.
A porcentagem de IA é uma probabilidade. Como análise estilométrica, é ponto de partida de investigação — não prova única de fraude.
Estes exemplos ilustram:
Esperamos que esses exemplos deixem claro: usar detector de texto por IA deve ser ferramenta complementar em investigação. Uma única marcação não é prova além de dúvida razoável.
Em investigações acadêmicas ou profissionais, detecção deve ser evidência secundária ou terciária. Um escore sozinho não basta.
No início modelo "por consenso" (2023): 8 modelos imitando grandes detectores.
Alguns modelos distorciam o consenso (5/8 = provavelmente IA).
Removemos modelos imprecisos com ML/P&D crescente.
Hoje um score agregado, várias camadas; evita confusão com outros tools que mudam beta.
Não queríamos substituto ao vivo de outros detectores. "Caixa preta" torna-se "compreensível" e "quantificável".
Entropia linguística e perplexidade como métricas.
LLM previsíveis em nível de token; perplexidade frequentemente baixa.
Ferramentas como nosso humanizador podem enganar detectores.
Detectores são falíveis; úteis mas não oráculos. Não toleramos acusar alguém com base apenas na detecção de texto.
Melhor detector confiável que nada — conta uso e compreensão.
Humanização e detecção têm papéis diferentes. Ficou claro que texto gerado por IA é muito menos perigoso que outras modalidades de conteúdo IA.
Pesquisamos fraude IA: prevenção, detecção, riscos reais de imagem, vídeo e áudio.
Nunca produziremos nem toleraremos deepfakes indetectáveis. Desde 2024 projetamos ferramentas de detecção — foco TruthScan, organização irmã para imagem, áudio e vídeo.
Diferente do texto, mídia oferece mais dados para análise. Nossas equipes podem resolver o dilema de detecção.
Undetectable AI e TruthScan têm departamentos; prioridade é ajudar TruthScan a limitar danos de deepfakes.
O projeto TruthScan nasceu do desejo de ajudar e resolver problemas reais. Cada assinante Undetectable financia a luta da TruthScan contra deepfakes prejudiciais.
Meta contínua: crescer, aprender e ajudar a construir um mundo melhor para todos.