"Hacer que el contenido generado por IA sea más humano"
"Hacer que el contenido generado por IA sea más humano"
Nos tomamos en serio la ética de la IA. En esta página explicamos con claridad en qué creemos, nuestras salvaguardas y el uso previsto de nuestro(s) software(s).
Seamos claros. Usar nuestras herramientas para causar daño, a uno mismo o a otros, está mal. No avalamos el uso poco ético de ningún sistema de IA. Por eso esta página explica qué está permitido y qué no. Ante todo, debes conocer nuestros Términos de servicio (en especial la sección "Uso prohibido").
Lanzamos Undetectable AI con un objetivo constante: ayudar a las personas a crear contenido que se perciba como auténtico.
La IA puede usarse (y se usa) para equilibrar oportunidades en contextos desfavorables.
Hoy, un pequeño empresario sin recursos para un redactor de marketing puede usar la inteligencia artificial para cubrir ese rol.
El problema es que el texto generado por IA a menudo deja que desear. Si has seguido la evolución de los grandes modelos de lenguaje, sabes a qué nos referimos. La humanización hace que el texto de IA parezca más real.
¿El dueño de un negocio pequeño que no podía competir? Ahora puede.
Quien no puede escribir a máquina y usa la IA para comunicarse ya no está limitado a "sonar como ChatGPT".
Estos son solo algunos usos que nos dan esperanza y nos permiten mirar con la conciencia tranquila.
Sin duda, el humanizador que creamos es potente. Lo hemos visto usado de forma ética y también de forma indebida. Undetectable no sustituye a los redactores; ayuda a quienes no tienen redactores a su disposición.
Aquí pretendemos definir nuestra postura ética con detalle en todos los productos que hemos creado, sobre todo los más polémicos. También encontrarás nuestras reflexiones sobre regulación, salvaguardas y gobernanza.
Nuestro primer producto estrella, el humanizador de IA, es el más popular. Funciona con un algoritmo que reescribe un texto como lo haría una persona. Al humanizar un texto, es menos probable que se detecte como generado por IA.
La gente usa nuestro humanizador porque no quiere que su contenido parezca rígido o robótico. Naturalmente, hay quien lo usa con buena y con mala intención. Pero, ¿cuáles son exactamente los usos éticos y permitidos de nuestro humanizador? En la tabla siguiente hay algunos ejemplos:
Uso aceptable
Uso inaceptable
Todo uso aceptable de la humanización debería encajar en "siempre que el uso de escritura con IA no esté prohibido". El humanizador debe usarse para mejorar el contenido y la comunicación; para generar confianza, no para traicionarla.
Dicho esto, hay casos de elusión de la detección que consideramos aceptables.
Ético / Permitido
Poco ético / No permitido
En el primer ejemplo no hubo "violación grave de la confianza". En el segundo, no solo hubo una "violación grave de la confianza", sino que la persona humanizaba contenido para eludir políticas de "no uso de IA", lo cual está mal.
Tenemos usuarios que, por diversos motivos, deben crear contenido que no se marque como generado por IA. Se les permite usar IA, pero el contenido debe cumplir estándares de calidad humana.
El caso es que, cuando la gente cree que un contenido es de IA (aunque no lo sea), confía menos en él.
Un estudio del Instituto de Nuremberg para Decisiones de Mercado (NIM) mostró que el contenido descrito como hecho por IA se percibía más negativamente que el mismo contenido presentado como creado por humanos. La gente estaba menos dispuesta a hacer clic o interactuar con productos en anuncios generados por IA.
En el texto hay palabras y estilos que el público asocia hoy con la IA. Por ejemplo el guión largo "—" o palabras como "delve" o "realm".
Va más allá. Sin extendernos, hemos identificado cientos de patrones típicos de texto generado por IA.
El problema es que los humanos también muestran esos patrones. A muchos redactores les resulta más fácil "humanizar" esos rasgos que cambiar por completo su estilo. Su motivación principal es mantener la confianza pese a sesgos lingüísticos emergentes.
Como indican nuestros Términos de servicio, no permitimos que las personas "realicen ningún uso automatizado del sistema, como usar scripts para enviar comentarios o mensajes, ni minería de datos, robots u otras herramientas similares de recopilación o extracción de datos".
Hemos expulsado a más de 7.000 usuarios por spam. Las herramientas de chatbot en varias plataformas usan nuestra API de humanización para enviar mensajes, pero están etiquetadas como chatbots y no se hacen pasar por humanos.
Las automatizaciones no autorizadas y el abuso automatizado son de las infracciones más fáciles de detectar y sancionar. Ante sistemas de IA agénticos (como clawdbot), aplicamos tolerancia cero absoluta a bots o sistemas agénticos que usen nuestros servicios haciéndose pasar por humanos reales. Estamos atentos.
Nunca hemos tolerado la trampa y nunca lo haremos. Nuestro equipo de moderación revisa registros con correos .edu.
Pero la privacidad personal nos importa. Tampoco haremos acusaciones si existe la menor duda razonable. Sabemos que algunos estudiantes usarán la IA para redactar ensayos. Si eres estudiante y lees esto, ten en cuenta que solo te perjudicas si externalizas por completo tu proceso de pensamiento a la IA.
A veces oímos que nuestro software "facilita hacer trampa". El problema es que la trampa es síntoma de un problema mayor. Nuestro software también facilita a usuarios éticos una comunicación auténtica.
Que alguien con malas intenciones intente usar nuestro software para ayudar a hacer trampa no anula los usos legítimos del humanizador.
Siempre estamos abiertos al diálogo con el mundo académico y uno de nuestros objetivos es reducir el daño en la medida de lo posible.
Hay casos de estudiantes interesados en el humanizador no para hacer trampa, sino para protegerse de acusaciones falsas por sistemas de detección de IA poco fiables (falsos positivos). Lo ampliaremos en la sección del detector.
Tenemos mecanismos para detectar contenido automatizado o de bots, así como registros con correos .edu. Usamos controles internos de moderación para que se cumplan las políticas. En el fondo, las limitaciones se reducen a la privacidad.
Solo dejamos de priorizar la privacidad cuando hay riesgo directo para la seguridad pública o cuando una orden judicial de Estados Unidos nos obliga legalmente a entregar datos personales. Nuestra actuación se centra sobre todo en delitos o daño físico directo al público.
La divulgación del uso de IA es multifacética. El factor principal es el requisito (p. ej., políticas internas, normas, leyes o Términos de servicio).
No creemos que todo el mundo esté moralmente obligado a declarar que usa IA.
Quien use IA sin estar sujeto a un acuerdo de gobernanza sobre IA o sin obligación legal de declararlo no tiene, en nuestra opinión, deber moral de hacerlo.
Aclaración: seguimos sosteniendo el estándar moral de "violaciones graves de la confianza."
Esto no es una violación grave de la confianza
Alguien redacta un artículo con IA, lo revisa, verifica datos, lo edita, aporta criterio y experiencia y lo publica con su nombre, sin declarar que usó IA.
Esto sí es una violación grave de la confianza
Alguien va a un chatbot, pide "genera un artículo sobre XYZ", no es experto en XYZ, no edita ni verifica el resultado y lo publica como si fuera suyo e implica que es experto.
En la divulgación del uso de IA, para nosotros importa el contexto. Tenemos usuarios que, sin estar obligados, prefieren declarar todas las herramientas que usan (IA u otras), y otros que no. Al final, el contexto y la forma de uso determinan si el uso es ético o no.
Apoyamos políticas de gobernanza de IA y creemos que toda empresa debería tenerlas. Sin políticas internas que definan y regulen el uso de la IA (cuándo debe declararse, usos aceptables e inaceptables, etc.), la organización tiene un punto ciego.
Quizá los datos de las herramientas de IA son deficientes o los empleados exponen información confidencial a sistemas que no la protegen. En cualquier caso, poder atribuir efectos positivos y negativos al uso de herramientas de IA es lógico. Estamos en un boom; las herramientas son nuevas y mucha gente las usa sin pensar en qué datos obtiene ni qué comparte.
Nuestra política externa de gobernanza (sobre el uso permitido y prohibido de la herramienta) está definida en nuestros Términos de servicio. Internamente mantenemos políticas de gobernanza de IA en todos los departamentos.
Nuestra segunda herramienta más popular es el detector de texto por IA. Al igual que con el humanizador, hay formas correctas e incorrectas de usarlo.
En primer lugar, la detección de texto por IA, en su estado actual, NO basta por sí sola para descartar de forma objetiva el uso de inteligencia artificial (con certeza absoluta) en un texto. Los detectores modernos (incluido el nuestro) analizan la estructura y la sintaxis del texto escrito.
El porcentaje de IA asignado a un texto es una puntuación de probabilidad o verosimilitud de generación por IA. Como el análisis estilométrico en investigaciones, debe considerarse un "punto de partida" de una investigación. Por eso una sola puntuación NO basta para descartar fraude o engaño.
Estos ejemplos lo ilustran:
Con suerte, estos ejemplos dejan claro una cosa: al usar un detector de texto por IA, debe ser una herramienta complementaria en una investigación. Por ahora, una sola detección no puede ser prueba más allá de toda duda razonable de un delito.
En investigaciones académicas o profesionales, la detección de texto debe ser prueba secundaria o terciaria que respalde un argumento o conclusión sobre una falta. Una sola puntuación no basta.
Al principio lanzamos un modelo de detección "por consenso". Era 2023; los detectores eran nuevos y se veían como "cajas negras"; no había una metodología unificada. Creamos 8 modelos que imitaban los principales detectores de la época. Al analizar un texto, el usuario veía la puntuación de cada modelo.
Vimos que algunos modelos sesgaban el resultado global. Al principio, si 5 de 8 marcaban IA, el consenso concluía que probablemente lo era.
A medida que creció nuestro departamento de ML e investigación, eliminamos modelos poco fiables.
Hoy el detector muestra una sola puntuación, pero sigue basándose en varias capas. También lo cambiamos porque la gente creía que nuestras puntuaciones modeladas a partir de otros detectores darían los mismos resultados que esas herramientas, cuando algunas alternaban modelos beta y mostraban resultados distintos al nuestro.
No queríamos que usaran nuestro detector como sustituto en vivo de otras herramientas. Aunque no podemos nombrarlas, hemos identificado qué modelos son científicos, y el estatus de "caja negra" de la detección de texto ha ido pasando a una ciencia "comprensible" y "cuantificable".
Uno de los aspectos principales es la entropía lingüística: qué tan impredecible o variable es un bloque de texto. Donde la entropía mide incertidumbre, usamos la perplejidad como métrica.
Los grandes modelos de lenguaje operan con previsibilidad a nivel de token y suelen generar salidas de menor perplejidad. Puede variar, pero en general siguen un patrón predecible.
Dicho esto, herramientas como nuestro humanizador (diseñadas para imitar hábitos de escritura humana) hacen que los detectores fallen.
Los detectores de texto por IA son herramientas falibles. Son útiles, pero no un oráculo omnisciente. No avalamos acusar a alguien solo con la detección de texto.
En cualquier caso, usar un detector fiable es mejor que no usar ninguno. No solo importa la herramienta, sino cómo se usa y se interpreta.
La humanización y la detección de texto cumplen funciones distintas. En los últimos dos años ha quedado claro que la amenaza del texto generado por IA es mucho menor que la de otros formatos de contenido por IA.
Investigamos a fondo el fraude con IA: cómo prevenirlo, cómo detectarlo y cuán peligrosas son realmente las imágenes, vídeos y audios generados por IA.
Lo que jamás produciremos ni toleraremos son deepfakes indetectables. Desde 2024 usamos los datos acumulados para diseñar herramientas de detección de deepfakes. Es nuestro foco actual con TruthScan. TruthScan es nuestra organización hermana dedicada a investigar y desarrollar software que identifique deepfakes en imagen, audio y vídeo.
A diferencia del texto, imagen, vídeo y audio ofrecen más datos para analizar. Confiamos en que nuestros equipos, creadores de la principal herramienta de IA adversarial, pueden resolver el dilema de la detección de deepfakes.
Tanto Undetectable AI como TruthScan tienen departamentos propios. Pero nuestra prioridad global es ayudar a TruthScan a frenar el daño de los deepfakes.
El proyecto TruthScan nació del deseo de ayudar a las personas y resolver problemas reales. Cada usuario que paga una suscripción a Undetectable AI contribuye a financiar la lucha de TruthScan contra deepfakes dañinos generados por IA.
Nuestro objetivo continuo es crecer, aprender y contribuir a un mundo mejor para todos.