Tendencias en ciberdelincuencia por IA y cómo pueden perjudicarte en 2025

"La inteligencia artificial actúa como un potenciador del rendimiento para los ciberdelincuentes. Sube de nivel a los delincuentes de nivel medio". [1]

En el último año, la inteligencia artificial (IA) ha evolucionado rápidamente, impulsando todo, desde la búsqueda personalizada hasta el diagnóstico médico avanzado. Pero mientras la tecnología avanza a toda velocidad, una realidad más oscura se cierne sobre ella: los ciberdelincuentes. están armando esos mismos avances de IA para perfeccionar las estafas, suplantar a las víctimas y amplificar las empresas ilegales. 

Las agencias gubernamentales -desde el Centro de Denuncias de Delitos en Internet (IC3) del FBI hasta el Departamento de Seguridad Nacional (DHS)- han señalado la ciberdelincuencia impulsada por IA como un problema en rápido crecimiento. [2][8]

Hemos investigado las conclusiones del gobierno de Estados Unidos y los análisis creíbles de terceros sobre cómo se utilizará la IA para la ciberdelincuencia en 2024. En aterradoras estafas deepfake a potente campañas de phishingEsto es lo que revelan los datos y las comprobaciones.

Principales conclusiones:

  1. La IA es un factor coadyuvante, pero no la única causa de todos los ciberataques. El hacking tradicional persiste a gran escala.
  2. La suplantación de identidad ya no es ciencia ficción; está ocurriendo ahora.
  3. La sextorsión y la generación de CSAM mediante IA es una prioridad urgente para las fuerzas del orden y los organismos de protección de menores.
  4. La desinformación es una amenaza para la seguridad nacional, ya que la IA alimenta narrativas y personajes falsos más creíbles.
  5. En el horizonte se vislumbra una aplicación más estricta de la ley, ya que el Departamento de Justicia y el FBI han prometido tratar con mayor seriedad los delitos cometidos con ayuda de IA.
  6. 56% de los estadounidenses encuestados dijeron estar preocupados por las falsificaciones profundas, la IA que supone una amenaza para la vida humana o el uso ilegal. [9]* 

1. Phishing e ingeniería social mejorados con IA

Una nueva era de phishing convincente

  • ¿Qué ocurre?
    Los delincuentes utilizan la IA generativa para crear correos electrónicos y mensajes de texto de phishing personalizados y perfectos. Atrás quedaron los días de errores gramaticales irrisorios. Ahora, estos correos electrónicos parecen pulidos e hiperdirigidos, engañando incluso a los destinatarios más vigilantes. [2][3]
  • Advertencias oficiales
    La división del FBI en San Francisco advierte de una "amenaza creciente de ciberdelincuentes que utilizan herramientas impulsadas por IA para orquestar campañas de phishing altamente selectivas." 2] En 2024, el IC3 informó de un aumento continuado de las pérdidas relacionadas con el phishing, aunque no proporciona un recuento exacto de cuántas están impulsadas por la IA [3]. [3] Sin embargo, cualitativamente, los investigadores observan un notable aumento de los intentos de phishing más sofisticados que evitan las típicas señales de alarma.
  • Hecho destacado
    Aunque las denuncias de phishing se están disparando en general, el FBI no ha publicado un porcentaje exacto atribuido exclusivamente a la IA. En su lugar, hace hincapié en el creciente realismo y las tasas de éxito de estas estafas mejoradas con IA. Es un buen ejemplo de una amenaza que es real, aunque las cifras exactas sean imprecisas.

Repercusiones para empresas y particulares

  • Compromiso del correo electrónico empresarial (BEC):
    La IA ayuda a los estafadores a replicar correos electrónicos de ejecutivos o a adaptar mensajes en varios idiomas, lo que aumenta el éxito del fraude BEC. Las pérdidas por estafas BEC superaron los $2.900 millones en 2023, según el FBI, y se espera que en 2024 superen esa cifra, aunque todavía se está vigilando la parte correspondiente a la IA. [3]
  • Pérdidas personales:
    La gente se enfrenta a falsas alertas bancarias bien elaboradas o a cartas de "estafa romántica" que parecen desgarradoramente reales. Esto ha dado lugar al robo de credenciales, el vaciado de cuentas bancarias y la usurpación de identidad [2]. Las personas mayores siguen siendo especialmente vulnerables, ya que los delincuentes pueden clonar voces o producir mensajes similares a los del cuidador.

2. Suplantación de identidad y fraude

Voces falsas, dinero real

Imagínese recibir una llamada frenética de la voz de un ser querido pidiendo dinero por su rescate. En realidad, La IA utilizó muestras de las redes sociales para generar esa firma vocal exacta. 

Según los boletines IC3 del FBI, la clonación de voz ha surgido como una nueva herramienta para la extorsión y las estafas financieras. [2] [5] También se han registrado casos de llamadas de "falsos directores ejecutivos" que engañan a los empleados para que transfieran fondos.

No vuelvas a preocuparte de que la IA detecte tus textos. Undetectable AI puede ayudarle:

  • Haz que aparezca tu escritura asistida por IA de aspecto humano.
  • Bypass las principales herramientas de detección de IA con un solo clic.
  • Utilice AI de forma segura y con confianza en la escuela y el trabajo.
Pruébalo GRATIS

Un ejemplo: En 2023, una madre de Arizona estuvo a punto de ser estafada cuando creyó oír la voz sollozante de su hija adolescente en una falsa llamada de "secuestro". Afortunadamente, comprobó la seguridad de su hija antes de transferir el dinero.

Vídeos Deepfake y suplantación de identidad

Los delincuentes también producen videollamadas generadas por inteligencia artificial en las que aparecen "directores ejecutivos" o "socios comerciales" realistas, dando instrucciones a los empleados para que autoricen grandes transferencias. El Departamento de Justicia (DOJ) advierte de que estas videollamadas falsas son inquietantemente creíbles, especialmente en entornos de trabajo remotos o híbridos [4] [7]. [4][7]

Nota de Fact-Check:
Las fuerzas de seguridad han confirmado múltiples incidentes, pero no han publicado un recuento oficial de casos de deepfake. Sin embargo, los ejemplos denunciados coinciden con las advertencias constantes del FBI y el Departamento de Justicia sobre un "fuerte repunte" en el uso de la tecnología deepfake para estafas [2][4][7]. [2][4][7]

3. Sextorsión generada por IA y abuso de medios sintéticos

Alterar imágenes inocentes para explotarlas

  • ¿Qué ocurre?
    Los delincuentes toman fotos benignas (de redes sociales o de otro tipo) y las manipulan para convertirlas en material explícito. La llamada "deepfake sextortion" se nutre de la capacidad de la IA para generar imágenes o vídeos inquietantemente convincentes. [5]
  • Entre las víctimas hay menores
    El FBI, en un PSA de 2023, señaló un aumento de los casos de sextorsión en los que las fotos de menores se convertían en material pornográfico falso. A continuación, los delincuentes amenazan con compartir o publicar estas imágenes fabricadas a menos que las víctimas paguen o proporcionen contenido sexual real. [5]
  • Material sobre abuso sexual infantil (CSAM)
    El DHS y el DOJ confirman que se están utilizando herramientas de IA para crear contenidos de abuso sexual infantil generados por IA. En agosto de 2024, el DOJ detuvo a un individuo por utilizar IA para producir pornografía infantil[6]. [6] Las fuerzas de seguridad subrayan que "el CSAM generado por IA sigue siendo CSAM". 

Recordatorio de comprobación de hechos:
Las fuentes oficiales consideran inequívocamente ilegal el CSAM manipulado por IA. Los datos precisos sobre su prevalencia son escasos, pero las múltiples acciones de represión confirman su amenaza real y creciente.

4. Desinformación e interferencia política impulsadas por la IA

  • Injerencia electoral 2.0
    En julio de 2024, el Departamento de Justicia desarticuló una granja de bots rusa encubierta que utilizaba personajes falsos mejorados con IA para difundir desinformación [4][7]. Estas cuentas de redes sociales generadas por IA difundían narrativas divisivas con una sofisticación que los filtros automatizados tenían dificultades para detectar.
  • Influencia nacional y extranjera
    El director del FBI, Wray, señala que "la IA generativa... reduce la barrera de entrada" [1], lo que facilita tanto a los adversarios extranjeros como a los grupos nacionales la elaboración de "noticias falsas" verosímiles, la falsificación de vídeos o la suplantación de políticos.
  • No sólo spam
    Este contenido puede socavar la confianza pública, sembrar la confusión durante las elecciones o fomentar planes financieros maliciosos [4] [8]. [4] [8] El DHS clasifica la desinformación impulsada por IA como un delito "cibernético", reconociendo que, aunque puede no implicar piratería directa, explota las plataformas digitales con fines ilegales o engañosos.

Fact-Check Context:
El DOJ ha documentado bien el desmantelamiento de "granjas de bots". [4] [7] Investigadores de seguridad independientes corroboran que la creación de personajes generados por IA va en aumento. Sin embargo, los organismos oficiales rara vez publican cifras exactas (por ejemplo, "30% de la desinformación se basa ahora en la IA"). En su lugar, se centran en dar a conocer la gravedad y sofisticación de estas campañas.

5. Amenazas emergentes: Malware y piratería asistidos por IA

WormGPT y más allá

En foros clandestinos, los delincuentes promocionan modelos de inteligencia artificial, como "WormGPT", perfeccionados para escribir programas maliciosos. El DHS advierte de que estas herramientas "llenan lagunas de conocimiento, como la codificación informática", lo que permite a hackers relativamente inexpertos lanzar ataques avanzados [8]. Aunque el malware escrito con IA a gran escala es todavía limitado, los expertos predicen que será una preocupación importante en el futuro.

¿Malware adaptable?

Los investigadores de seguridad han demostrado que el malware basado en IA puede modificar su código ("polimorfismo") para eludir la detección antivirus. El DHS también ha teorizado sobre el malware de "autoaprendizaje" que prueba de forma autónoma nuevos exploits, pero los ejemplos en el mundo real siguen siendo raros en 2024. [8]

Nota de Fact-Check:
La mayoría de los ataques de gran repercusión (como el ransomware) siguen basándose en métodos convencionales, pero el FBI, la NSA y los expertos en ciberseguridad ven indicios de que la IA forma parte cada vez más del arsenal de los ciberdelincuentes. Es de esperar que en 2025 se produzcan más avances y, posiblemente, más estadísticas oficiales.

Impactos y estadísticas clave (verificadas)

  1. Denuncias generales por ciberdelincuencia
    • El IC3 del FBI recibió más de 880.000 denuncias por ciberdelincuencia en 2023, con pérdidas superiores a los 1.500 millones de euros, lo que supone un aumento de 221.600 millones de euros con respecto a 2022. [3]
    • Aunque no se tiene constancia de la parte exacta en la que interviene la IA, los expertos creen que el realismo de la IA impulsa mayores tasas de éxito en las estafas de phishing, BEC y suplantación de identidad. [2][3]
  2. Compromiso del correo electrónico empresarial (BEC)
    • Sigue siendo una de las formas más costosas de ciberdelincuencia, superando los $2.900 millones en pérdidas declaradas en 2023. [3] ¿El papel de la IA? Correos electrónicos más pulidos, mejor localización y, ocasionalmente, llamadas o vídeos deepfake.
  3. Deepfake Sextortion
    • El FBI no publica un recuento definitivo de incidentes de sextorsión basados en deepfakes, pero han aparecido "múltiples informes nuevos cada mes". [5]
    • Impacto en la víctima: Humillación personal, extorsión financiera y trauma emocional.
  4. Operaciones de desinformación
    • El Departamento de Justicia desbarató una granja de bots rusos impulsada por IA en julio de 2024 [4][7]. Las agencias federales subrayan la amenaza de la desinformación propagada por IA para las elecciones y los procesos democráticos de Estados Unidos.
  5. Comprobación del mito de la "tercera economía mundial
    • Algunos titulares de los medios de comunicación comparan los costes mundiales de la ciberdelincuencia con el PIB de las principales naciones, pero los $10-12.000 millones de pérdidas anuales declaradas en Estados Unidos no alcanzan obviamente esa escala [3]. Los analistas sí estiman que el impacto económico mundial de la ciberdelincuencia podría alcanzar los billones, situándose teóricamente entre las principales economías si se incluyen todos los costes indirectos.
  6. "Contexto "Uno de cada cinco delitos en línea
    • En algunas regiones, alrededor del 20-25% de los delitos denunciados están ahora relacionados con la cibernética. Esta cifra no es necesariamente válida en todo el mundo, pero pone de relieve que una parte cada vez mayor de la delincuencia total es digital.

Aplicación de la ley y respuestas políticas

  1. El DOJ endurece su postura
    • La fiscal general adjunta, Lisa Monaco, prometió "penas más severas" para los delincuentes que exploten la IA para amplificar los delitos, tratándola como un factor agravante en casos de fraude, explotación infantil y otros. [6]
  2. Grupo de trabajo sobre IA para la seguridad nacional
    • El DHS está ampliando sus esfuerzos para detectar estafas generadas por IA, gestionar la detección de deepfakes y proteger a los menores de la explotación generada por IA[8]. [8] También está estudiando cómo utilizar la IA para la defensa, escaneando las redes en busca de anomalías.
  3. Cumplimiento corporativo
    • El Departamento de Justicia pide ahora a las empresas que muestren cómo gestionan los riesgos de la IA en sus programas de cumplimiento. No evitar que los empleados hagan un mal uso de la IA, o ignorar las vulnerabilidades de seguridad de la IA, puede aumentar la responsabilidad de las empresas. [6]
  4. Campañas de sensibilización pública
    • El FBI, la FCC y la FTC lanzaron alertas a los consumidores sobre estafas de "abuelos" basadas en IA y llamadas de secuestro falsas. ¿El mensaje? Verifique siempre las llamadas o mensajes sospechosos: ver (u oír) ya no es creer en la era de la IA. [2][5]

56% de los estadounidenses dicen estar preocupados por la IA dañina

En noviembre de 2024, Undetectable AI encuestó a 1.000 estadounidenses en todo Estados Unidos. [9] Los encuestados, de entre 18 y 27 años, indicaron que 23% creían que la IA supone una amenaza existencial para la humanidad, 18% expresaron su preocupación por el uso ilegal de datos o la privacidad de los mismos, y 15% se mostraron preocupados por el uso de la tecnología de IA para crear deepfakes.

Mirando al futuro: 2025 y más allá

A pesar de la escasez de datos concretos sobre la prevalencia exacta de los ataques impulsados por IA, la tendencia es clara: la IA está reduciendo las barreras para los delincuentes, permitiendo estafas más realistas e intensificando la desinformación. Mientras tanto, los defensores -aplicación de la ley, expertos en ciberseguridad y reguladores- se movilizan. Espere:

  • Más IA en Defensa: Herramientas para el análisis forense de deepfakes, filtros de phishing basados en IA y detección de anomalías en redes.
  • Mayor supervisión reguladora: Es probable que el Departamento de Justicia, la SEC y otros organismos tomen medidas más enérgicas contra el uso indebido de la IA, imponiendo penas más severas a las personas u organizaciones que faciliten delitos relacionados con la IA.
  • Mayor cooperación internacional: La ciberdelincuencia no conoce fronteras, y las operaciones conjuntas -como el desmantelamiento de una granja de bots rusa por parte del Departamento de Justicia en julio de 2024- serán cada vez más frecuentes.

Conclusión: Un multiplicador de fuerzas para la ciberdelincuencia

El tema central que se desprende de las fuentes oficiales y de los análisis de expertos es que la IA potencia los métodos de los ciberdelincuentes. Desde el phishing hiperrealista hasta las llamadas de voz de "falsos directores ejecutivos", los delincuentes utilizan la IA generativa para mejorar enormemente sus tasas de éxito y explotar a víctimas que antes confiaban en simples "comprobaciones viscerales" (faltas de ortografía, acentos raros, etc.) para detectar las estafas.

Manténgase alerta e informado

La concienciación pública y la verificación son fundamentales en este entorno de rápido crecimiento. Tanto si es usted un alto ejecutivo que recibe una petición de última hora, un jubilado que recibe llamadas de un "nieto en crisis" o un usuario de las redes sociales que se enfrenta a un vídeo sensacionalista de un político, recuerde: si algo le parece raro, verifíquelo. La inteligencia artificial permite a los delincuentes imitar a personas reales o crear ilusiones con una precisión asombrosa.

Metodología

Llevamos a cabo esta investigación examinando recursos gubernamentales oficiales, (como documentos publicados por el Departamento de Justicia y el Informe Anual sobre Delitos en Internet del IC3). También examinamos los comentarios de terceros de confianza y la cobertura de las nuevas amenazas de ciberdelincuencia relacionadas con la inteligencia artificial. También hemos encuestado a más de 1.000 corresponsales en Estados Unidos para conocer sus preocupaciones sobre la IA. Por último, hemos comprobado los hechos de este informe para garantizar que todas las fuentes citadas son precisas y están actualizadas.

Uso legítimo

Le invitamos a que incluya estos datos en un artículo. No olvide citar a Undetectable AI e incluir un enlace a esta página para que los lectores puedan consultar el informe completo.

Referencias

  1. FBI: Prepárese para un año electoral con amenazas a gran velocidad, impulsadas por los malos con IA - Defensa Uno
  2. El FBI advierte de la creciente amenaza de los ciberdelincuentes que utilizan inteligencia artificial (8 de mayo de 2024)
  3. Centro de Denuncias de Delitos en Internet (IC3) - Informe 2023 sobre delitos en Internet y anuncios de servicio público relacionados
  4. Oficina de Asuntos Públicos | El Departamento de Justicia lidera los esfuerzos... para desarticular una granja de bots en redes sociales encubierta y operada por el gobierno ruso (9 de julio de 2024)
  5. Internet Crime Complaint Center (IC3) | PSA: Malicious Actors Manipulating Photos and Videos to Create Explicit Content and Sextortion Schemes (5 de junio de 2023)
  6. Detenido un hombre por producir, distribuir y poseer imágenes generadas por inteligencia artificial de menores en conductas sexualmente explícitas
  7. DOJ & Partners Disrupt Russian Bot Farm - Enforcement Details (julio de 2024)
  8. DHS: "Impacto de la inteligencia artificial en las actividades delictivas e ilícitas" (27 de septiembre de 2024) 
  9. Encuesta de 2024 realizada por Undetectable AI

Copyright © 2023 Código Blog Pro. Todos los derechos reservados