10. April 2026 | Print article |

AI Weapons Are in Use – And No One Controls Them

La IA generativa ha democratizado la ciberdelincuencia. Videos deepfake en tiempo real, correos de phishing personalizados en un alemán perfecto, búsqueda automatizada de vulnerabilidades en minutos en lugar de semanas: las herramientas existen, están libremente disponibles y se utilizan activamente. La regulación, por su parte, no llegará antes de 2027.

En resumen

  • Los correos de phishing generados por IA tienen una tasa de clics un 60 por ciento mayor que los redactados manualmente, porque son casi perfectos desde el punto de vista lingüístico y contextual
  • El fraude mediante deepfake a CEOs ha causado daños superiores a los 500 millones de dólares en 2024/2025 – con tendencia exponencial al alza
  • Herramientas ofensivas de IA como WormGPT y FraudGPT están disponibles libremente en la dark web y no requieren conocimientos técnicos previos
  • El Acta Europea de IA regula aplicaciones de IA, pero no el mal uso de la IA por parte de delincuentes – una brecha fundamental

La nueva cualidad de la amenaza

En febrero de 2024, un empleado financiero de una empresa multinacional en Hong Kong transfirió 25 millones de dólares – tras una videoconferencia con su director financiero y varios colegas. Todos los participantes eran deepfakes. Las voces, los rostros, los gestos: todo generado por IA en tiempo real. El empleado no tuvo ninguna razón para dudar.

Esto no es ciencia ficción. Es el presente. Y empeorará, porque la tecnología mejora y se abarata de forma exponencial, mientras que la detección avanza de forma lineal.

Los tres tipos de armas de IA

1. Ingeniería social a gran escala: El spear-phishing, que antiguamente requería horas de investigación manual por objetivo, puede ahora automatizarse con modelos de lenguaje grandes (LLMs). La IA lee perfiles de LinkedIn, analiza patrones de comunicación a partir de correos filtrados y genera mensajes personalizados en el idioma y tono del remitente. El resultado: correos de phishing que ni siquiera empleados formados pueden distinguir de mensajes reales.

2. Deepfakes como arma: La clonación de voz necesita solo tres segundos de material de audio. El intercambio de rostros funciona en tiempo real con hardware de consumo. La combinación – una llamada de vídeo que parece y suena como el CEO – es el vector perfecto de ingeniería social. Y elude cualquier medida técnica de seguridad, porque el vector de ataque es el ser humano.

3. Explotación autónoma: Herramientas asistidas por IA escanean redes, identifican vulnerabilidades y generan automáticamente código de explotación. Lo que un experto en pentesting experimentado tarda una semana en hacer, la IA lo realiza en minutos. La barrera de entrada para ataques técnicamente complejos cae a cero.

Why Regulation Fails

The European AI Act-the most ambitious AI legislation in the world-regulates the use of AI by companies and public authorities. High-risk applications require certification. Transparency obligations apply to generative AI. All of this is correct and important. But: criminals don’t seek certification.

The AI Act addresses legitimate applications. For malicious use by cybercriminals, an operational framework is missing. Who is responsible for preventing deepfake attacks? Who is accountable when an openly available open-source model is used for fraud? These questions haven’t even been raised, let alone answered.

Cómo pueden protegerse las empresas

Protección mediante procesos: Ninguna transferencia financiera superior a 10.000 euros sin confirmación mediante doble canal. Si el director financiero llama por vídeo, debe verificarse mediante un canal independiente – en persona o por teléfono en un número conocido. Siempre.

Concienciación sobre deepfakes: Los empleados deben saber que las videoconferencias perfectas pueden ser falsas. Que la voz del jefe puede clonarse. Que “lo he visto con mis propios ojos” ya no es un indicador de seguridad. Esta conciencia debe integrarse en todos los programas de formación.

IA contra IA: Las herramientas de detección de deepfakes mejoran, pero es una carrera armamentista. Las empresas deberían utilizarlas, pero no depender de ellas. La protección basada en procesos sigue siendo la última línea de defensa.

Conclusión: La caja de Pandora está abierta

La IA generativa no puede volver a meterse en la botella. Las herramientas existen, mejoran, y los delincuentes las utilizan más rápido de lo que la defensa puede reaccionar. La respuesta no es el pánico, sino la realista: robustecer procesos, formar a las personas, exigir verificación. Cualquier comunicación puede ser falsa. Actúe en consecuencia.

Key Facts

Daños por deepfakes: El fraude a CEOs mediante tecnología deepfake causó daños superiores a los 500 millones de dólares en 2024/2025 – el mayor caso individual implicó 25 millones de dólares.

Eficiencia del phishing con IA: Campañas automatizadas de spear-phishing generadas por IA alcanzan, según estudios, una tasa de clics del 60 por ciento – las redactadas manualmente oscilan entre el 12 y el 18 por ciento.

Preguntas frecuentes

¿Pueden detectarse los deepfakes de forma fiable?

Actualmente solo de forma limitada. Las herramientas de detección alcanzan una precisión del 85 al 90 por ciento en vídeos pregrabados. En deepfakes en tiempo real durante videoconferencias, la tasa de detección es significativamente menor. La tecnología es una carrera armamentista: la detección mejora, pero también lo hace la generación.

¿Es la IA de código abierto el problema?

En parte. Los modelos abiertos permiten la innovación y la investigación, pero también su mal uso. Prohibirlos sería contraproducente – desplazaría la investigación a China y Rusia. Mejor son las salvaguardas integradas en la arquitectura del modelo y una persecución penal rápida en caso de mal uso.

¿Cuánto cuesta la protección contra deepfakes para las empresas?

Las herramientas técnicas cuestan entre 5.000 y 50.000 euros anuales. La protección más eficaz – cambios de proceso y concienciación – cuesta una fracción de eso. La inversión en procesos de verificación para transacciones financieras ofrece el retorno más alto en protección contra deepfakes.

Related articles

Más del MBF Media Network

Fuente de imagen: Pexels

Tobias Massow

About the author: Tobias Massow

More articles by

Also available in

Deutsch
A magazine by Evernine Media GmbH