CUANDO LA VOZ QUE ORDENA YA NO ES HUMANA, PERO EL ERROR SÍ LO ES.

Por Javier Grifaldo CPP, CICP, DES, DSI
Consultor en Seguridad y Gestión de Riesgos
Introducción: el nuevo rostro del fraude corporativo
El 2025 será recordado no solo por el avance acelerado de la inteligencia artificial, sino por la manera en que el delito supo adaptarse más rápido que muchas organizaciones. Mientras las empresas invertían en automatización, ciberseguridad y transformación digital, una amenaza silenciosa crecía en paralelo: el fraude mediante llamadas de engaño potenciadas con inteligencia artificial.
No hubo explosiones mediáticas ni titulares constantes. En muchos casos, las pérdidas llegaron disfrazadas de transferencias “urgentes”, instrucciones “extraordinarias” y decisiones tomadas bajo presión jerárquica. El fraude dejó de ser ruidoso; se volvió creíble.
De la extorsión telefónica al fraude inteligente
Durante años, la extorsión telefónica fue un delito basado en volumen: muchas llamadas, pocos resultados. En 2025, este modelo cambió radicalmente.
Los grupos delictivos comenzaron a operar con:
•Investigación previa del objetivo (organigramas, redes sociales, comunicados oficiales).
•Segmentación precisa de víctimas (guardias, administrativos, supervisores, mandos medios).
•Uso de IA generativa para construir narrativas coherentes.
•Automatización parcial del contacto inicial.
•Intervención humana únicamente en el momento crítico.
El fraude dejó de ser improvisado y se convirtió en un proceso estructurado, eficiente y altamente rentable, similar a un modelo empresarial… pero criminal.
El fraude como servicio: la profesionalización del delito
Uno de los fenómenos más relevantes de 2025 fue la consolidación del “fraude como servicio”. Grupos criminales comenzaron a ofrecer paquetes completos que incluían:
•Clonación de voz bajo demanda.
•Guiones personalizados por industria.
•Listas jerarquizadas de contactos.
•Infraestructura VoIP temporal.
•Manuales de presión psicológica.
Esto redujo la barrera de entrada para nuevos delincuentes y multiplicó exponencialmente los ataques, incluso contra empresas que nunca antes habían sido objetivo.
Deepfakes de audio: la ruptura de la confianza histórica
Uno de los puntos de quiebre del año fue la pérdida de una certeza básica: “si reconozco la voz, es real”.
La clonación de voz permitió replicar:
•Entonación y ritmo.
•Muletillas personales.
•Pausas naturales.
•Acentos regionales.
•Estados emocionales como urgencia, molestia o autoridad.
La voz dejó de ser una prueba. La autoridad ya no se ve ni se escucha; se simula.
Sectores donde la jerarquía y la rapidez son parte de la operación diaria —seguridad privada, logística, retail, finanzas, manufactura— fueron especialmente vulnerables.
Ingeniería social aumentada: cuando la IA aprende del ser humano
En 2025, la IA no solo ejecutó guiones; aprendió de la reacción humana.
Los sistemas fueron capaces de:
•Ajustar el tono ante dudas.
•Incrementar presión si detectaban obediencia.
•Cambiar de estrategia ante resistencia.
•Simular empatía, molestia o urgencia extrema.
Cada llamada se convirtió en un evento dinámico. El error humano no fue accidental; fue inducido progresivamente.
El uso del tiempo como arma: la urgencia fabricada
Un patrón recurrente fue el uso deliberado de la urgencia artificial:
•“No hay tiempo para validar”.
•“Es una instrucción directa”.
•“Luego lo explico”.
•“Es un tema delicado”.
Estas frases activan la suspensión del juicio crítico. La IA aprendió a explotar el miedo a equivocarse, a desobedecer o a “quedar mal”.
El fraude no gritó; presionó con precisión.
Por qué los sistemas no detectaron el fraude
Muchas organizaciones confiaron en que sus controles tecnológicos serían suficientes. No lo fueron.
Las razones:
•Las llamadas ocurren fuera de los sistemas digitales.
•No hay malware ni intrusión técnica.
•Se usan credenciales aparentemente válidas.
•El error parece humano, no criminal.
La seguridad estaba diseñada para ataques técnicos, no para ataques cognitivos.
El silencio corporativo y el subregistro
Otro factor crítico fue la falta de denuncia. Muchas empresas:
•No reportaron por temor reputacional.
•Clasificaron el evento como “error interno”.
•Absorbieron la pérdida para evitar auditorías.
•Prefirieron corregir en silencio.
Esto permitió que el delito creciera sin resistencia visible, consolidándose como una amenaza estructural.
Sectores más impactados y patrones comunes
Aunque ningún sector estuvo exento, se repitieron impactos en:
•Seguridad privada: instrucciones falsas a guardias y supervisores.
•Logística: cambios de ruta y liberación de mercancía.
•Retail: autorizaciones extraordinarias de pago.
•Finanzas: transferencias urgentes fuera de horario.
•Manufactura: accesos no autorizados por órdenes directivas falsas.
El denominador común fue la presión operativa constante, no la falta de tecnología.
El factor humano: el eslabón más explotado
El problema no fue falta de compromiso, sino falta de preparación específica.
El personal operativo:
•No fue entrenado para identificar deepfakes.
•No contaba con protocolos claros de validación.
•Operaba bajo presión y jerarquía.
•Recibía mensajes contradictorios: rapidez vs. control.
La IA no sustituyó al ser humano; lo superó en preparación para el engaño.
La cadena de errores y el impacto cultural
En muchos casos, una sola llamada provocó una reacción en cadena:
1. Instrucción falsa.
2. Obediencia jerárquica.
3. Omisión de validación.
4. Normalización de la excepción.
5. Detección tardía.
Más allá de las pérdidas económicas, el impacto fue cultural: desconfianza interna, miedo a cuestionar y sobrerregulación reactiva.
La capacitación que no funcionó
Muchas capacitaciones fallaron porque:
•Fueron genéricas.
•No simularon presión emocional real.
•No empoderaron al personal para decir “no”.
•No enseñaron a cuestionar la autoridad aparente.
La lección fue clara: la capacitación debe incomodar para ser efectiva.
Prepararse para 2026: el cambio de paradigma
Las organizaciones más maduras están adoptando un nuevo principio:
“Verificar no es desconfiar, es proteger.”
Esto implica:
•Doble validación obligatoria.
•Frases clave internas.
•Simulacros realistas de fraude.
•IA defensiva para detectar patrones atípicos.
•Cultura que premie la prevención.
La IA como aliada, no como amenaza
La misma IA usada para defraudar puede prevenir:
•Análisis de comportamiento.
•Detección de urgencias atípicas.
•Alertas por instrucciones inconsistentes.
•Apoyo a decisiones críticas.
La diferencia está en el criterio humano que la gobierna.
Conclusión: la gran lección de 2025
El fraude por llamadas de engaño con IA dejó una advertencia contundente:
La realidad puede ser fabricada, pero la responsabilidad sigue siendo humana.
En un mundo donde la voz puede ser falsa y la autoridad simulada, la seguridad corporativa dependerá de procesos, cultura y capacidad crítica.
Porque en la era de la inteligencia artificial, La verdadera seguridad no está en escuchar mejor, sino en cuestionar má