Symbolbild: Videocall und Office im redaktionellen Magazinkontext
03.04.2026

Llamada deepfake del jefe: el fraude CEO en la mediana empresa

7 min de lectura

En enero de 2024, un empleado de la consultora británica de ingeniería Arup transfirió 25,6 millones de dólares a estafadores. Creía estar participando en una videollamada con su director financiero y varios colegas. Todos los participantes eran deepfakes. Este caso no fue un suceso aislado: los ataques de voice phishing aumentaron un 442 % en 2024, y los intentos de fraude mediante deepfake contra empresas alemanas subieron un 53 %. La mediana empresa está especialmente expuesta. Porque allí donde las estructuras jerárquicas planas y los procesos de toma de decisiones ágiles constituyen una ventaja, se convierten en un punto débil frente al fraude CEO.

Lo más importante

  • Voice-Phishing más 442 %: Las voces generadas por IA hacen que las llamadas del supuesto CEO sean casi indistinguibles del original (CrowdStrike, Global Threat Report 2025).
  • 80 % sin protocolos deepfake: La mayoría de las empresas no tienen procesos de verificación para solicitudes sospechosas de video o teléfono de directivos.
  • Pérdida de 25,6 millones de dólares en Arup: Una sola videollamada deepfake con un CFO falso bastó para la mayor transacción individual documentada hasta la fecha (CNN, mayo 2024).
  • El BSI recomienda verificación de devolución de llamada: Protocolos de palabra clave y devoluciones de llamada obligatorias a números registrados como primera medida de protección contra el fraude CEO.
  • Alemania más 53 %: Los intentos de fraude deepfake aumentaron significativamente en 2025, especialmente en la mediana empresa con menos instancias de control (Sumsub Identity Fraud Report, 2025).

Cómo funciona un ataque deepfake en la práctica

El típico fraude CEO de la vieja escuela era un correo electrónico: el supuesto director ejecutivo pide a contabilidad que realice urgentemente una transferencia. La dirección del remitente era falsa, el texto torpe, la estafa detectable tras algunas formaciones. La nueva generación funciona de otra manera.

En el caso de Arup, los atacantes habían recopilado primero grabaciones de video y audio del CFO disponibles públicamente. Videos de LinkedIn, apariciones en conferencias y entrevistas en podcasts proporcionaron suficiente material para clonar la voz y la apariencia. Luego programaron una videollamada en la que no solo aparecía el CFO, sino también varios colegas más como deepfakes. El empleado vio caras familiares, escuchó voces familiares y discutió un proyecto en curso. La instrucción de transferencia llegó en el contexto de una conversación empresarial normal.

La barrera técnica para tales ataques está disminuyendo rápidamente. Los servicios actuales de clonación de voz necesitan menos de diez segundos de material de audio para copiar una voz de manera convincente. Los video-deepfakes en tiempo real son posibles con software de libre disposición. La calidad ha alcanzado un punto en el que incluso los empleados capacitados ya no pueden hacer una distinción fiable.

«La combinación de clonación de voz asistida por IA y video-deepfakes en tiempo real representa una amenaza cualitativamente nueva para la que muchas empresas no están preparadas.»
– BSI, Informe de situación sobre la seguridad de TI en Alemania 2025

Por qué la mediana empresa está especialmente expuesta

Las grandes corporaciones suelen tener procesos de aprobación de transferencias de varios niveles: principio de cuatro ojos, regulaciones de firmas a partir de ciertos umbrales, controles de cumplimiento automatizados. En la mediana empresa, la realidad suele ser diferente.

En empresas de 50 a 500 empleados, contabilidad conoce personalmente al director ejecutivo. Una llamada del jefe pidiendo una transferencia urgente no es algo inusual. Los caminos cortos que hacen operativamente fuerte a la mediana empresa crean simultáneamente superficies de ataque: menos instancias de control, más confianza en las instrucciones orales, menor umbral de inhibición para hacer preguntas.

A esto se suma la visibilidad pública de los directivos. Los directores ejecutivos de empresas medianas suelen estar activos en LinkedIn, hablan en eventos del sector y dan entrevistas. Cada aparición pública proporciona material para deepfakes. La paradoja: cuanto más exitosamente construye un empresario su marca personal, más fácil se convierte en objetivo.

Las cifras confirman el riesgo: el 80 % de las empresas no tienen protocolos establecidos o planes de respuesta para ataques basados en deepfakes, según análisis del sector. En la mediana empresa, esta cuota probablemente sea aún mayor, porque los equipos de ciberseguridad a menudo consisten en una sola persona o no existen.

El balance de daños: lo que cuesta el fraude deepfake

El daño va más allá de la transferencia inmediata. En el caso de Arup, 25,6 millones de dólares desaparecieron antes de que se detectara el fraude. El daño mundial por fraude deepfake ascendió a más de 200 millones de dólares estadounidenses solo en el primer trimestre de 2025, siendo Norteamérica la más afectada con el 38 % de los incidentes (Resemble AI Q1 2025 Report). La cifra oscura es alta: muchas empresas no informan de tales incidentes, por vergüenza o por miedo a daños reputacionales.

442 %
Aumento del voice phishing del primer semestre al segundo semestre de 2024
Fuente: CrowdStrike Global Threat Report 2025

Además del daño financiero directo, surgen costes derivados: investigaciones forenses, tramitación jurídica, refuerzo de controles internos y, en su caso, obligaciones de notificación según el Reglamento General de Protección de Datos (RGPD), si se vieron afectados datos personales. Y el daño a la confianza dentro de la empresa es prácticamente incuantificable: el empleado que inició la transferencia hizo exactamente lo que sabía que debía hacer.

La situación en materia de seguros es heterogénea. Las pólizas clásicas de seguro cibernético suelen cubrir los daños derivados de ingeniería social únicamente hasta un sublímite bajo. Algunas pólizas excluyen expresamente el fraude mediante deepfake. Las empresas deben revisar el alcance de cobertura de su póliza respecto a los ataques basados en inteligencia artificial y, en su caso, renegociarla.

La cadena de ataque: desde el perfil de LinkedIn hasta el director financiero falsificado

Un ataque deepfake contra una empresa mediana sigue un patrón sistemático. La fase preparatoria comienza semanas antes del intento de fraude propiamente dicho y utiliza exclusivamente información accesible públicamente.

Fase 1: Reconocimiento. Los atacantes analizan la página web de la empresa, el aviso legal, los perfiles de LinkedIn de la dirección ejecutiva y del departamento financiero. Identifican las estructuras de decisión, los proyectos actuales (mediante comunicados de prensa) y las relaciones personales dentro del equipo directivo. En muchas empresas medianas, basta con la página «Sobre nosotros» para reconstruir toda la cadena de decisión.

Fase 2: Recopilación de material. Para crear un clon de voz bastan menos de diez segundos de audio. Para un deepfake de vídeo en tiempo real, los modelos actuales necesitan entre 30 y 60 segundos de material audiovisual de alta calidad. Los vídeos publicados en LinkedIn, que muchos directivos suben con regularidad, proporcionan ambos tipos de material simultáneamente. También son fuentes muy productivas las grabaciones de conferencias disponibles en YouTube o en los canales corporativos.

Fase 3: Elección del momento. Los atacantes escogen un instante en el que el verdadero director ejecutivo es difícil de localizar: semanas de ferias comerciales, periodos vacacionales o viernes por la tarde. En el caso de Arup, el director financiero real se encontraba de viaje de negocios. La urgencia de la transferencia se justificó con una supuesta adquisición sometida a plazos ajustados.

Fase 4: Ejecución. Se realiza la llamada deepfake y se ordena la transferencia. Los fondos se reenvían inmediatamente a varias cuentas bancarias ubicadas en distintos países. Pasadas 24 a 48 horas, el dinero es prácticamente irrecuperable.

Este patrón demuestra que la vulnerabilidad no radica en la tecnología de la empresa, sino en la confianza entre las personas. Precisamente por eso, las medidas organizativas resultan más eficaces que las técnicas.

Herramientas de detección: qué ofrece el mercado y qué realmente funciona

La detección de deepfakes es una carrera entre atacantes y defensores, una carrera que los defensores pierden estructuralmente. Cada mejora en el software de detección es superada rápidamente por modelos generadores aún más avanzados. No obstante, existen herramientas que reflejan el estado actual de la técnica.

En el ámbito del análisis, productos como Deepfake Detection de Pindrop, Reality Defender y Sensity AI emplean modelos basados en inteligencia artificial para identificar artefactos en imagen, sonido y vídeo: movimientos labiales antinaturales, inconsistencias en la iluminación o anomalías en el espectro de frecuencias de la voz. Estas herramientas funcionan bien con vídeos previamente grabados, pero alcanzan sus límites ante deepfakes en tiempo real.

Más relevantes para el uso empresarial son las soluciones que protegen el canal de comunicación en lugar de tratar de detectar directamente el deepfake. Plataformas como Veridas o iProov apuestan por la verificación biométrica: antes de que se inicie una transacción sensible, el solicitante debe autenticarse mediante una verificación de identidad independiente y certificada. Esto es técnicamente más complejo, pero más robusto que intentar desenmascarar el deepfake.

La evaluación sincera: ninguna herramienta ofrece una seguridad del cien por cien. La detección técnica es un componente útil, pero no sustituye las medidas organizativas. Por ello, el BSI (Oficina Federal de Seguridad Informática) recomienda un enfoque combinado que integre tecnología y procesos.

Medidas inmediatas: protocolo de verificación en 30 minutos

La defensa más eficaz contra el fraude CEO mediante deepfake es organizativa, no técnica. Un protocolo de verificación puede implantarse en media hora y no cuesta nada más que disciplina.

1. Obligación de devolver la llamada para transacciones financieras. Toda orden de pago superior a un umbral definido (por ejemplo, 5.000 euros) debe confirmarse mediante una llamada de devolución a un número telefónico conocido y registrado internamente. Ni el número incluido en el correo electrónico ni el número mostrado en la videollamada, sino únicamente el número que figura en el directorio interno. Esta regla es absolutamente inexcusable, incluso si llama personalmente el director ejecutivo y señala una presión temporal.

2. Sistema de palabra clave. Una palabra clave acordada previamente, que nunca se utilice en ninguna comunicación digital y que solo se haya intercambiado verbalmente y en persona. En caso de dudas sobre la identidad, se solicitará dicha palabra clave. Simple, analógico y resistente a los deepfakes.

3. Autorización por dos personas. Ninguna persona individual podrá autorizar transferencias superiores al umbral establecido. El principio de los cuatro ojos ya es habitual en muchas empresas. La extensión específica para los deepfakes exige que ambas personas autorizadoras verifiquen la orden de forma independiente, sin hacerlo simultáneamente en la misma llamada o en el mismo chat.

4. Formación en concienciación. El personal de finanzas y asistencia debe saber que los deepfakes existen y cuán convincentes pueden ser. El caso Arup constituye el mejor material formativo: un experimentado profesional financiero de un grupo multinacional cayó en la trampa. Nadie es inmune. Repetir periódicamente esta formación es decisivo, porque la tecnología evoluciona más rápido que la concienciación al respecto.

5. Definición de un procedimiento de emergencia. ¿Qué ocurre si se detecta un intento de fraude? ¿A quién se informa? ¿Cómo se detiene la transferencia? Cuanto más rápida sea la respuesta, mayor será la probabilidad de recuperar los fondos. Los bancos suelen ofrecer una ventana temporal muy breve para anular transferencias.

Marco jurídico: qué establece el derecho penal y qué pueden hacer las empresas

El fraude CEO basado en deepfake se encuadra en el artículo 263 del Código Penal alemán (fraude) y, en su caso, también en el artículo 263a (fraude informático). Sin embargo, la persecución penal es difícil: los autores suelen operar internacionalmente y disfrazar los flujos de dinero mediante monederos criptográficos o cuentas bancarias en terceros Estados.

Para las empresas afectadas, la vertiente civil resulta más relevante: ¿quién responde del daño? Normalmente, el empleador, salvo que pueda demostrarse que el empleado actuó con negligencia grave. Y aquí es precisamente donde el protocolo de verificación se convierte en un escudo protector: quien pueda documentar que existían procesos establecidos y que se aplicaron correctamente, tendrá una posición mucho más sólida en caso de litigio que una empresa que no adoptó ninguna medida preventiva.

A nivel internacional, las autoridades policiales están incrementando progresivamente su cooperación. Europol ha identificado el fraude basado en deepfake como una amenaza creciente y coordina investigaciones transfronterizas. En Alemania, las unidades centrales contra la ciberdelincuencia de las fiscalías generales son las competentes. No obstante, la tasa de éxito en la recuperación de fondos es muy baja una vez que los importes abandonan el sistema bancario europeo.

Para la mediana empresa, la conclusión jurídica más importante es la siguiente: la prevención no solo es rentable desde el punto de vista económico, sino también desde el punto de vista de la responsabilidad legal. Los directivos que no hayan adoptado medidas de protección adecuadas podrían verse personalmente responsables en determinadas circunstancias. Por tanto, la implantación de un protocolo de verificación documentado no es únicamente una medida de seguridad, sino también una acción destinada a limitar la responsabilidad del director ejecutivo.

El BSI ha señalado explícitamente, en su informe sobre la situación de ciberseguridad 2025, la amenaza que representan los deepfakes para las empresas y recomienda, además de medidas técnicas, sobre todo conceptos organizativos de protección. Hasta la fecha no existe una obligación específica de notificación de incidentes relacionados con deepfakes, pero las empresas sujetas a la Directiva NIS2 o a la ley general sobre infraestructuras críticas (KRITIS) deben notificar, en cualquier caso, los incidentes de seguridad graves.

Gestionar conscientemente la presencia digital

Los directivos se enfrentan a un dilema: la visibilidad en LinkedIn y en los medios es beneficiosa para los negocios, pero al mismo tiempo suministra material para la creación de deepfakes. La solución no consiste en desaparecer, sino en gestionar de forma más consciente los contenidos públicos de audio y vídeo.

Medidas concretas: publicar preferentemente vídeos en LinkedIn con superposiciones de texto y música, en lugar de con voz continua. No archivar entrevistas en formato podcast en el canal corporativo, sino redirigir a la plataforma del presentador. No publicar grabaciones de conferencias abiertamente en YouTube, sino alojarlas tras un área restringida con acceso mediante inicio de sesión. Estas medidas no eliminan el riesgo, pero sí elevan considerablemente el esfuerzo necesario para los atacantes.

Conclusión

El fraude CEO mediante deepfake no es un escenario futurista ni un problema exclusivo de las grandes corporaciones. La tecnología ya está disponible, los costes para los atacantes disminuyen y la calidad mejora constantemente. La mediana empresa es un objetivo atractivo debido a sus estructuras jerárquicas planas y sus procesos de toma de decisiones informales.

La buena noticia: las contramedidas más eficaces no son caras y se pueden implementar de inmediato. Un protocolo de devolución de llamadas, un sistema de palabra clave y la aplicación rigurosa del principio de los cuatro ojos en las transacciones financieras no tienen ningún coste y ofrecen una protección más fiable que cualquier software. Quien además invierta en formación sobre concienciación y revise su seguro cibernético para verificar su cobertura frente a fraudes mediante deepfake, habrá abordado la mayor parte del riesgo.

Preguntas frecuentes

¿Cómo identifico una videollamada deepfake?

Preste atención a una sincronización labial antinatural, una iluminación inconsistente en el rostro, artefactos en los bordes del cabello y las orejas, así como retardos inusuales. Sin embargo, los deepfakes actuales alcanzan una calidad que hace poco fiable la detección visual. No confíe en sus ojos, sino en los procesos de verificación.

¿Cuánto material necesitan los atacantes para crear un deepfake de voz?

Los servicios actuales de clonación de voz requieren menos de diez segundos de material auditivo para generar una copia convincente de una voz. Los vídeos de LinkedIn, las apariciones en podcasts o las entrevistas en YouTube suelen ofrecer con creces el material necesario.

¿Cubre mi seguro cibernético el fraude mediante deepfake?

Esto depende de la póliza. Muchos seguros cibernéticos establecen sublímites bajos para los daños derivados de ingeniería social o excluyen expresamente los ataques basados en inteligencia artificial. Revise el alcance de la cobertura con su corredor de seguros y, en su caso, negocie una ampliación.

¿Qué es un protocolo de verificación?

Un proceso definido que garantiza que las órdenes de pago y otras transacciones sensibles se confirman mediante un segundo canal independiente. Sus elementos típicos son la devolución de llamada a un número telefónico registrado internamente, la solicitud de una palabra clave y la autorización por dos personas.

¿Debo notificar un ataque deepfake?

No existe una obligación específica de notificación para incidentes relacionados con deepfakes. No obstante, las empresas sujetas a la Directiva NIS2 o a la ley general sobre infraestructuras críticas (KRITIS) deben notificar los incidentes de seguridad graves. En caso de daños financieros, se recomienda presentar una denuncia penal ante la Oficina Federal de Investigación Criminal (BKA) o ante la unidad especializada en ciberdelincuencia correspondiente.

¿Son realmente objetivos de los ataques deepfake las pequeñas empresas?

Sí. La reducción de los costes asociados a la creación de deepfakes hace económicamente rentable atacar a objetivos más pequeños. Además, las PYME suelen contar con menos controles que las grandes corporaciones. Los importes defraudados son individualmente menores, pero la tasa de éxito es mayor.

Más contenido de la red MBF Media

  • cloudmagazin – Cloud, SaaS e infraestructura TI para responsables de decisión
  • Digital Chiefs – Liderazgo, transformación y perspectivas para altos directivos
  • SecurityToday – Ciberseguridad, cumplimiento normativo y protección de datos

Fuente de imagen: Diva Plavalaguna / Pexels

También disponible en

Una revista de evernine media GmbH