Los ciberdelincuentes están adoptando herramientas de IA para aumentar la velocidad, la eficiencia, la escala y la eficacia de sus ataques. Y estos nuevos ataques basados en la IA están teniendo un impacto muy real en las organizaciones.
Las estafas deepfake, que pueden incluir mensajes de voz o videollamadas fraudulentos, han causado pérdidas millonarias. En una ocasión, una videollamada falsa del director financiero de una multinacional indujo a un empleado del departamento financiero a transferir 25 millones de dólares a unos estafadores. Mientras tanto, los ataques de phishing generados por IA están engañando a más personas para que revelen sus credenciales, mientras que el malware mejorado con IA elude las defensas existentes.
La IA también está fomentando campañas de desinformación, el envenenamiento de datos y la manipulación de modelos, lo que puede poner en riesgo los sistemas basados en IA. Gartner ha clasificado recientemente la información errónea asistida por IA como uno de los principales riesgos cibernéticos.
Veremos ataques basados en la IA cada vez más sofisticados a medida que los ciberdelincuentes reinviertan una mayor parte de sus beneficios en nuevas tecnologías. Muchos ya están utilizando los beneficios de los ataques de bajo coste para financiar la I+D de planes más costosos y rentables. En muchos casos, los presupuestos de los atacantes son mucho más específicos que los de las organizaciones objetivo.
Para analizar cómo la IA está cambiando el panorama de la ciberseguridad, hablé con Khalid Kark, director de informática de Cloudflare para América, y Daniel Kendzior, responsable global de prácticas de seguridad de datos e IA en Accenture. Coincidimos en que la mayoría de las herramientas de seguridad tradicionales son ineficaces contra los ataques de IA. Para mejorar la resiliencia, las organizaciones tienen que transformar su enfoque de la seguridad. En lugar de depender de defensas pasivas, deben adoptar un enfoque más activo y preventivo, que aproveche la IA para combatirla.
A medida que los atacantes siguen adoptando herramientas de IA, todos debemos estar preparados para versiones más perfeccionadas de esquemas de ingeniería social conocidos, así como para ataques a gran escala basados en bots. Mientras tanto, es probable que veamos una variedad de nuevas tácticas, incluidos nuevos tipos de fraude de identidad. La concienciación sobre estos cambios en todas nuestras organizaciones será esencial para reforzar la seguridad.
Hay cosas que no cambian. Para los atacantes, la ingeniería social sigue siendo la táctica más fácil y barata. También es muy eficaz. Según un informe de Verizon, el 68 % de las fugas se debe a errores humanos, y muchos de esos errores están relacionados con la ingeniería social, como las estafas de phishing.
Pero lo que estamos observando es un aumento de la sofisticación y la coherencia de los ataques. Los atacantes están utilizando la IA generativa para crear correos electrónicos de phishing más convincentes, por ejemplo, sin ninguno de los errores ortográficos o gramaticales que podrían indicar un mensaje fraudulento.
Al mismo tiempo, los ciberdelincuentes utilizan cada vez más la IA para crear deepfakes. Un empleado puede recibir un mensaje de voz que parezca de un gerente, aunque en realidad haya sido creado por un modelo de IA. Se puede engañar al empleado para que comparta credenciales, apruebe transacciones o exponga datos confidenciales. Y con la IA, los atacantes pueden crear estos mensajes falsos en segundos.
Por desgracia, es extremadamente difícil combatir los sesgos cognitivos que nos hacen vulnerables a estos ataques. Todos cometemos errores al procesar e interpretar la información. Por ejemplo, tendemos a favorecer la información que confirma nuestras creencias existentes e ignoramos la información que no lo hace. Este sesgo de confirmación nos hace más propensos a caer en la trampa de un deepfake. Si recibimos un mensaje de voz que suena como si fuera de nuestro responsable, tenderemos a creer que es cierto.
Además de crear mejores correos electrónicos de phishing y deepfakes para engañar a los empleados, los atacantes utilizan la IA para fabricar nuevas identidades. El fraude de identidad sintética (SIF) implica la creación de identidades hiperrealistas combinando datos reales y falsos para eludir los sistemas tradicionales de verificación. Los datos personales generados por la IA y el relleno de credenciales automatizado hacen que estas identidades sean cada vez más difíciles de detectar.
Las identidades fraudulentas plantean graves riesgos a sectores muy afectados por estos ataques, como los servicios financieros, la sanidad y la administración pública. Debido a que el SIF a menudo carece de víctimas inmediatas, a menudo pasa desapercibido. Como resultado, los estafadores pueden crear historiales de crédito y ejecutar estafas con éxito.
Los bots son otro tipo de sustituto humano que tiene potencial para causar daños reales. Como muestra 2025 Cloudflare Signals Report, el 28 % de todo el tráfico de aplicaciones observado por Cloudflare en 2024 procedía de bots, un porcentaje que se ha mantenido prácticamente estable respecto a los cuatro años anteriores. Aunque los bots pueden servir para fines legítimos, como la indexación de motores de búsqueda o la supervisión de la disponibilidad, la gran mayoría de los bots (el 93 %, según el análisis de tráfico de Cloudflare) no están verificados y son potencialmente maliciosos.
Los bots con tecnología de IA están permitiendo a los atacantes lanzar ataques automatizados a gran escala con una eficiencia sin precedentes. Estamos viendo bots basados en IA que pueden producir 200 veces más visitas a un sitio web que los ataques anteriores. Los bots se utilizan no solo para organizar grandes ataques de denegación de servicio distribuido (DDoS), sino también para apropiarse de datos confidenciales y propiedad intelectual, rellenar credenciales y ejecutar fraudes a velocidad de máquina. Los modelos de IA mejoran estas capacidades al eludir los CAPTCHA tradicionales y evadir la detección con un comportamiento adaptativo.
El desafío, entonces, es separar lo bueno de lo malo, y bloquear lo malo.
Anticiparse a las amenazas basadas en la IA requiere un enfoque de seguridad proactivo, y mejorado por la IA. En mi charla con Khalid Kark y Daniel Kendzior, abordamos siete formas en las que todos podemos reforzar nuestra postura de seguridad para defendernos de estas amenazas emergentes.
Aumenta la observabilidad.
"Muchos proveedores están añadiendo IA a todo, como si fuera un complemento de alta gama", afirma Kendzior. La IA incluso se está integrando en el software que quizás ya estés utilizando. No todas esas capacidades de IA serán útiles, y algunas podrían crear nuevas vulnerabilidades. Para minimizar los riesgos relacionados con la IA, todos tenemos que ajustar la forma en que compramos software, para obtener mejor visibilidad de dónde se ha incorporado la IA.
Al mismo tiempo, será más importante mejorar la observabilidad del uso de la IA en nuestras organizaciones. Ten en cuenta que las organizaciones suelen tener un 33 % más API de las que han catalogado. Y esas API no catalogadas son vectores potenciales de ataques. Del mismo modo, a menudo no sabemos dónde y cómo se utiliza la IA en toda la organización y, sin embargo, cada uno de esos casos de herramientas de IA podría dejarnos expuestos.
Mediante la implementación de una plataforma que pueda unificar los registros, los análisis, las alertas y los análisis forenses, podemos aplicar las capacidades de la IA a estos datos para identificar los riesgos e identificar sus causas principales.
Detecta y neutraliza las amenazas en tiempo real.
A medida que los atacantes utilizan la IA para aumentar la velocidad y el volumen de las amenazas, necesitamos una forma de seguirles el ritmo. Por suerte, la IA puede ayudarnos a reforzar la ciberseguridad. Por ejemplo, la IA puede analizar grandes conjuntos de datos e identificar anomalías que podrían indicar amenazas. Las herramientas de IA pueden automatizar las respuestas a las amenazas, abordando los problemas en tiempo real.
El análisis del comportamiento de los usuarios de los empleados, incluidos los patrones de acceso, la escalada de privilegios y los intentos de exfiltración de datos, puede ayudar a establecer bases de referencia y detectar anomalías que puedan indicar amenazas internas. Con estas capacidades asistidas por IA, podemos detectar los riesgos internos antes de que se agraven.
Protégete contra el phishing mejorado con IA y los deepfakes.
A medida que los atacantes adoptan la IA para mejorar el phishing y crear deepfakes, necesitamos establecer controles y políticas más sofisticados, incluidos controles y políticas que nos ayuden a combatir nuestros propios sesgos y errores. Supongamos que un empleado recibe un mensaje de texto que parece proceder de un gerente que le indica que transfiera dinero a una cuenta en particular. Podemos evitar daños si, en primer lugar, contamos con una política que impida a los empleados que desempeñan determinadas funciones realizar transferencias bancarias. Dicha política también debe incluir controles de procesos para garantizar que se realicen múltiples comprobaciones antes de ejecutar cualquier acción.
Mejora la administración de identidades.
La gestión de la identidad siempre ha sido difícil, pero la IA la ha complicado aún más. "Hemos tenido clientes que utilizan el registro remoto para nuevos clientes y empleados. Y ahora, en este mundo de la falsificación, hay que tener cierto escepticismo sobre si se trata de una persona real", afirma Kendzior.
La seguridad Zero Trust desempeña un papel clave en la mejora de la gestión de identidades. Con la solución Zero Trust adecuada, las organizaciones pueden evitar que personas no autorizadas y bots de IA accedan a los recursos de la empresa, al tiempo que agilizan el acceso de las personas autorizadas.
Identifica y bloquea los bots maliciosos. Las capacidades de gestión de bots pueden diferenciar los bots buenos de los malos. De este modo, pueden impedir que los bots maliciosos extraigan datos, roben contenido o ralenticen el rendimiento del sitio web.
Aborda el elemento humano. Siempre habrá una capa tecnológica en la lucha contra las amenazas a la ciberseguridad. Pero detener las amenazas mejoradas con IA también implica entrenar el comportamiento. Necesitamos concienciar a los empleados sobre los intentos de phishing, los deepfakes y otros ataques de IA que se avecinan, para que puedan ser más escépticos acerca de los mensajes que reciben.
Las organizaciones también deben esforzarse por crear no solo empleados altamente conscientes, sino también mejores ciudadanos digitales, ya que estos programas mejorados con IA llegan a las personas incluso después de que termina la jornada laboral. Por ejemplo, pueden recibir mensajes de texto diciéndoles que tienen que pagar urgentemente el peaje de un vehículo. Si hacen clic por error en esos enlaces, o peor aún, pagan a los atacantes, sin darse cuenta están financiando futuros ataques que podrían afectar a sus empresas.
Colabora con socios. La IA está ayudando a que la ciberdelincuencia se convierta en un negocio aún mayor. Ya no luchamos contra hackers individuales. Además de adoptar las últimas capacidades de ciberseguridad mejoradas con IA, necesitamos ampliar nuestras alianzas para tener más posibilidades de protegernos contra los atacantes organizados. Cuanto más trabajemos con los socios, mejores serán nuestras defensas.
El número, la escala y la sofisticación de las amenazas basadas en la IA seguirán aumentando. Y con cada intento de phishing o fuga de datos que tenga éxito, los ciberdelincuentes reinvertirán sus beneficios en tecnologías más avanzadas. Muchas organizaciones necesitan renovar significativamente sus defensas para esta nueva era de ataques basados en la IA, y deben empezar ya.
La conectividad cloud de Cloudflare ofrece una gama cada vez mayor de herramientas y servicios que pueden ayudarte a proteger tu organización de las amenazas basadas en la IA. Nuestra solución Cloudflare AI Gateway proporciona visibilidad del coste, el uso, la latencia y el rendimiento general de las aplicaciones de IA. Por su parte, Firewall for AI te permite proteger las aplicaciones basadas en modelos lingüísticos de gran tamaño (LLM) contra el abuso. Estas herramientas funcionan con la amplia cartera de servicios de seguridad nativos de nube de Cloudflare para ayudarte a escalar tus defensas contra amenazas basadas en IA más grandes y sofisticadas.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Obtén más información sobre las amenazas basadas en la IA y otras tendencias que requerirán un cambio para mejorar la resiliencia en 2025 Cloudflare Signals Report: Resilience at Scale.
Mike Hamilton — @mike-hamilton-us
Director de informática, Cloudflare
Después de leer este artículo podrás entender:
Cómo los ciberdelincuentes utilizan la IA para mejorar sus ataques
Las 3 tácticas más utilizadas hoy en día
7 formas de mejorar la seguridad contra las amenazas basadas en la IA