Informe de Seguridad de IA 2025: Comprender las amenazas y construir defensas más inteligentes
Bogotá, 8 de mayo de 2025 – A medida que la inteligencia artificial se integra cada vez más en las operaciones comerciales, también está transformando la evolución de las ciberamenazas. Las mismas tecnologías que ayudan a las organizaciones a mejorar la eficiencia y automatizar la toma de decisiones ahora están siendo cooptadas y utilizadas como arma por los actores de amenazas.
El Informe de Seguridad de IA de Check Point Research explora cómo los ciberdelincuentes no solo explotan las plataformas de IA convencionales, sino que también crean y distribuyen herramientas diseñadas específicamente para uso malicioso. Los hallazgos destacan cinco categorías de amenazas en crecimiento que los defensores deben tener en cuenta al proteger los sistemas y usuarios en un mundo impulsado por la IA.
1. Uso de IA y riesgo de fuga de datos
Un análisis de los datos recopilados por GenAI Protect de Check Point revela que 1 de cada 80 avisos de GenAI representa un alto riesgo de fuga de datos confidenciales. Los datos también muestran que el 7,5 % de los avisos (aproximadamente 1 de cada 13) contiene información potencialmente confidencial, lo que presenta desafíos críticos de seguridad, cumplimiento normativo e integridad de los datos. A medida que las organizaciones integran cada vez más la IA en sus operaciones, comprender estos riesgos es más importante que nunca.
2. Suplantación de identidad mejorada por IA e ingeniería social
La ingeniería social sigue siendo uno de los vectores de ataque más efectivos, y a medida que la IA evoluciona, también lo hacen las técnicas utilizadas por los actores de amenazas. Los deepfakes autónomos e interactivos están revolucionando la ingeniería social, mejorando drásticamente el realismo y la escala de los ataques. El texto y el audio ya han evolucionado para generar texto sin guión en tiempo real, mientras que el vídeo está a solo unos pasos de distancia.
Una alerta reciente del FBI subrayó el creciente uso de contenido generado por IA en fraudes y engaños, mientras que incidentes reales, como la suplantación de identidad del ministro de defensa italiano mediante audio generado por IA, ya han causado importantes perjuicios financieros.
A medida que estas capacidades se expanden, la verificación de identidad basada en señales visuales o auditivas se vuelve menos fiable, lo que genera una necesidad urgente de autenticación de identidad multicapa.
3. Envenenamiento y manipulación de datos LLM
Investigadores han expresado su preocupación por el envenenamiento de LLM («Large Language Model»,modelos de lenguaje grandes), una amenaza de ciberseguridad en la que los conjuntos de datos de entrenamiento se alteran para incluir contenido malicioso, lo que provoca que los modelos de IA repliquen dicho contenido dañino. A pesar de las sólidas medidas de validación de datos implementadas por los principales proveedores de IA, como OpenAI y Google, se han registrado casos de ataques de envenenamiento exitosos, incluyendo la subida de 100 modelos de IA comprometidos a la plataforma Hugging Face. Si bien ese envenenamiento de datos suele afectar la fase de entrenamiento de los modelos de IA, han surgido nuevas vulnerabilidades a medida que los LLM modernos acceden a información en línea en tiempo real, lo que genera un riesgo conocido como «envenenamiento por recuperación». Un caso notable es el de la red rusa de desinformación «Pravda», que creó alrededor de 3,6 millones de artículos en 2024 con el objetivo de influir en las respuestas de los chatbots de IA. Las investigaciones indicaron que estos chatbots se hicieron eco de las falsas narrativas de Pravda aproximadamente el 33% del tiempo, lo que subraya el gran peligro de usar la IA con fines de desinformación.
4. Creación de malware y minería de datos generados por IA
La IA se utiliza actualmente en todo el ciclo de vida de los ciberataques, desde la generación de código hasta la optimización de campañas. Herramientas como el módulo DDoS generado por IA de FunkSec y el chatbot personalizado estilo Chat-GPT demuestran cómo los grupos de ransomware están integrando la IA en sus operaciones, no solo para la creación de malware, sino también para automatizar las relaciones públicas y los mensajes de campaña.
La IA también desempeña un papel fundamental en el análisis de datos robados. Los ladrones de información y los mineros de datos utilizan la IA para procesar y limpiar rápidamente registros masivos de credenciales, tokens de sesión y claves API. Esto permite una monetización más rápida de los datos robados y una focalización más precisa en futuros ataques. En un caso, un servicio de la dark web llamado Gabbers Shop anunció el uso de IA para mejorar la calidad de las credenciales robadas, garantizando que fueran válidas, organizadas y listas para su reventa.
5. El uso de modelos de IA como arma y el secuestro
Los actores de amenazas ya no solo utilizan la IA, sino que la están convirtiendo en una herramienta específica para la ciberdelincuencia. Una tendencia clave es el secuestro y la comercialización de cuentas LLM. Mediante el robo de credenciales y el malware de robo de información, los atacantes recopilan y revenden el acceso a plataformas como ChatGPT y la API de OpenAI, utilizándolas para generar señuelos de phishing, scripts maliciosos y contenido de ingeniería social sin restricciones.
Aún más preocupante es el auge de los Dark LLM (modelos de IA modificados maliciosamente, como HackerGPT Lite, WormGPT, GhostGPT y FraudGPT). Estos modelos se crean mediante el jailbreak de sistemas de IA éticos o la modificación de modelos de código abierto como DeepSeek. Están diseñados específicamente para eludir los controles de seguridad y se comercializan en foros de la dark web como herramientas de hacking, a menudo con acceso y soporte al usuario basados en suscripción.
Qué significa esto para los defensores
Manuel Rodríguez, Gerente de Ingeniería en NOLA de Check Point Software concluye “El uso de la IA en la ciberdelincuencia ya no es teórico. Está evolucionando en paralelo con la adopción generalizada de la IA y, en muchos casos, avanza a un ritmo superior al que pueden adaptarse los controles de seguridad tradicionales”. Los hallazgos del AI Security Report de Check Point Research sugieren que los defensores ahora deben operar bajo la premisa de que la IA se utilizará no solo contra ellos, sino también contra los sistemas, plataformas e identidades en los que confían. Los equipos de seguridad deberían empezar a incorporar defensas basadas en IA en sus estrategias, incluyendo la detección asistida por IA, sistemas de inteligencia de amenazas que puedan identificar artefactos generados por IA y protocolos de verificación de identidad actualizados que consideren el engaño de voz, vídeo y texto.
Dado que la IA sigue influyendo en cada capa de las operaciones cibernéticas, mantenerse informado es el primer paso para mantenerse seguro.