Las organizaciones pasan por alto el riesgo de la IA mientras la gobernanza no logra mantener el ritmo
La investigación de TrendAI™ revela que la presión por implementar IA para la velocidad empresarial está superando el control, la visibilidad y la responsabilidad
26 de marzo de 2026. El líder mundial en seguridad de IA, TrendAI™, ha publicado una nueva investigación que revela que las organizaciones en todo el mundo están avanzando con la implementación de la IA a pesar de los riesgos conocidos de seguridad y cumplimiento.
El nuevo estudio global realizado a 3,700 tomadores de decisiones de negocios y TI encontró que el 67% se ha sentido presionado a aprobar la IA a pesar de las preocupaciones de seguridad, y uno de cada siete describe esas preocupaciones como «extremas» pero anuladas para mantener el ritmo de los competidores y la demanda interna.
Rachel Jin, Chief Platform & Business Officer, Jefa de TrendAI: “Las organizaciones no carecen de conciencia del riesgo, carecen de las condiciones para gestionarlo. Cuando la implementación es impulsada por la presión competitiva en lugar de la madurez de la gobernanza, se crea una situación en la que la IA se integra en sistemas críticos sin los controles necesarios para gestionarla de forma segura. Esta investigación refuerza nuestro enfoque en ayudar a las organizaciones a impulsar resultados comerciales sólidos con la IA mientras siguen gestionando el riesgo comercial”.
El riesgo de un despliegue de IA impulsado por la presión se ve exacerbado por las inconsistencias en la gobernanza y la falta de claridad en la responsabilidad por el riesgo de la IA que se están generalizando. Lo mismo ocurre con los equipos de seguridad que trabajan de forma reactiva ante las decisiones de despliegue de IA de arriba hacia abajo, lo que a menudo lleva a soluciones alternativas y a un mayor uso de herramientas de IA no autorizadas o “en la sombra” (shadow AI).
El reciente informe de amenazas de TrendAI™ refuerza este cambio, mostrando cómo los atacantes ya están utilizando la IA para automatizar el reconocimiento, acelerar las campañas de phishing y reducir la barrera de entrada para el cibercrimen, aumentando tanto la velocidad como la escala de los ataques.
La adopción de la IA está superando al control
Las organizaciones están implementando la IA más rápido de lo que pueden gestionar los riesgos asociados, creando una brecha cada vez mayor entre la ambición y la supervisión. El 57% afirma que la IA avanza más rápidamente de lo que pueden asegurarla, mientras que más de la mitad (64%) reporta solo una confianza moderada en su comprensión de los marcos legales que rigen la IA.
La madurez de la gobernanza sigue siendo baja. Solo alrededor de un tercio (38%) de las organizaciones cuentan con políticas integrales de IA en su lugar, con muchas aún redactándolas, y el 41% cita la regulación o los estándares de cumplimiento poco claros como una barrera. En la práctica, la IA se está operacionalizando antes de que las reglas que rigen su uso estén completamente establecidas.
La confianza en la IA autónoma sigue siendo incierta
La confianza en los sistemas autónomos más avanzados aún se encuentra en la fase de maduración. Menos de la mitad (48%) cree que la IA agéntica mejorará significativamente la ciberdefensa a corto plazo, con preocupaciones constantes sobre el acceso a los datos, el mal uso y la falta de supervisión.
Los datos muestran dónde están aterrizando esas preocupaciones. Más de cuatro de cada diez organizaciones (44%) dicen que el acceso de los agentes de IA a datos sensibles es su mayor riesgo. Más de un tercio (36%) advierte que los comandos maliciosos (prompts) podrían comprometer la seguridad, mientras que uno de cada tres (33%) señala una superficie de ataque creciente para los cibercriminales. Una proporción similar (33%) teme el abuso del estatus de IA de confianza y los riesgos vinculados al despliegue de código autónomo.
Al mismo tiempo, casi un tercio (31%) admite que carece de observabilidad o auditabilidad sobre estos sistemas, lo que plantea serias dudas sobre cómo las organizaciones pueden controlar o intervenir una vez que los agentes se despliegan.
Alrededor del 40% de las organizaciones apoyan la introducción de mecanismos de «botón de pánico» (kill switch) de IA para apagar los sistemas en caso de falla o mal uso, mientras que casi la mitad sigue sin estar segura. Esta falta de consenso resalta un problema más profundo. Las organizaciones se están moviendo hacia la IA autónoma sin un acuerdo sobre cómo mantener el control cuando más importa.
“La IA agéntica está moviendo a las organizaciones hacia una nueva categoría de riesgo”, agregó Rachel Jin. “Nuestra investigación muestra que las preocupaciones ya son claras, desde la exposición de datos sensibles hasta la pérdida de supervisión. Sin visibilidad y control, las organizaciones están desplegando sistemas que no comprenden ni gobiernan completamente, y ese riesgo solo va a aumentar a menos que se tomen medidas”.
Para leer el informe completo, visite: https://www.trendmicro.com/explore/trendai-global-ai-study/


