Tenable descubre una falla crítica en la nueva tecnología de seguridad del GPT-5 de OpenAI
En menos de 24 horas desde su lanzamiento, investigadores eluden el sistema de protección del modelo y revelan los riesgos del uso indiscriminado de la IA generativa
Bogotá, 22 de agosto de 2025 – Investigadores de Tenable lograron, en menos de 24 horas después del lanzamiento oficial de GPT-5, eludir las barreras de seguridad prometidas por OpenAI y consiguieron que el modelo proporcionara instrucciones peligrosas, incluida la elaboración de artefactos explosivos.
GPT-5 fue presentado por OpenAI como su modelo de lenguaje más avanzado, con mejoras sustanciales en precisión, velocidad y comprensión de contexto, además de un nuevo sistema de seguridad para evitar usos indebidos. A pesar de esto, el equipo de Tenable Research logró realizar un “jailbreak” (proceso para eliminar las restricciones impuestas) en el sistema utilizando una técnica conocida como crescendo, obteniendo respuestas que violan los principios de seguridad anunciados.
El episodio demuestra que, incluso con los avances declarados en la protección contra solicitudes maliciosas, todavía es posible explotar vulnerabilidades y utilizar modelos de IA generativa para fines maliciosos.
«Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice de forma responsable y alineada con las normas de seguridad y cumplimiento (compliance)», afirma Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de Tenable.
Según el ejecutivo, este caso sirve como una alerta importante para las empresas e instituciones que utilizan modelos de IA: confiar solo en las barreras técnicas proporcionadas por terceros puede no ser suficiente. Afirma, además, que es fundamental implementar políticas internas claras, capacitar a los equipos sobre riesgos y comportamientos seguros, y mantener un seguimiento constante del uso de estas herramientas.
El descubrimiento refuerza que la seguridad en la IA no es un punto de llegada, sino un proceso continuo que exige vigilancia, evaluación constante de riesgos y actualización de las estrategias de protección para seguir el ritmo de las innovaciones tecnológicas.