Empresas Inteligencia Artificial 

Red Hat lanza Red Hat AI Enterprise para ofrecer una plataforma de IA unificada de la infraestructura a los agentes

La solución conecta la infraestructura de IA con agentes listos para producción, unificando el ciclo de vida de la IA con la base líder de la industria que incluye Red Hat Enterprise Linux y Red Hat OpenShift.

Marzo de 2026 – Red Hat, líder mundial en el suministro de soluciones de código abierto, anunció Red Hat AI Enterprise, una plataforma de IA integrada para implementar y administrar modelos, agentes y aplicaciones de IA en la nube híbrida. La solución se incorpora a la cartera de Red Hat AI, que incluye Red Hat AI Inference Server, Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Red Hat también presenta Red Hat AI 3.3, que ofrece importantes actualizaciones y mejoras en toda la cartera de IA de la compañía. Juntas, estas soluciones ofrecen una pila integral «del metal al agente», integrando la infraestructura subyacente de Linux y Kubernetes con capacidades avanzadas de agente para ayudar a las organizaciones a evolucionar de experimentos fragmentados a operaciones autónomas y reguladas.

El panorama de la IA empresarial está evolucionando rápidamente, pasando de simples interfaces de chat a flujos de trabajo agénticos autónomos de alta densidad que exigen una integración más profunda en toda la pila de tecnología. Sin embargo, muchas organizaciones permanecen estancadas en la «fase piloto» debido a herramientas fragmentadas e infraestructura inconsistente. Red Hat AI Enterprise aborda este desafío al unificar los ciclos de vida de los modelos y las aplicaciones, permitiendo a los equipos de TI gestionar la IA como un sistema empresarial estandarizado, en lugar de un proyecto aislado, lo que hace que la entrega de IA sea tan confiable y repetible como el software empresarial tradicional.

Red Hat AI Enterprise: la base para la producción de IA

Red Hat AI Enterprise ofrece capacidades esenciales, que incluyen inferencia de IA de alto rendimiento, ajuste y personalización de modelos, así como implementación y gestión de agentes, con la flexibilidad de soportar cualquier modelo, cualquier hardware y en cualquier entorno. Impulsado por Red Hat OpenShift, la principal plataforma de aplicaciones en la nube híbrida basada en Kubernetes de la industria, Red Hat AI Enterprise proporciona alta escalabilidad, una experiencia más consistente y una postura de seguridad más robusta, en cualquier lugar, utilizando herramientas y frameworks conocidos.

Para la infraestructura de IA de NVIDIA, NVIDIA y Red Hat codesarrollaron la nueva Red Hat AI Factory con NVIDIA, combinando Red Hat AI Enterprise y NVIDIA AI Enterprise para ayudar a acelerar y escalar la IA en producción para las empresas.

Entre los principales beneficios de Red Hat AI Enterprise se encuentran:

  • Inferencia de IA más rápida, económica y escalable, utilizando el motor de inferencia vLLM y el framework de inferencia distribuida llm-d para implementaciones optimizadas de modelos generativos de IA en entornos de hardware híbrido.
  • Observabilidad integrada y gestión del ciclo de vida para impulsar la gobernanza de la IA y mitigar riesgos con una pila de IA integrada, probada e interoperable, lista para las empresas.
  • Flexibilidad en la nube híbrida, lo que permite a las organizaciones implementar y gestionar modelos, agentes y aplicaciones de IA con mayor coherencia, donde sea que el negocio necesite ejecutarse, con el respaldo de plataformas confiables de Red Hat.

Ampliando la flexibilidad estratégica y la eficiencia full-stack con Red Hat AI 3.3

La estrategia de Red Hat es conectar la estabilidad de misión crítica con la innovación de vanguardia a través de una plataforma unificada. La versión más reciente del software amplía la elección de modelos, profundiza la optimización full-stack para chips de próxima generación y fortalece la consistencia operativa para modelos de vanguardia.

Nuevas características y mejoras incluyen:

  • Ecosistema ampliado de modelos de Red Hat AI, con versiones empaquetadas, validadas y listas para producción de Mistral-Large-3, Nemotron-Nano y Apertus-8B-Instruct, disponibles en el Catálogo de OpenShift AI. Además, la versión permite la implementación de modelos de última generación, como Ministral 3 y DeepSeek-V3.2, con atención dispersa, al tiempo que ofrece mejoras multimodales, incluyendo aceleración 3x de Whisper, soporte geoespacial, decodificación especulativa EAGLE y herramienta de llamada mejorada para flujos de trabajo agénticos.
  • Acceso de autoservicio a modelos de IA con una vista previa tecnológica de Modelos como Servicio (MaaS). Los equipos de TI pueden proporcionar acceso de autoservicio a modelos alojados de forma privada a través de un gateway de API. Este enfoque centralizado garantiza que la IA esté disponible bajo demanda para los usuarios internos, promoviendo una base de IA lista para usar que posibilita la adopción de IA privada y escalable dentro de la empresa.
  • Soporte ampliado de hardware, que incluye una vista previa tecnológica para soporte de IA generativa en CPU (comenzando con CPU Intel) para una inferencia más económica de SLM, además de una certificación extendida para la arquitectura NVIDIA’s Blackwell Ultra y soporte para los aceleradores AMD MI325X.
  • Ciclo de vida unificado de datos a modelo protegido por el nuevo Red Hat AI Python Index. Este repositorio confiable ofrece versiones reforzadas y de nivel empresarial de herramientas críticas —incluyendo Docling, SDG Hub y Training Hub— lo que permite a los equipos pasar de la experimentación fragmentada a pipelines de producción repetibles y enfocados en la seguridad.
  • Observabilidad y seguridad integrales de IA, con mayor visibilidad de la integridad, el rendimiento y el comportamiento de los modelos. Esto proporciona telemetría en tiempo real en cargas de trabajo de IA, implementaciones de llm-d y uso de cluster y de Modelos como Servicio (MaaS), y se combina con una vista previa tecnológica de NeMo Guardrails integrada, lo que permite a los desarrolladores aplicar seguridad operativa y alineación en todas las interacciones de IA.
  • Acceso bajo demanda a recursos de GPU, lo que permite a las organizaciones implementar sus propios recursos internos de GPU como servicio a través de orquestación inteligente y acceso a hardware agrupado con checkpointing automático para guardar el estado de trabajos de entrenamiento de larga duración, evitando pérdidas y manteniendo costos de cómputo más predecibles, incluso en entornos altamente dinámicos o preemptibles.

“Para que la IA entregue verdadero valor de negocio, debe ser operacionalizada como componente central de la pila de software empresarial, y no como un silo aislado. Red Hat AI Enterprise está diseñado para cerrar la brecha entre la infraestructura y la innovación, ofreciendo una plataforma unificada del metal al agente. Al integrar capacidades avanzadas de ajuste y capacidades agénticas con la base líder de la industria que incluye Red Hat Enterprise Linux y Red Hat OpenShift, estamos suministrando la pila completa, desde el hardware acelerado por GPU hasta los modelos y agentes que impulsan la lógica de negocio. Además, con Red Hat AI 3.3, las organizaciones pueden evolucionar de pilotos fragmentados a operaciones de IA gobernadas, repetibles y de alto rendimiento en la nube híbrida.” Joe Fernandes, vicepresidente y gerente general de la unidad de negocios de IA de Red Hat

Entradas relacionadas