La plataforma de IA nativa de la nube híbrida de Red Hat simplifica los flujos de trabajo de la IA y ofrece nuevas y potentes capacidades de inferencia, sentando las bases para una IA agéntica a gran escala y permitiendo que los equipos de TI y los ingenieros de IA innoven de manera más rápida y eficiente
Red Hat, el proveedor líder mundial de soluciones open source, presentó hoy Red Hat AI 3, una importante evolución de su plataforma de IA para la empresa. Esta plataforma, que combina las últimas innovaciones de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, ayuda a simplificar las complejidades de la inferencia de IA de alto rendimiento a gran escala, lo cual permite a las organizaciones acelerar la transición de las cargas de trabajo de la prueba de concepto a producción, además de mejorar la colaboración en torno a aplicaciones basadas en IA.
A medida que las empresas trascienden la experimentación con la IA, se enfrentan a obstáculos significativos, entre ellos, la privacidad de los datos, el control de costos y la gestión de modelos dispares. El proyecto NANDA “The GenAI Divide: State of AI in Business”, del Massachusetts Institute of Technology, pone de relieve la realidad de la IA de producción, en la que cerca del 95 % de las organizaciones no están obteniendo retornos financieros cuantificables de los aproximadamente USD 40.000 millones que invierten las empresas.
Red Hat AI 3 se dedica a resolver directamente estos desafíos al ofrecer una experiencia más coherente y unificada para que los CIO y los responsables del área de TI maximicen sus inversiones en tecnologías de computación aceleradas. Red Hat AI 3 hace posible escalar y distribuir cargas de trabajo de IA con rapidez entre entornos híbridos de multiproveedores, a la vez que mejora la colaboración entre equipos en cargas de trabajo de IA de próxima generación como agentes, todo en la misma plataforma común. Gracias a que está diseñada sobre una base de estándares abiertos, Red Hat AI 3 asiste a las organizaciones en cualquier etapa en la que se encuentren en su experiencia con la IA, admitiendo cualquier modelo en cualquier acelerador de hardware, desde centros de datos, la nube pública y entornos de IA soberana hasta el edge más alejado.
Del entrenamiento a la “acción”: el cambio hacia la inferencia de IA empresarial
A medida que las organizaciones llevan las iniciativas de IA a la fase de producción, el foco pasa del entrenamiento y el ajuste de modelos a la inferencia, que sería la fase de “acción” de la IA empresarial. Red Hat AI 3 hace hincapié en la inferencia escalable y rentable al basarse en los proyectos comunitarios vLLM y llm-d de gran éxito, así como en las capacidades de optimización de modelos de Red Hat, y ofrece un servicio de modelos de lenguajes de gran tamaño (LLM) de nivel de producción.
Para ayudar a los CIO a sacar el máximo partido de su aceleración de hardware de alto valor, Red Hat OpenShift AI 3.0 presenta la disponibilidad general de llm-d, que reinventa la forma en que los LLM se ejecutan nativamente en Kubernetes. llm-d habilita la inferencia inteligente distribuida, que aprovecha el valor comprobado de la orquestación de Kubernetes y el rendimiento de vLLM, combinado con tecnologías open source clave como Kubernetes Gateway API Inference Extension, la librería de transferencia de baja latencia de NVIDIA Dynamo (NIXL) y la librería de comunicación DeepEP Mixture of Experts (MoE), permitiendo a las organizaciones:
- reducir costos y mejorar los tiempos de respuesta, con la programación de modelos inteligente y consciente de la inferencia y el servicio desagregado;
- Ofrecer simplicidad operativa y máxima fiabilidad con «Rutas bien iluminadas» prescriptivas que agilizan el despliegue de modelos a escala en Kubernetes.;
- Maximizar la flexibilidad con soporte multiplataforma para desplegar la inferencia de LLM en diferentes aceleradores de hardware, incluyendo NVIDIA y AMD.
llm-d parte de vLLM para evolucionar de un motor de inferencia de alto rendimiento en un solo nodo a un sistema de servicio uniforme, escalable y distribuido que permite un rendimiento predecible, un retorno de la inversión cuantificable y una planificación eficaz de la infraestructura. Todas las mejoras abordan directamente los desafíos que plantea el servicio de modelos masivos, como los modelos Mixture-of-Experts (MoE) y el manejo de cargas de trabajo muy variables.
Una plataforma unificada para la IA colaborativa
Red Hat AI 3 ofrece una experiencia unificada y flexible adaptada a las demandas de colaboración que exige la creación de soluciones de IA generativa listas para producción. Está diseñado para ofrecer valor tangible al fomentar la colaboración y unificar los flujos de trabajo entre equipos a través de una única plataforma para que tanto los ingenieros de plataforma como los ingenieros de IA ejecuten su estrategia de inteligencia artificial. Las nuevas capacidades enfocadas en proporcionar la productividad y eficiencia necesarias para escalar de la prueba de concepto a la producción incluyen:
- Capacidades de Modelo como Servicio (MaaS) se basan en la inferencia distribuida y permiten a los equipos de TI actuar como sus propios proveedores de MaaS, sirviendo modelos comunes de forma centralizada y proporcionando acceso bajo demanda tanto para los desarrolladores de IA como para las aplicaciones de IA. Esto permite una mejor gestión de costos y da soporte a casos de uso que no pueden ejecutarse en servicios públicos de IA debido a preocupaciones de privacidad o datos.
- AI hub permite a los ingenieros de plataforma explorar, desplegar y administrar activos fundamentales de IA. Proporciona un centro centralizado con un catálogo curado de modelos (incluidos modelos de IA generativa validados y optimizados), un registro para gestionar el ciclo de vida de los modelos y un entorno de despliegue para configurar y monitorizar todos los activos de IA que se ejecutan en OpenShift AI.
- Gen AI studio (Estudio de IA Generativa) ofrece un entorno práctico para que los ingenieros de IA interactúen con los modelos y prototipen rápidamente nuevas aplicaciones de IA generativa. Con la función de punto final de activos de IA (AI assets endpoint), los ingenieros pueden descubrir y consumir fácilmente los modelos disponibles y los servidores MCP (Model Control Plane), que están diseñados para agilizar la forma en que los modelos interactúan con herramientas externas. El playground integrado proporciona un entorno interactivo y sin estado para experimentar con modelos, probar prompts y ajustar parámetros para casos de uso como el chat y la generación aumentada por recuperación (RAG).
- Nuevos modelos de Red Hat validados y optimizados se incluyen para simplificar el desarrollo. La selección curada incluye modelos populares de código abierto como gpt-oss de OpenAI, DeepSeek-R1, y modelos especializados como Whisper para la conversión de voz a texto y Voxtral Mini para agentes habilitados por voz.
Sentando las bases para los agentes de IA de próxima generación
Los agentes de IA están destinados a transformar la forma en que se crean las aplicaciones y sus complejos flujos de trabajo autónomos impondrán grandes exigencias a las capacidades de inferencia. La versión Red Hat OpenShift AI 3.0 continúa sentando las bases para los sistemas de IA agénticos escalables, no solo a través de sus capacidades de inferencia, sino también al añadir nuevas características y mejoras enfocadas en la gestión de agentes.
Para acelerar la creación y la implementación de agentes, Red Hat ha introducido una capa de API unificadas basada en Llama Stack, que ayuda a alinear el desarrollo con estándares del sector como OpenAI compatibles con los protocolos de interfaces LLM. Asimismo, para promover un ecosistema más abierto e interoperable, Red Hat es pionero en la adopción de Model Context Protocol (MCP), un poderoso estándar emergente que simplifica la forma en que los modelos de IA interactúan con herramientas externas, lo que representa una característica fundamental para los agentes de IA modernos.
Red Hat AI 3 presenta un nuevo kit de herramientas modular y extensible para la personalización de modelos, desarrollado a partir de la funcionalidad existente de InstructLab. Este kit proporciona librerías especializadas de Python que otorgan a los desarrolladores mayor flexibilidad y control. El toolkit se basa en proyectos de código abierto como Docling para el procesamiento de datos, que agiliza la ingesta de documentos no estructurados a un formato que la IA puede leer. También incluye un marco de trabajo flexible para la generación de datos sintéticos y un centro de entrenamiento (training hub) para el ajuste fino de LLM.
El centro de evaluación (evaluation hub) integrado ayuda a los ingenieros de IA a monitorizar y validar los resultados, permitiéndoles aprovechar con confianza sus datos propietarios para obtener resultados de IA más precisos y relevantes.
Citas de apoyo
Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat
“A medida que las empresas pasan de la experimentación a producción de la IA, se enfrentan a una nueva serie de desafíos en términos de complejidad, costo y control. Con Red Hat AI 3, ofrecemos una plataforma open source de clase empresarial que minimiza estos obstáculos. Al incorporar nuevas capacidades, como la inferencia distribuida con llm-d y una base para la IA agéntica, hacemos posible que los equipos de TI pongan en marcha la IA de próxima generación con mayor confianza, según sus propios términos y en cualquier infraestructura”.
Dan McNamara, vicepresidente senior y gerente general, servidores e IA empresarial, AMD
“A medida que Red Hat lleva la inferencia de IA distribuida a producción, AMD se enorgullece de proporcionar la base de alto rendimiento que lo respalda. Juntos, hemos integrado la eficiencia de los procesadores AMD EPYC™, la escalabilidad de las GPUs AMD Instinct™ y la apertura de la pila de software AMD ROCm™ para ayudar a las empresas a ir más allá de la experimentación y operacionalizar la IA de próxima generación, transformando el rendimiento y la escalabilidad en un impacto comercial real en entornos locales (on-prem), de nube y de edge.”
Mariano Greco, chief executive officer, ARSAT
“Como proveedor de infraestructura de conectividad para Argentina, ARSAT maneja volúmenes masivos de interacciones con clientes y datos sensibles. Necesitábamos una solución que nos llevara más allá de la simple automatización hacia la ‘Inteligencia Aumentada’ mientras ofrecíamos soberanía de datos absoluta a nuestros clientes. Al construir nuestra plataforma de IA agéntica en Red Hat OpenShift AI, pasamos de identificar la necesidad a la producción en vivo en solo 45 días. Red Hat OpenShift AI no solo nos ha ayudado a mejorar nuestro servicio y reducir el tiempo que los ingenieros dedican a los problemas de soporte, sino que también los ha liberado para que se centren en la innovación y los nuevos desarrollos.»
Rick Villars, group vice president, Worldwide Research, IDC
«El año 2026 marcará un punto de inflexión a medida que las empresas pasen de iniciar su giro hacia la IA a exigir resultados comerciales más medibles y repetibles de sus inversiones. Si bien los proyectos iniciales se centraron en el entrenamiento y la prueba de modelos, el valor real —y el verdadero desafío— es operacionalizar las percepciones derivadas de los modelos con una inferencia eficiente, segura y rentable. Este cambio requiere infraestructuras, datos y entornos de despliegue de aplicaciones más modernos, con capacidades de inferencia de grado de producción listas para usar que puedan manejar la escala y complejidad del mundo real, especialmente a medida que la IA agéntica sobrecarga las cargas de inferencia. Las empresas que logren convertirse en negocios impulsados por la IA serán aquellas que establezcan una plataforma unificada para orquestar estas cargas de trabajo cada vez más sofisticadas en entornos de nube híbrida, y no solo en dominios aislados.»
Ujval Kapasi, vicepresidente de ingeniería de frameworks de IA, NVIDIA
“La inferencia escalable y de alto rendimiento es clave para la próxima ola de IA generativa y agéntica. Con soporte integrado para la inferencia acelerada mediante las tecnologías de código abierto NVIDIA Dynamo y NIXL, Red Hat AI 3 proporciona una plataforma unificada que permite a los equipos pasar rápidamente de la experimentación a la ejecución de cargas de trabajo y agentes de IA avanzados a escala.”
Recursos adicionales
- Descubre más acerca de Red Hat AI 3
- Lee el blog acerca de Red Hat AI 3
- Vee el webinar sobre las novedades y el futuro de Red Hat AI.
- Aprende más sobre cómo los socios del ecosistema de Red Hat impulsan la innovación en IA.
Conéctese con Red Hat
- Más información acerca de Red Hat
- Obtenga más noticias en la sala de noticias de Red Hat
- Lea el blog de Red Hat
- Siga a Red Hat en X
- Siga a Red Hat en Instagram
- Mire los videos de Red Hat en YouTube
- Siga a Red Hat en LinkedIn
Acerca de Red Hat, Inc.
Red Hat es la compañía líder en tecnología de nube híbrida abierta que proporciona una base confiable, consistente y completa para una innovación transformadora de la TI y las aplicaciones de IA. Su portfolio de tecnologías de nube, desarrollo, IA, Linux, automatización y plataforma de aplicaciones hace posible la implementación de cualquier aplicación en cualquier lugar, desde el centro de datos hasta el edge. Como proveedor líder mundial de soluciones de software de código abierto empresarial, Red Hat invierte en ecosistemas y comunidades abiertos para resolver los desafíos de TI del mañana. Por medio de la colaboración, Red Hat ayuda a clientes y partners a construir, conectar, automatizar, proteger y gestionar sus entornos de TI, con el respaldo de servicios de consultoría, capacitación y certificación reconocidos mundialmente.
Declaraciones de proyección futura
Con excepción de la información histórica y de los análisis que se contemplan en el presente, las declaraciones incluidas en este comunicado de prensa pueden constituir declaraciones de proyección futura según el significado que le confiere la Private Securities Litigation Reform Act de 1995. Las declaraciones de proyección futura se basan en las actuales presunciones de la compañía en relación con su desempeño comercial y financiero. Estas declaraciones contemplan ciertos riesgos, incertidumbres y otros factores que podrían hacer que los resultados reales difieran sustancialmente. Las declaraciones de proyección futura incluidas en este comunicado de prensa tienen validez únicamente en la fecha en la que se realizan. Salvo lo exigido por ley, la compañía no asume ninguna obligación de actualizar o modificar estas declaraciones de proyección futura.
###
Red Hat, Red Hat Enterprise Linux, el logo de Red Hat y OpenShift son marcas comerciales o marcas comerciales registradas de Red Hat, Inc. o sus subsidiarias en los EE.UU. y en otros países. Linux® es la marca comercial registrada de Linus Torvalds en los EE. UU. y en otros países.
Para más noticias de tecnología, cultura geek, gadgets y entretenimiento, visita: GeekAndLife.com.mx
Descubre más contenido en nuestras redes: Instagram | YouTube | TikTok

Fuente: PR


