Oracle y AMD han anunciado una ambiciosa expansión de su colaboración estratégica de larga data, con el objetivo de llevar la computación en inteligencia artificial (IA) a una escala sin precedentes. A partir del tercer trimestre de 2026, Oracle se convertirá en el primer hyperscaler en ofrecer un supercluster de IA de acceso público, impulsado por 50,000 GPUs AMD Instinct MI450 Series, en lo que promete ser un hito para la computación de alto rendimiento.
Esta iniciativa fue presentada durante el evento Oracle AI World, celebrado en Las Vegas y Santa Clara, como parte de una estrategia a largo plazo entre ambas compañías que ya habían colaborado en el despliegue de las GPU MI300X en 2024, y que se extenderá en 2027 y más allá, con la integración de las GPUs MI355X en el OCI Supercluster Zettascale.
Una infraestructura diseñada para los modelos de IA más exigentes
Con la creciente demanda de procesamiento de IA a gran escala, Oracle Cloud Infrastructure (OCI) implementará una arquitectura verticalmente optimizada basada en el diseño de rack “Helios” de AMD. Esta solución integra:
- GPUs AMD Instinct MI450 Series
- CPUs AMD EPYC™ de próxima generación, con nombre clave “Venice”
- Redes avanzadas AMD Pensando™ con nombre clave “Vulcano”
Todo esto se integrará en una infraestructura líquida-cooled con 72 GPUs por rack, diseñada para maximizar la eficiencia energética, el rendimiento y la escalabilidad para modelos de IA con billones de parámetros.
Comentarios de los líderes
“Nuestros clientes están construyendo las aplicaciones de IA más ambiciosas del mundo, y eso requiere una infraestructura robusta, escalable y de alto rendimiento”, afirmó Mahesh Thiagarajan, vicepresidente ejecutivo de Oracle Cloud Infrastructure.
Por su parte, Forrest Norrod, vicepresidente ejecutivo de AMD, destacó que: “Con nuestras GPUs Instinct, CPUs EPYC y redes AMD Pensando, los clientes de Oracle obtienen capacidades poderosas para entrenar, ajustar y desplegar la próxima generación de IA”.
Características clave del nuevo supercluster de IA
Potencia de cómputo y memoria revolucionaria
Cada GPU MI450 incluirá hasta 432 GB de memoria HBM4 y 20 TB/s de ancho de banda, permitiendo ejecutar modelos un 50% más grandes que generaciones anteriores completamente en memoria. Esto elimina la necesidad de dividir modelos, optimizando el rendimiento de entrenamiento e inferencia.
Diseño de rack “Helios” optimizado
El diseño de racks con refrigeración líquida y conectividad UALoE ofrece baja latencia y alto rendimiento. La red está alineada con los estándares del Ultra Ethernet Consortium (UEC), mejorando el rendimiento entre nodos y racks para cargas de trabajo distribuidas.
Procesamiento central de última generación
Los nodos de control están basados en las CPUs EPYC “Venice”, que incluyen capacidades de computación confidencial y funciones de seguridad integradas. Esto asegura la protección de los datos durante todo el proceso de entrenamiento y despliegue de IA.
Redes convergentes aceleradas por DPU
Con tecnología Pensando de AMD, se logra una ingestión de datos en línea a velocidad total, fundamental para el entrenamiento a gran escala. Estas redes proporcionan el nivel de seguridad y rendimiento requerido por los centros de datos de nueva generación.
Red abierta y escalable para IA
Cada GPU podrá contar con hasta tres tarjetas AI-NIC Vulcano de 800 Gbps, asegurando conectividad programable, sin pérdida, y compatible con los estándares RoCE y UEC.
Interconexión avanzada UALink
La arquitectura UALink permite la expansión eficiente de cargas de trabajo mediante una interconexión directa de alta velocidad y coherencia de hardware entre GPUs dentro de un rack, sin pasar por CPUs. Esto facilita el uso de modelos gigantes en infraestructuras abiertas y estándares.
Compatibilidad con software de código abierto
La pila de software ROCm de AMD permite a los desarrolladores trabajar en un entorno flexible y abierto, compatible con bibliotecas populares, compiladores y frameworks como PyTorch y TensorFlow. Esto facilita la migración y despliegue de cargas de trabajo de IA y HPC.
Virtualización y partición avanzada
OCI ofrecerá soporte para partición de GPU y pods, SR-IOV y multi-tenencia robusta, lo que permitirá compartir clústeres de manera segura y eficiente según las necesidades específicas de cada carga de trabajo.
Disponibilidad de los MI355X en el Supercluster Zettascale
Además de los MI450, Oracle anunció la disponibilidad general de los AMD Instinct MI355X en el OCI Supercluster Zettascale, el cual podrá escalar hasta 131,072 GPUs. Estas nuevas instancias están diseñadas para ofrecer un equilibrio ideal entre rendimiento, flexibilidad en la nube y compatibilidad con código abierto.
Este anuncio marca un nuevo capítulo en la carrera por la supremacía en la inteligencia artificial, posicionando a Oracle y AMD como actores clave en la construcción de la infraestructura que impulsará la próxima generación de aplicaciones de IA.
Para más noticias de tecnología, cultura geek, gadgets y entretenimiento, visita: GeekAndLife.com.mx
Descubre más contenido en nuestras redes: Instagram | YouTube | TikTok

Fuente: PR


