¿Cómo se ve el futuro de la IA? Kirk Bresniker, Asociado en HPE y Arquitecto jefe en Hewlett Packard Labs, comparte sus ideas sobre lo que podría pasar en los años por venir.
- La IA generativa, impulsada por los modelos de lenguaje de gran tamaño, está redefiniendo las industrias y marcando una clara división entre la vida antes y después de su surgimiento.
- El dominio de la IA será esencial para mantenerse relevantes a medida que la tecnología transforme todos los campos.
Desde hace más de una década, la inteligencia artificial (IA) y el aprendizaje automático (ML, por sus siglas en inglés) han estado creando nuevas capacidades para las empresas y los investigadores. Ya sea el uso del análisis predictivo para pronosticar el mantenimiento de los equipos, herramientas de visión computacional para dotar de vista a los robots de la línea de ensamblado automático o gemelos digitales para simular el comportamiento de fábricas, ciudades e incluso economías, la lista de aplicaciones impulsadas por la IA se expande cada vez más.
Sin embargo, ninguna de esas innovaciones ha captado la imaginación de las personas y las empresas como la IA generativa (GenAI). A lo largo de los últimos dos años, el mundo ha pasado por un cambio tectónico debido al surgimiento de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) que conforman los cimientos de las aplicaciones de GenAI. Las réplicas se seguirán sintiendo durante décadas.
Yo crecí en Silicon Valley, donde siempre estábamos esperando “el gran evento telúrico” que cambiaría nuestras vidas de la noche a la mañana. Aunque esa metáfora se usa todo el tiempo en el mundo de la tecnología, esta vez es apropiada.
En el futuro, miraremos hacia atrás y veremos una clara demarcación: la vida antes y después de los LLM
La capacidad de hacer preguntas a los chatbots de GenAI usando lenguaje natural y que generen respuestas a partir de casi toda la información humana registrada afectará todas las actividades basadas en conocimiento que realicen los humanos. En el futuro, miraremos hacia atrás y veremos una clara demarcación: la vida antes y después de los LLM.
¿Cómo será exactamente ese futuro? He aquí una mirada anticipada al final de la década para imaginar cómo formaremos alianzas con las tecnologías de IA del mañana.
1. Los modelos de IA reemplazarán las aplicaciones y los sistemas operativos empresariales
Hoy en día, utilizamos un conjunto de aplicaciones para realizar funciones básicas como buscar en bases de datos, enviar mensajes o crear documentos con las herramientas que conocemos bien. En el futuro, pediremos a un representante basado en IA que nos proporcione respuestas o realice estas tareas, y este agrupará modelos que hayan demostrado ser seguros y compatibles, escribirá o reescribirá aplicaciones en tiempo real y negociará términos y condiciones a favor de nuestros intereses. Tu representante de IA resolverá simultáneamente ecuaciones de física, economía, derecho y más para decidir la mejor manera de implementar cada secuencia de tareas, además de organizar los modelos y buscar información en fuentes adicionales según sea necesario. El representante de IA también recordará las solicitudes pasadas y anticipará las futuras, a fin de adaptarse al comportamiento de los usuarios y crear sistemas sumamente personalizados para ellos.
2. La generación y operación de los modelos de IA será más transparente
En la actualidad, los científicos de datos y los ingenieros de IA que desarrollan modelos avanzados a menudo no pueden explicar cómo llegan a un determinado resultado. La magnitud de las entradas, la naturaleza del entrenamiento y la enorme potencia computacional requerida para producir un modelo se combinan para hacer que los modelos de IA sean inexplicables. Y aunque en algunos casos esto sea aceptable, al tratarse de su adopción para un uso específico en una empresa altamente regulada, la transparencia será clave para su implementación.
A medida que estos modelos se vuelvan cada vez más importantes en la toma de decisiones críticas, observaremos un proceso iterativo de legislación, litigio, negociación e innovación entre los reguladores, las empresas y las comunidades donde operan. Este proceso probablemente continuará reflejando diferencias en tolerancia al riesgo, valores y prioridades en cada industria y región.
Los modelos de IA también deberán ser más transparentes respecto a los recursos que consumen. No se puede hablar del futuro de la IA sin considerar las cantidades sin precedentes de electricidad, agua, talento y dinero requeridas para entrenar un modelo de vanguardia. Y aunque hoy en día el impresionante número de recursos destinados al entrenamiento es un tema central, debemos prepararnos porque seguirá aumentando. La infraestructura actual de las principales redes sociales está dimensionada para cientos de miles de inferencias por usuario/hora, pero ¿cuántos recursos serán necesarios para soportar millones de inferencias cada hora del día para 8,000 millones de personas?[1]
Los operadores de los modelos fundacionales deberán ser explícitos sobre el origen de la energía, la infraestructura y la información utilizadas en sus modelos, lo que permitirá a las organizaciones tomar decisiones informadas sobre si los conocimientos que estos modelos ofrecen justifican su costo.
3. La sostenibilidad se convertirá en una prioridad global y la IA nos llevará en esa dirección
Cada elemento dentro de la infraestructura informática mundial, es decir, cada componente en cada rack de cada centro de datos deberá optimizarse para la sostenibilidad. Los responsables de la toma de decisiones tendrán que determinar si el valor de cada resultado empresarial justifica el gasto energético necesario para producirlo. Desde extraer los minerales, fabricar la infraestructura e implementarla a escala para reunir la información y energía para entrenar e inferir los resultados, necesitaremos contabilizar cada julio de energía, cada byte de información y cada litro de agua utilizado.
Una de las principales razones por las que Hewlett Packard Enterprise adoptó la refrigeración líquida directa (DLC, por sus siglas en inglés) en sus sistemas de computación de alto rendimiento es la eficiencia energética que esta tecnología ofrece. La refrigeración líquida puede reducir la huella de carbono y los costos de refrigeración de un centro de datos en casi un 90% anual.[2] Pese a que llevamos décadas desarrollando esta tecnología para las aplicaciones de supercomputación más demandantes en ciencia e ingeniería, ahora se está incorporando en los centros de datos a una escala 40 veces mayor para las implementaciones de IA que requieren gigavatios de energía. Para poner estas cifras en contexto, las supercomputadoras de exaescala más rápidas del mundo, Frontier, Aurora y El Capitan, operan a unos 25 megavatios, lo que equivale a un poco más de lo que consumen 20,000 hogares promedio en EE.UU.[3] Los centros de datos del futuro consumirán más de un gigavatio, el equivalente a lo que consumen 833,000 hogares promedio en EE.UU.[4]
HPE se compromete a llevar la eficiencia al límite en todos los aspectos de la tecnología de la información: computación, almacenamiento y redes. Los gemelos digitales basados en el aprendizaje por refuerzo pueden optimizar las necesidades de energía, transporte y comunicación de los sistemas a gran escala, ya que identifican el desperdicio en el ecosistema energético, anticipan las fluctuaciones en la demanda y sugieren estrategias para gestionar la red de manera más eficiente utilizando fuentes de energía renovable.
4. El desarrollo de nuevos LLM requerirá nuevos paradigmas computacionales
Los LLM más avanzados actualmente están escalando a trillones de parámetros, que representan el número de variables que pueden ajustarse para mejorar la precisión de las predicciones del modelo. La gran incógnita es si un mayor número de parámetros producirá modelos aún más eficientes. De ser así, la próxima generación de modelos requerirá una cantidad mucho mayor de parámetros, además de volúmenes de datos y gigavatios de potencia de cómputo aún más altos.
El instituto de investigación Epoch AI estima que el modelo más costoso hasta la fecha, Gemini Ultra, tiene un costo combinado de capital y operación de USD $800 millones.[5] Si el ritmo actual de desarrollo de los LLM continúa, en una década podríamos gastar el equivalente al presupuesto anual global de TI para entrenar un modelo a la vez. En otras palabras, llegaremos al límite de nuestra capacidad para entrenar modelos más grandes con las tecnologías existentes. Incluso si las nuevas tecnologías y algoritmos lograran acercarse a la eficiencia de entrenamiento de las inteligencias biológicas, la inferencia de estos modelos, que podría realizarse millones de veces por hora para cada uno de los 8,000 millones de habitantes del planeta, representaría un obstáculo aún mayor. ¿Podemos darnos el lujo de brindar a todos acceso a un futuro optimizado con IA?
La computación fotónica, que utiliza ondas de luz para el almacenamiento y procesamiento de datos, podría permitirnos construir dispositivos de baja latencia y bajo consumo energético para realizar inferencias en el extremo. Sin embargo, entrenar a la próxima generación de LLM probablemente requerirá tecnologías y algoritmos que aún se encuentran en desarrollo por equipos de investigación como el nuestro en Hewlett Packard Labs. El objetivo final es lograr que la IA sea capaz de un verdadero razonamiento deductivo. Los aceleradores basados en la física pueden ser la clave para una nueva dimensión de comportamientos de IA que con el tiempo nos lleven a la inteligencia artificial general.
5. El impacto más grande de la IA será en el comportamiento humano
Así como nos hemos adaptado a las computadoras, al Internet y a los teléfonos inteligentes en las últimas tres décadas, debemos adaptarnos a la IA y aprender a usarla de manera eficaz.
Nuestro CEO, Antonio Neri, suele decir que todos en HPE deberían cursar una especialidad en IA. Lo que quiere decir con esto es que cada equipo y todos sus integrantes deben explorar las posibilidades de esta tecnología y preguntarse si lo que están haciendo hoy podría hacerse de manera más eficaz y eficiente con esta tecnología.
La respuesta no siempre será sí, pero cada persona dentro de cada organización debe estar dispuesta a reflexionar seriamente sobre la pregunta. Aunque no creo que los robots vayan a quitarnos el trabajo, estoy convencido de que, si quieres destacar en la ciencia, la ingeniería, la industria o incluso las artes, necesitarás ser competente en IA. Si no sabes cómo aprovechar esta tecnología, podrías ser reemplazado por alguien que sí lo sepa.
[1] “Desarrollando la infraestructura de GenAI de Meta”, Ingeniería en Meta, 12 de marzo de 2024, y “Facebook: La plataforma social más grande de nuestros tiempos”, Investing.com, 31 de octubre de 2024
[2] “Extendiendo la viabilidad de la refrigeración por aire en los centros de datos de alto rendimiento con sistemas HPE Cray XD2000”, HPC Wire, 3 de julio de 2023
[3] “Exaescala: La nueva frontera de la computación”, Laboratorio Nacional de Oak Ridge
[4] “El centro de datos del gigavatio está por llegar”, Data Center Frontier, 29 de abril de 2024
[5] Epoch.AI, 2024
Para más noticias del mundo, cultura geek & tech, sigue en: GeekAndLife.com.mx | Si quieres noticias de Anime, Videojuegos y diversión, visita MultiAnime.com.mx

Fuente: PR