La ciudad de Denver, Colorado, es el epicentro de una nueva convocatoria de la Cumbre de sombrero rojo. Las calles del evento transcurrirán en el futuro del código abierto, la tecnología de núcleo híbrido y el auge en constante evolución de la IA generativa.
Durante la apertura de la sesión – en la que participaron empresas, expertos y consultores – Matt Hicks, CEO de Red Hat, enumeró los caminos que han abierto la IA sola en el último año y afirmó que esta tecnología no sería exclusiva de ningún proveedor, ya que Todas las partes se basan en el código abierto.
“Si bien sólo se pueden aplicar modelos de miles de millones de parámetros, hoy se pueden reproducir en tamaños más pequeños. «Las capacidades que hace sólo un año estaban asociadas con hardware exótico y de alta gama, hoy pueden usarse en un dispositivo portátil», dijo Hicks.
Para Red Hat, esto es una indicación de que las plataformas de IA deben integrarse sistemas flexibles para poder ayudar a las empresas a avanzar en la adopción de sus necesidades y recursos.
Las claves del crecimiento
Para equilibrar los costos de mantener los sistemas actuales con la adopción de nuevas soluciones, es crucial contar con infraestructuras de IA flexibles, escalables y resilientes, que combinen hardware y software de múltiples proveedores.
«He oído que no hay un proveedor general para todo. Por eso es importante que haya variedades variadas y que las opciones se mantengan abiertas. Contar con un inserto abierto y elástico, centrado en la innovación, es fundamental para avanzar hacia un cielo lleno de nubes”, sostiene Germán Soracco, vicepresidente de ventas comerciales para América Latina.
Sin embargo, al considerar los modelos de IA desde la experimentación hasta la producción, se incurren en muchos costos de hardware, preocupaciones sobre la privacidad de los datos y riesgos de confianza al compartir la información de su base de datos.
La IA está evolucionando rápidamente y muchas organizaciones luchan por crear una plataforma central que sea confiable y capaz de ejecutarse en local o desnuda.
Por este motivo, Red Hat ha ampliado su mapa Lightspeed para incluir a GenIA y esta plataforma que promueve productividad y eficiencia Los equipos que utilizan OpenShift y Enterprise Linux ayudan a mejorar las habilidades de la industria y simplificar la gestión del ciclo de vida de las aplicaciones.
“GenAI representa un avance revolucionario para las empresas. “RHEL AI y el proyecto InstructLab, combinados con Red Hat OpenShift AI, están diseñados para reducir muchas de las barreras que GenAI coloca en el núcleo híbrido: desde la brecha de capacidad de ciencia de datos hasta la cantidad de recursos necesarios”, comentó Jorge Payró. Country manager de Red Hat para Argentina.
El poder de las alianzas
Y una vez que la IA se hace cargo de un sitio dedicado a los lanzamientos de productos de la Red Hat Summit, como ocurre con cualquier software de código abierto, el resultado también depende de la alianzas con sus miembros y competidores.
Así, a lo largo del año, consolidamos esfuerzos con tres de las empresas de diseño y fabricación de chips y GPU más relevantes a nivel mundial: Nvidia, Intel y AMD, para fortalecer sus nuevas soluciones híbridas.
Esta coalición busca ofrecer soluciones que mejoren los productos de inteligencia artificial de Intel, incluidos los aceleradores Intel Gaudi, los procesadores Xeon y Core y la GPU Intel Arc.
La infraestructura híbrida resultante permite a las organizaciones desarrollar, construir y eliminar modelos de IA de manera fluida y escalable desde el centro de datos hasta el borde, garantizando la interoperabilidad y portabilidad de las cargas de trabajo.
Para cumplir con estos requisitos, Red Hat e Intel están aplicando una aplicación de nodo híbrido en la que la pila de IA no se limita a un solo nodo o centro de datos.
La colaboración con Intel tiene como objetivo proporcionar soluciones integrales de inteligencia artificial que mejoren los aceleradores Gaudí, los procesadores Xeon y Core y la GPU Intel Arc.
A medida que las industrias dependen cada vez más de la generación de IA (desde la creación de contenidos hasta la investigación científica), el papel que juega es fundamental. aceleradores de hardware para promover la innovación y ampliar fronteras.
Con una plataforma de CPU escalable y de alto rendimiento, la GPU es esencial para las etapas de entrenamiento, como la inferencia, que impulsan las cargas de trabajo de IA.
La colaboración con Nvidia combinará modelos de IA realizados con Red Hat OpenShift AI para desarrollar aplicaciones de generación de IA en una única plataforma MLOps confiable.
Siguiendo esta línea, Red Hat y Oracle anuncian la disponibilidad general de Red Hat OpenShift en Oracle Cloud Infrastructure (OCI).
Esta colaboración combina la nueva plataforma de aplicaciones híbridas líder en la industria impulsada por Kubernetes con la nueva distribución distribuida, que permite que las configuraciones certificadas y compatibles de Red Hat OpenShift se ejecuten en OCI.