Si bien hay una gran expectación en cuanto a las inmensas posibilidades que ofrece la IA generativa, los costes asociados a la adquisición, entrenamiento y puesta a punto de los LLM pueden ser astronómicos, ya que el entrenamiento de algunos de los principales modelos antes de su lanzamiento cuesta casi 200 millones de dólares. Esto no incluye el coste de la adaptación a los requisitos o datos específicos de una organización determinada, que suele necesitar científicos de datos o desarrolladores altamente especializados. Independientemente del modelo seleccionado para una aplicación determinada, sigue siendo necesaria la alineación para adaptarlo a los datos y procesos específicos de la empresa, lo que hace que la eficiencia y la agilidad sean clave para la IA en entornos de producción reales.
Red Hat cree que, durante la próxima década, los modelos de IA más pequeños, eficientes y creados a medida formarán una mezcla sustancial del stack de TI empresarial, junto con las aplicaciones nativas de la nube. Pero para lograrlo, la IA generativa debe ser accesible y estar disponible, tanto a nivel de costes, colaboradores, así como dónde puede ejecutarse en la nube híbrida. Durante décadas, las comunidades de código abierto han ayudado a resolver retos similares para problemas complejos de software a través de contribuciones de diversos grupos de usuarios; un enfoque similar puede reducir las barreras a la adopción efectiva de IA generativa.
Un enfoque de código abierto para la IA Generativa
Estos son los retos que RHEL AI pretende abordar, haciendo que la IA generativa sea más accesible, más eficiente y más flexible para los CIO y las organizaciones de TI empresarial en toda la nube híbrida. RHEL AI ayuda a:
● Potenciar la innovación de IA generativa con modelos empresariales Granite, con licencia de código abierto y alineados con una amplia variedad de casos de uso de IA generativa.
● Optimizar la adaptación de los modelos de IA generativa a los requisitos empresariales con la herramienta InstructLab, que permite a los expertos en la materia y desarrolladores de una organización aportar habilidades y conocimientos únicos a sus modelos, incluso sin contar con amplios conocimientos de ciencia de datos.
● Entrenar y desplegar IA generativa en cualquier lugar de la nube híbrida proporcionando todas las herramientas necesarias para ajustar y desplegar modelos para servidores de producción dondequiera que vivan los datos asociados. RHEL AI también proporciona una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y servir estos modelos a escala utilizando las mismas herramientas y conceptos.
RHEL AI también está respaldado por las ventajas de una suscripción a Red Hat, que incluye la distribución de productos empresariales de confianza, soporte de producción 24x7, soporte ampliado del ciclo de vida de los modelos y protecciones legales de Open Source Assurance.
RHEL AI se extiende a través de la nube híbrida
Acercar una plataforma de modelo fundacional más consistente al lugar donde residen los datos de una organización es crucial para respaldar las estrategias de IA en producción. Como una extensión de las plataformas de nube híbrida de Red Hat, RHEL AI abarcará casi todos los entornos empresariales imaginables, desde centros de datos locales hasta el extremo de la red y la nube pública. Esto significa que RHEL AI estará disponible directamente desde Red Hat, desde los partners fabricantes de equipos originales (OEM) de Red Hat y para ejecutarse en los proveedores de nube más grandes del mundo, incluidos Amazon Web Services (AWS), Google Cloud, IBM Cloud y Microsoft Azure. Esto permite a los desarrolladores y a las organizaciones de TI utilizar el poder de los recursos informáticos a hiperescala para construir conceptos innovadores de IA con RHEL AI.
Disponibilidad
RHEL AI está disponible de forma general a través del Portal del Cliente de Red Hat para ejecutar en on-premise o para subir a AWS e IBM Cloud como una oferta de “traiga su propia suscripción” (BYOS, por sus siglas en inglés). La disponibilidad de una oferta BYOS en Azure y Google Cloud está prevista para el cuarto trimestre de 2024 y también se espera que RHEL AI esté disponible en IBM Cloud como servicio a finales de este año.
Red Hat planea aumentar la disponibilidad de RHEL AI a través de los partners de la nube y de los OEM en los próximos meses, proporcionando aún más opciones en entornos de nube híbrida.
“Para que las aplicaciones de IA generativa tengan un impacto significativo en la empresa, deben ser accesibles a un conjunto más amplio de organizaciones y usuarios y más aplicables a casos de uso empresariales específicos. RHEL AI ofrece a los expertos en la materia, no solo a los científicos de datos, la posibilidad de contribuir con un modelo de IA generativa construido a medida en toda la nube híbrida, al mismo tiempo que permite a las organizaciones de TI escalar estos modelos para la producción a través de Red Hat OpenShift AI”, Joe Fernandes, vice president and general manager, Foundation Model Platforms, Red Hat.
“IBM se compromete a ayudar a las empresas a construir y desplegar modelos de IA eficaces, y escalarlos con eficacia. RHEL AI on IBM Cloud permite que la adopción de la IA generativa se beneficie de la innovación de código abierto, haciendo que más organizaciones e individuos accedan, escalen y aprovechen el poder de la IA. Al combinar la potencia de InstructLab y la familia de modelos Granite de IBM a través de RHEL AI, estamos creando modelos de IA generativa que ayudarán a los clientes a impulsar un impacto real del negocio en toda la empresa”, Hillery Hunter, CTO and general manager of innovation, IBM Infrastructure.
“Si bien la IA empresarial ofrece grandes beneficios, también presenta el reto de un panorama de modelos de IA enormemente amplio y las complejidades inherentes a la selección, el ajuste y el mantenimiento de modelos propios. Los modelos más pequeños, diseñados para un propósito específico y más accesibles pueden hacer que las estrategias de IA sean más alcanzables para un conjunto mucho más amplio de usuarios y organizaciones, que es el área a la que Red Hat apunta con RHEL AI como plataforma de modelo fundacional”, Jim Mercer, program vice president, Software Development, DevOps & DevSecOps, IDC.