Red Hat presenta la próxima ola de innovación en IA generativa con el nuevo Red Hat Enterprise Linux AI.

RHEL AI 1.3 incorpora el modelo Granite 3.0 8b, ayuda a simplificar la preparación de datos de entrenamiento de IA y amplía el soporte para el último hardware de cómputo acelerado

AMÉRICA LATINA -

Red Hat, Inc., el proveedor líder mundial de soluciones open source, anunció hoy la última versión de Red Hat Enterprise Linux AI (RHEL AI), la plataforma de modelos base de Red Hat para desarrollar, probar y ejecutar de manera más sencilla modelos de inteligencia artificial generativa (o gen AI) para aplicaciones empresariales. RHEL AI 1.3 ofrece soporte para la última evolución de la familia de modelos de lenguaje de gran tamaño (LLM) Granite e incorpora avances de código abierto para la preparación de datos, al mismo tiempo que mantiene un amplio abanico de opciones para implementaciones en la nube híbrida, incluida la arquitectura de computación acelerada subyacente.

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB

To harness the transformative power of gen AI, we believe that smaller, optimized models are a necessity, and that these models need to be deployed anywhere and everywhere across the hybrid cloud.

Joe Fernandes

vice president and general manager, Artificial Intelligence Business Unit, Red Hat

Según el informe de IDC “Perspectiva del análisis de mercado: la IA generativa abierta, los LLM y el cambiante ecosistema de código abierto”, el 61 % de los encuestados planea utilizar modelos base de código abierto para casos de uso de IA generativa, en tanto más del 56 % de los modelos base implementados ya son de código abierto. Red Hat considera que esta tendencia valida la visión de la compañía de una IA generativa empresarial que requiere:

  • modelos con licencia open source más pequeños capaces de ejecutarse en cualquier momento y lugar en la nube híbrida en función de las necesidades;
  • capacidades de ajuste fino que permitan a las empresas personalizar más fácilmente los LLM a partir de datos privados y casos de uso específicos;
  • modelos de IA optimizados y más eficientes impulsados por la experiencia en ingeniería de rendimiento de inferencia; y
  • el respaldo de un partner fuerte y un ecosistema open source para ofrecer a los clientes una mayor variedad de opciones.

RHEL AI es uno de los pilares clave de la visión de IA de Red Hat, ya que reúne la familia de modelos Granite con licencia de código abierto y las herramientas de alineación de modelos InstructLab basadas en la metodología de alineación de modelos a gran escala para chatBots (LAB). Estos componentes luego se empaquetan como una imagen de Red Hat Enterprise Linux de inicio optimizada para implementaciones de servidores individuales en cualquier parte de la nube híbrida.

Soporte para los LLM Granite 3.0

RHEL AI 1.3 amplía el compromiso de Red Hat con los LLM Granite a través del soporte para casos de uso de Granite 3.0 8b en idioma inglés. Granite 3.0 8b es un modelo convergente que admite no solo el inglés, sino también una docena de otros idiomas naturales, generación de código y llamadas de funciones.  Los casos de uso en idiomas distintos del inglés, así como el código y las funciones, están disponibles como una versión preliminar para desarrolladores dentro de RHEL AI 1.3 y la expectativa es que estas capacidades se incorporen en futuras versiones de RHEL AI.

Simplificar la preparación de datos con Docling

Docling es un proyecto de desarrollo de la comunidad que recientemente IBM Research convirtió en código abierto. Este proyecto ayuda a analizar formatos de documentos comunes y convertirlos en formatos como Markdown y JSON a fin de preparar este contenido para aplicaciones y entrenamiento de la IA generativa. RHEL AI 1.3 ahora incorpora esta innovación como una función compatible que permite a los usuarios convertir archivos PDF en Markdown y simplificar la introducción de datos para el ajuste de modelos con InstructLab.

Gracias a Docling, RHEL AI 1.3 ahora también incluye la fragmentación en función del contexto, que toma en cuenta la estructura y los elementos semánticos de los documentos que se utilizan para el entrenamiento de la IA generativa. Esto ayuda a que las aplicaciones de IA generativa resultantes mantengan un grado mayor de coherencia y respuestas más adecuadas desde el punto de vista contextual a las preguntas y tareas, que de lo contrario requerirían un mayor ajuste y alineación.

Las futuras versiones de RHEL AI seguirán incorporando y perfeccionando los componentes de Docling, como formatos de documentos adicionales y la integración de procesos de generación aumentada de recuperación (RAG), además del ajuste de conocimientos de InstructLab.

Expandir el ecosistema de la IA generativa

La libertad de elección constituye un componente fundamental de la nube híbrida y, en vista del rol que desempeña la IA generativa como carga de trabajo característica de los entornos híbridos, esta flexibilidad de opciones debe partir de las arquitecturas de chips subyacentes. RHEL AI ya admite los principales aceleradores de NVIDIA y AMD y la versión 1.3 ahora incluye Intel Gaudi 3 como versión tecnológica preliminar.

Más allá de la arquitectura de chips, RHEL AI es compatible con los principales proveedores de nubes, que incluyen AWS, Google Cloud y las consolas de Microsoft Azure, como oferta “traiga su propia suscripción” (BYOS). La plataforma también estará pronto disponible como una opción de solución optimizada y validada en Azure Marketplace y AWS Marketplace.

RHEL AI está disponible como plataforma de modelos base preferida en ofertas de hardware aceleradas de partners de Red Hat, que incluyen los servidores Dell PowerEdge R760xa y los servidores Lenovo ThinkSystem SR675 V3.

Mejoras en el servicio de modelos con Red Hat OpenShift AI

En vista de que los usuarios buscan ampliar la capacidad de ofrecer LLM, Red Hat OpenShift AI ahora admite la entrega en paralelo en múltiples nodos con entornos de ejecución vLLM, lo que proporciona la capacidad de manejar múltiples solicitudes en tiempo real. Red Hat OpenShift AI también permite a los usuarios modificar dinámicamente los parámetros de un LLM cuando se entrega, como compartir el modelo en varias GPU o subdividirlo para que ocupe menos espacio. Estas mejoras tienden a acelerar el tiempo de respuesta a los usuarios, aumentar la satisfacción del cliente y reducir la tasa de abandono.

Apoyo a Red Hat AI

RHEL AI, junto con Red Hat OpenShift AI, es lo que sustenta a Red Hat AI, el portfolio de soluciones de Red Hat que acelera el tiempo de comercialización y reduce el costo operativo de la entrega de soluciones de IA en la nube híbrida.  RHEL AI es compatible con entornos de servidores Linux individuales, en tanto que Red Hat OpenShift AI potencia los entornos de plataformas Kubernetes distribuidas y provee capacidades integradas de operaciones de aprendizaje automático (MLOps). Ambas soluciones son compatibles entre sí y Red Hat OpenShift AI incorporará todas las capacidades de RHEL AI para su entrega a gran escala.

Disponibilidad

RHEL AI 1.3 ya tiene disponibilidad general. Puede encontrar más información sobre funciones adicionales, mejoras, correcciones de errores y cómo actualizarse a la última versión aquí.

Citas de apoyo

Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio Inteligencia Artificial, Red Hat

“Para aprovechar el poder transformador de la IA generativa, es necesario contar con modelos más pequeños y optimizados que deben poder implementarse en cualquier lugar de la nube híbrida.  Las mejoras que introdujimos en RHEL AI se apoyan en esta creencia. Esto facilita la preparación de datos organizacionales para el entrenamiento de modelos privados con Docling e incorpora los últimos avances en la familia de LLM Granite con licencia open source”.

Recursos adicionales

Additional Resources

Connect with Red Hat

  • ACERCA DE RED HAT
  • Red Hat es el proveedor líder mundial de soluciones de código abierto para empresas y organizaciones, con un enfoque impulsado por la comunidad para brindar tecnologías altamente confiables y de alto rendimiento, tales como Linux, nube híbrida, contenedores y Kubernetes. Red Hat ayuda a sus clientes a integrar aplicaciones informáticas nuevas y existentes, a generar desarrollos nativos de la nube, a estandarizarse en nuestro sistema operativo líder de la industria y a automatizar, proteger y gestionar entornos complejos. Sus reconocidos servicios de soporte, capacitación y consultoría convierten a Red Hat en el asesor de confianza de las empresas integrantes de la lista Fortune 500. Como socio estratégico de proveedores de nube y de aplicaciones, integradores de sistemas, clientes y comunidades open source, Red Hat ayuda a que las organizaciones se preparen para el futuro digital.



  • Declaraciones de proyección futura
  • Con excepción de la información histórica y de los análisis que se contemplan en el presente, las declaraciones incluidas en este comunicado de prensa pueden constituir declaraciones de proyección futura según el significado que le confiere la Private Securities Litigation Reform Act de 1995. Las declaraciones de proyección futura se basan en las actuales presunciones de la compañía en relación con su desempeño comercial y financiero.  Estas declaraciones contemplan ciertos riesgos, incertidumbres y otros factores que podrían hacer que los resultados reales difieran sustancialmente. Las declaraciones de proyección futura incluidas en este comunicado de prensa tienen validez únicamente en la fecha en la que se realizan. Salvo lo exigido por ley, la compañía no asume ninguna obligación de actualizar o modificar estas declaraciones de proyección futura.

    ###

    Red Hat, Red Hat Enterprise Linux, el logo de Red Hat y OpenShift son marcas comerciales o marcas comerciales registradas de Red Hat, Inc. o sus subsidiarias en los EE.UU. y en otros países. Linux® es la marca comercial registrada de Linus Torvalds en los EE. UU. y en otros países.