Comparación entre la RAG y el perfeccionamiento

Copiar URL

Tanto la generación aumentada por recuperación (RAG) como el perfeccionamiento tienen como objetivo mejorar los modelos de lenguaje de gran tamaño (LLM). La RAG lo hace sin modificar el LLM fundamental, mientras que el perfeccionamiento requiere ajustar los pesos y los parámetros del LLM. A menudo, puedes personalizar el modelo usando el perfeccionamiento y la arquitectura RAG a la vez.

Descubre Red Hat AI

Un LLM es un tipo de inteligencia artificial que utiliza técnicas de machine learning (aprendizaje automático) para comprender y producir lenguaje humano. Estos modelos de machine learning pueden generar, resumir, traducir, reescribir, clasificar, categorizar y analizar texto, y mucho más. En las empresas, estos modelos suelen usarse para crear un sistema de preguntas y respuestas, como un chatbot.

Los modelos base de los LLM se entrenan con conocimientos generales para respaldar una amplia gama de casos prácticos. Sin embargo, es probable que no dispongan del conocimiento específico de un área que es exclusivo de tu empresa. La RAG y el perfeccionamiento son dos formas de ajustar tu LLM e incorporarle los datos que necesita para producir los resultados que deseas.

Por ejemplo, supongamos que estás desarrollando un chatbot para que interactúe con los clientes. En este escenario, el chatbot representa tu empresa, por lo que querrás que actúe como un empleado de alto rendimiento y que comprenda los matices de tu empresa, como los productos que vendes y las políticas que aplicas. De la misma manera en que capacitarías a un empleado proporcionándole documentos para estudiar y guiones para seguir, debes entrenar a un chatbot mediante el uso de la RAG y el perfeccionamiento para aprovechar la base de conocimientos con la que llega. 

Recursos de Red Hat

Hub

El blog oficial de Red Hat

Obtenga la información más reciente sobre nuestro ecosistema de clientes, socios y comunidades.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué es el ajuste fino eficiente de parámetros (PEFT)?

El PEFT es un conjunto de técnicas que ajustan solo una parte de los parámetros que están dentro de un LLM para utilizar menos recursos.

Los vLLM

Los vLLM son conjuntos de código open source que permiten que los modelos de lenguaje realicen cálculos de manera más eficiente.

¿Qué es la inferencia de la inteligencia artificial?

La inferencia de la inteligencia artificial ocurre cuando un modelo de inteligencia artificial proporciona una respuesta a partir de datos. Es la fase final de un proceso complejo de tecnología de machine learning (aprendizaje automático).

IA/ML: lecturas recomendadas

Artículos relacionados