¿Qué es la inteligencia artificial generativa?

Copiar URL

La inteligencia artificial generativa es un tipo de tecnología que crea contenido nuevo a partir de los modelos de deep learning (aprendizaje profundo) que están entrenados con conjuntos grandes de datos. Los modelos de inteligencia artificial generativa se utilizan para generar datos nuevos, lo cual los diferencia de los modelos de inteligencia artificial discriminativa, que se usan para clasificar datos en función de las diferencias. En la actualidad, las aplicaciones con esta tecnología se utilizan para generar textos, imágenes, código y mucho más. Este contenido se archiva durante la inferencia de la inteligencia artificial, que es la fase operativa de esta tecnología, en la cual el modelo aplica el conocimiento obtenido en el entrenamiento a situaciones reales. Los casos prácticos más comunes son los chatbots, la creación y la edición de imágenes, la asistencia para la creación de código de software y la investigación científica.

La inteligencia artificial generativa también se utiliza en los entornos profesionales para visualizar las ideas creativas con rapidez y ejecutar de forma más eficiente las tareas tediosas y que llevan mucho tiempo. En los sectores donde su aplicación es muy reciente, como la investigación clínica y el diseño de productos, se espera que contribuya al trabajo de los especialistas y suponga una mejora considerable en la vida de las personas. Sin embargo, también conlleva nuevos riesgos que los usuarios deben conocer y evitar.

Algunas de las aplicaciones de inteligencia artificial generativa más conocidas que surgieron en los últimos años son ChatGPT y DALL-E de OpenAI, GitHub CoPilot, Bing Chat de Microsoft, Bard de Google, Midjourney, Stable Diffusion y Adobe Firefly. IBM y Red Hat se asociaron para crear Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant, un servicio de inteligencia artificial generativa que permite a los desarrolladores generar contenido de Ansible con mayor eficiencia. Muchas otras empresas están experimentando con sus propios sistemas de inteligencia artificial generativa para automatizar las tareas rutinarias y mejorar la eficiencia.

Descubre Red Hat AI

Si te has asombrado por la coherencia de las conversaciones con ChatGPT o si alguna vez has proporcionado una descripción a Midjourney para que creara una imagen realista, ya sabes que la inteligencia artificial generativa parece magia. Pero ¿cuál es el truco?

Las aplicaciones de inteligencia artificial se basan en modelos de deep learning que recrean los patrones obtenidos a partir de una gran cantidad de datos de entrenamiento. Luego, utilizan los conocimientos adquiridos dentro de los parámetros de su entrenamiento para crear algo nuevo.

Los modelos de deep learning no almacenan una copia de los datos de entrenamiento, sino una versión codificada de ellos, en la que están organizados por cercanía según su similitud. Esta representación puede decodificarse para generar datos nuevos y originales, pero con características similares.

El diseño de una aplicación de inteligencia artificial generativa personalizada implica el uso de un modelo y de ajustes, como el perfeccionamiento supervisado por personas o datos adicionales específicos para cada caso práctico.

En la actualidad, la mayoría de las aplicaciones conocidas de este tipo de tecnología responden a las instrucciones de los usuarios: solo tienes que describir lo que deseas en lenguaje natural y obtendrás lo que solicitaste como por arte de magia.

Mira el video Technically Speaking: Lightspeed Automation with Generative AI

Recursos de Red Hat

Los avances de la inteligencia artificial generativa en la escritura y las imágenes acapararon los titulares de las noticias y la imaginación de la gente. A continuación, presentamos algunos de los primeros casos prácticos de esta tecnología que avanza rápidamente.

Escritura. Incluso antes de que ChatGPT apareciera en todos los titulares (y comenzara a escribirlos por su cuenta), la inteligencia artificial generativa imitaba la escritura humana con gran eficiencia. Entre los primeros casos prácticos de este modelo se encuentran los programas de traducción de idiomas. Las herramientas de inteligencia artificial generativa actuales pueden responder a las instrucciones que requieran la creación de contenido de alta calidad sobre prácticamente cualquier tema, así como adaptarse a los distintos estilos y extensiones de escritura.

Generación de imágenes. Las herramientas de imagen que utilizan esta tecnología pueden responder a las instrucciones con imágenes de alta calidad sobre innumerables temas y en diversos estilos. Algunas de ellas, como el relleno generativo de Adobe Photoshop, permiten agregar elementos nuevos a trabajos que ya existían.

Generación de música y voz. Las herramientas de voz que utilizan inteligencia artificial pueden crear narraciones o cantos que simulen la voz humana a partir de grabaciones y textos escritos. Algunas también pueden generar música artificial a partir de instrucciones y muestras.

Generación de video. Las técnicas de inteligencia artificial generativa se están probando en servicios nuevos para crear animaciones gráficas. Por ejemplo, algunos de ellos pueden hacer coincidir un fragmento de audio con una imagen estática y generar un movimiento de la boca y las expresiones faciales para que parezca que la persona está hablando.

Generación de código. Algunas herramientas de inteligencia artificial generativa pueden generar código informático a partir de instrucciones escritas para ayudar a los desarrolladores de software que lo soliciten.

Aumento de datos. La inteligencia artificial generativa puede crear una gran cantidad de datos sintéticos cuando no se pueden utilizar datos reales o se prefiere no hacerlo. Por ejemplo, cuando se busca entrenar un modelo que comprenda los datos de salud sin incluir información de identificación personal. También sirven para convertir un grupo pequeño o incompleto de datos en un conjunto de datos sintéticos más amplio con fines de entrenamiento o prueba.

Descubre casos prácticos de inteligencia artificial/machine learning

El deep learning es la técnica de machine learning (aprendizaje automático) que posibilita la inteligencia artificial generativa y se utiliza para analizar e interpretar grandes cantidades de datos. Este proceso, también conocido como aprendizaje neuronal profundo o red neuronal profunda, consiste en que las computadoras adquieran el aprendizaje a través de la observación, de manera similar a las personas. Es fundamental en el uso de las computadoras para la difícil tarea de comprender el lenguaje humano, conocido como el procesamiento del lenguaje natural (NLP).

El deep learning también puede pensarse como si fuera una especie de diagrama de flujo que comienza con una capa de entrada y termina con una de salida. Entre las dos, se encuentran las "capas ocultas" en las que se procesa la información en distintos niveles, y se ajusta y adapta el comportamiento a medida que se reciben datos nuevos de forma permanente. Los modelos de deep learning pueden tener cientos de capas ocultas, y cada una de ellas cumple una función en la detección de las relaciones y los patrones en el conjunto de datos.

La capa de entrada está compuesta por varios nodos y, en ella, los datos se incorporan al modelo y se categorizan según corresponda antes de continuar con el proceso. La ruta de los datos a través de las capas se basa en los cálculos de cada nodo. Los datos atraviesan cada una de las capas, y se recopilan conclusiones durante el proceso, las cuales acabarán por convertirse en la capa de salida o el análisis final.

La unidad de procesamiento de gráficos (GPU) es una de las tecnologías que agilizó el avance del deep learning. Si bien su intención original era acelerar la renderización de los gráficos de los videojuegos, es ideal para las cargas de trabajo de deep learning por su eficiencia a la hora de realizar cálculos en paralelo.

Los avances en el tamaño y la velocidad de los modelos de deep learning desencadenaron la ola actual de innovaciones en las aplicaciones de inteligencia artificial generativa.

La red neuronal es una forma de procesar la información tal como lo hace el sistema neuronal biológico con las conexiones en nuestros cerebros. Esta es la manera en que la inteligencia artificial puede establecer conexiones entre conjuntos de datos que no parecieran estar vinculados, y está estrechamente relacionada con el deep learning.

Para comprender la forma en que el deep learning aplica el concepto de la red neuronal para conectar los datos, tan solo tienes que pensar en el funcionamiento del cerebro humano. Son muchas neuronas interconectadas que actúan como mensajeras cuando se procesan los datos que se reciben. Las neuronas utilizan impulsos eléctricos y señales químicas para comunicarse entre sí y transmitir la información entre las distintas áreas del cerebro.

Las redes neuronales artificiales (ANN) se basan en este fenómeno biológico, pero se forman con neuronas artificiales que se crean a partir de módulos de software denominados nodos. Estos nodos utilizan cálculos matemáticos (a diferencia de las señales químicas del cerebro) para comunicar y transmitir la información. Esta red neuronal simulada (SNN) procesa los datos agrupándolos en clústeres y realizando predicciones.

Hay diferentes técnicas de red neuronal según el tipo de datos. El modelo de red neuronal recurrente (RNN) utiliza datos secuenciales, como el aprendizaje de palabras en orden para procesar el lenguaje.

A partir de la idea de la RNN, los transformadores son un tipo específico de arquitectura de red neuronal que puede procesar el lenguaje con mayor rapidez. Aprenden sobre las relaciones que guardan las palabras en una oración, lo que resulta más eficiente que la RNN, que incorpora cada palabra en orden secuencial.

Dentro del deep learning, también se encuentra el modelo de lenguaje de gran tamaño (LLM), el cual se entrena utilizando los transformadores en una gran cantidad de datos generalizados. Muchas de las herramientas conocidas de chat y texto de inteligencia artificial se basan en este modelo.

El modelo de difusión es otra técnica útil para la generación de imágenes que aprende a convertir una imagen natural en un elemento visual difuminado con ruido. Luego, las herramientas generativas de imágenes revierten el proceso: toman un patrón con ruido aleatorio y lo perfeccionan hasta que parezca una imagen real.

Podemos utilizar parámetros para describir los modelos de deep learning. Si se entrena un modelo sencillo de predicción de crédito con diez entradas de un formulario de solicitud de préstamo, tendrás diez parámetros. En cambio, un modelo LLM puede tener miles de millones de parámetros, como es el caso del transformador generativo preentrenado 4 (GPT-4) de OpenAI, uno de los modelos base que utiliza ChatGPT, el cual posee un billón de parámetros, según este informe.

Se trata de un modelo de deep learning que se entrena a partir de una enorme cantidad de datos genéricos y, luego, se perfecciona para casos prácticos específicos. Tal como indica su nombre, puede constituir la base de muchas aplicaciones diferentes.

En la actualidad, crear un modelo base nuevo sería un proyecto de gran envergadura. Para el proceso, se necesita una enorme cantidad de datos de entrenamiento que suelen obtenerse de Internet, las bibliotecas digitales de libros, las bases de datos de artículos académicos, los conjuntos de imágenes genéricas y otros grupos grandes de datos. Para entrenar un modelo con tantos datos, es necesario disponer de una infraestructura inmensa y diseñar o alquilar una nube de GPU. Según los informes, el diseño de los modelos base actuales costó cientos de millones de dólares.

Dado que el entrenamiento de un modelo base desde cero implica un gran esfuerzo, se suele aprovechar algún modelo ya entrenado, y luego personalizarlo. Existen muchas técnicas para la personalización, como el perfeccionamiento, el ajuste de instrucciones y la incorporación de datos específicos sobre el cliente o el área de especialización. Por ejemplo, los modelos base de la familia Granite de IBM se entrenan con datos seleccionados, por lo cual brindan transparencia a los datos que se utilizan para el entrenamiento.

El perfeccionamiento es el proceso de mejora de un modelo base para crear uno nuevo que se adapte mejor a una tarea o un área específica. La empresa puede agregar datos de entrenamiento puntuales para el caso práctico que necesita, en vez de depender de un modelo multipropósito.

El perfeccionamiento suele ser más rápido y requerir muchísimos menos datos que el entrenamiento inicial: mientras que un modelo base puede llevar semanas o meses en entrenarse, el proceso de perfeccionamiento podría llevar un par de horas.

Tal vez te preguntes cuáles son los beneficios de este método. Si utilizas un modelo multipropósito, puede que debas ingresar ejemplos e instrucciones específicos cada vez que desees que la aplicación de inteligencia artificial te muestre el resultado que estás buscando. Sin embargo, el perfeccionamiento permite que el sistema ya sepa el tipo de resultado que esperas. Puedes dar instrucciones más simples y ahorrar tiempo y recursos.

Blog: Fine-tune large language models using OpenShift Data Science

La generación aumentada por recuperación (RAG) es un método mediante el cual se vincula un modelo de lenguaje de gran tamaño (LLM) a un recurso externo para obtener mejores respuestas de una aplicación de inteligencia artificial generativa.

La implementación de la arquitectura RAG en un sistema de búsqueda de respuestas basado en un LLM (como un chatbot) establece una vía de comunicación entre un LLM y las fuentes de información adicionales que elijas. Esto permite que el LLM realice referencias cruzadas y complemente su conocimiento interno para que el usuario que formula una consulta obtenga resultados más confiables y precisos.

Obtén más información sobre la RAG

El gran avance que tuvo la tecnología de inteligencia artificial generativa en tan poco tiempo suscitó abundantes reacciones, tanto positivas como negativas. Aún estamos en el proceso de conocer sus beneficios y desventajas. Aquí resumimos algunas de las preocupaciones más importantes respecto de la inteligencia artificial generativa.

Puede utilizarse con fines perjudiciales. Existen riesgos inmediatos y lógicos asociados al uso de las herramientas de inteligencia artificial generativa con fines maliciosos, como las grandes campañas de desinformación en las redes sociales o las imágenes completamente falsas y generadas sin consentimiento que apuntan a dañar la imagen de personas reales.

Puede reforzar los prejuicios de la sociedad. Las herramientas de inteligencia artificial generativa demostraron que pueden sacar a relucir los prejuicios presentes en los datos de entrenamiento, tales como los estereotipos negativos y los discursos de odio.

Puede generar información incorrecta. Las herramientas de inteligencia artificial generativa pueden generar información y panoramas inventados y totalmente erróneos, que suelen denominarse "alucinaciones". A veces, el contenido erróneo es inofensivo, como una respuesta sin sentido en el chat o la imagen de una mano con dedos de más. Pero ha habido casos de mayor gravedad, como cuando un chatbot dio recomendaciones peligrosas a algunas personas que hicieron consultas sobre trastornos alimentarios.

Puede causar riesgos legales y de seguridad. Los sistemas de inteligencia artificial generativa pueden traer aparejados riesgos de seguridad, como cuando los usuarios ingresan información confidencial en aplicaciones sin protección. Las respuestas de estas herramientas también pueden causar riesgos legales cuando reproducen contenido protegido por derechos de autor o se apropian de la voz o la identidad de una persona real sin su consentimiento. Además, algunas de ellas tienen restricción de uso.

Red Hat® AI es nuestra cartera de productos de inteligencia artificial basada en soluciones que nuestros clientes ya conocen. Esta base permite que nuestros productos se mantengan confiables, flexibles y adaptables.

Red Hat AI permite que las empresas:

  • adopten la inteligencia artificial y generen innovaciones con ella de forma rápida;
  • eliminen las dificultades que implica ofrecer soluciones de inteligencia artificial;
  • realicen implementaciones en cualquier entorno.

Descubre Red Hat AI 

Una base para explorar diferentes opciones

Las soluciones de Red Hat AI admiten tanto las funciones de la inteligencia artificial predictiva como las de la generativa. Gracias a la flexibilidad del uso de tu propio modelo, cuentas con soporte para el entrenamiento y el perfeccionamiento de los modelos base destinados al caso práctico de tu empresa.

Un buen punto de partida es Red Hat® Enterprise Linux® AI, que es una plataforma de modelos base que sirve para desarrollar, probar y ejecutar modelos de lenguaje de gran tamaño (LLM) de Granite de las aplicaciones empresariales. La plataforma de inteligencia artificial brinda a los desarrolladores acceso rápido a un entorno de servidor único, junto con modelos de lenguaje de gran tamaño y herramientas de inteligencia artificial. Proporciona todos los elementos necesarios para ajustar los modelos y diseñar aplicaciones de inteligencia artificial generativa. 

Descubre Red Hat Enterprise Linux AI 

Nuestro ecosistema de partners de inteligencia artificial es cada vez más amplio, por lo que varios de ellos trabajan con Red Hat para certificar su funcionamiento con Red Hat AI. De esta manera, puedes explorar diferentes opciones.

Obtén más información sobre nuestros partners 

Hub

Blogs de Red Hat

Aquí encuentras la información más reciente sobre nuestros clientes, partners y comunidades open source.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

¿Qué son los vLLM?

Los vLLM son conjuntos de código open source que ayudan a los modelos de lenguaje a realizar cálculos de manera más eficiente.

¿Qué es la inferencia de la inteligencia artificial?

La inferencia de la inteligencia artificial ocurre cuando un modelo de inteligencia artificial proporciona una respuesta a partir de datos. Es la fase final de un proceso complejo de tecnología de machine learning (aprendizaje automático).

Diferencias entre la inteligencia artificial predictiva y la generativa

La inteligencia generativa y la predictiva presentan diferencias significativas y se aplican a distintos casos prácticos. A medida que la inteligencia artificial evoluciona, establecer una distinción entre estos dos tipos permite conocer mejor sus diferentes funciones.

IA/ML: lecturas recomendadas

Artículos relacionados