MLOps: qué son las operaciones de machine learning, ventajas y etapas

Copiar URL

Las operaciones de machine learning (MLOps) son un conjunto de prácticas para los flujos de trabajo cuyo objetivo es optimizar el proceso de implementación y mantenimiento de los modelos de machine learning (aprendizaje automático).

El enfoque MLOps se basa en los principios de DevOps y GitOps, y busca establecer un proceso en evolución constante para integrar los modelos de machine learning en el desarrollo de software. Al adoptar MLOps y optimizar el ciclo de entrenamiento iterativo, los analistas de datos, los ingenieros y los equipos de TI pueden garantizar de forma sincronizada la actualización y precisión de los modelos de machine learning. Esto permite supervisar, volver a entrenar e implementar permanentemente los modelos, lo cual permite adaptarlos a los datos cambiantes y mantener su máximo rendimiento a lo largo del tiempo.

Los modelos de machine learning realizan predicciones mediante la detección de patrones en los datos. A medida que el modelo evoluciona y se expone a datos nuevos para los cuales no fue entrenado, surge un problema denominado deriva de datos. Es normal que se produzca con el paso del tiempo, a medida que las propiedades estadísticas utilizadas para entrenar los modelos de machine learning se vuelven obsoletas. Si esto no se tiene en cuenta y no se corrige, podría afectar a la empresa.

La inteligencia artificial en la empresa

Para evitarla, es importante que las empresas supervisen los modelos y mantengan la precisión de las predicciones. Si se aplican estas prácticas, los equipos pueden obtener muchos beneficios: mejora de la calidad y la precisión de los modelos predictivos, simplificación del proceso de gestión, prevención de la deriva de datos y optimización de la eficiencia para los analistas de datos.

Estos son algunos de los beneficios específicos de MLOps para las empresas:

Capacidad de replicación: Las empresas pueden confiar en la capacidad de replicación uniforme de los experimentos de machine learning, ya que un marco de MLOps permite gestionar los cambios en el código, los datos y los archivos de configuración asociados con los diferentes modelos, así como realizar un seguimiento de ellos. 

Integración e implementación continuas (CI/CD): Los marcos de MLOps se integran a los canales de CI/CD, lo que permite automatizar las pruebas, la validación y la implementación. A su vez, esto agiliza los ciclos de desarrollo y distribución, y fomenta una cultura de mejora permanente.

Mayor colaboración y plazos más rápidos: El enfoque MLOps permite que los miembros del equipo trabajen juntos de manera efectiva mientras eliminan los obstáculos y aumentan la productividad. Además, si se automatizan las tareas manuales, las empresas pueden implementar más modelos en menos tiempo y realizar iteraciones con mayor frecuencia para mejorar la precisión.

Ahorro en costos: Realizar los ajustes y las mejoras permanentes que se necesitan para garantizar la precisión de un modelo de machine learning es una tarea tediosa, en especial cuando se hace de forma manual. Al utilizar las prácticas de MLOps para automatizar las tareas manuales que llevan más tiempo, las empresas pueden ahorrar muchos recursos. Además, si se optimiza el proceso de implementación, disminuye el riesgo de que se produzcan errores propios de las tareas manuales y se agiliza la obtención de resultados.

¿Qué son los modelos como servicio?

Mejora del control y el cumplimiento normativo: Las prácticas de MLOps permiten que las empresas apliquen medidas de seguridad y garanticen el cumplimiento de las normas de privacidad de datos. Además, gracias a la supervisión del rendimiento y de la precisión, es posible no solo controlar la aparición de derivas en el modelo durante la recepción de datos nuevos, sino también tomar medidas preventivas para mantener un alto nivel de precisión a lo largo del tiempo.

La seguridad de la inteligencia artificial

Recursos de Red Hat

Al adoptar las prácticas de MLOps, se elimina el tedioso trabajo manual que implica supervisar un modelo de machine learning y garantizar su rendimiento y confiabilidad permanentes. Las prácticas de MLOps optimizan la colaboración entre diferentes equipos, lo cual fomenta el desarrollo ágil y la toma de decisiones basada en los datos dentro de las empresas. 

Además, permiten que los diversos sectores automaticen y simplifiquen el proceso de desarrollo del machine learning. Algunos casos prácticos en los que se utilizan las prácticas de MLOps:

Mantenimiento predictivo: Predicción de los fallos de los equipos y programación preventiva del mantenimiento.

Detección de operaciones fraudulentas: Diseño e implementación de modelos que supervisan las transacciones de forma permanente en busca de actividades sospechosas.

Procesamiento del lenguaje natural (NLP): Las prácticas de MLOps garantizan que algunas aplicaciones, como los chatbots, los traductores y otros modelos de lenguaje de gran tamaño (LLM), funcionen de forma eficaz y confiable.

Visión artificial: Tareas como el análisis de imágenes médicas, la detección de objetos y la conducción autónoma. 

Detección de anomalías: Detección de variaciones anómalas en diversos contextos, como la seguridad de las redes, los procesos industriales y los dispositivos del IoT.

Salud: Implementación de modelos para el diagnóstico de enfermedades, la predicción de resultados de los pacientes y el análisis de imágenes médicas. 

Comercio minorista: Gestión de inventarios, predicción de la demanda, optimización de los precios y mejora de la experiencia de compra de los clientes.

Planifica las operaciones de inteligencia artificial con Red Hat AI

MLOps podría considerarse la evolución de DevOps. Se basa en los mismos conceptos fundamentales de colaboración, automatización y perfeccionamiento permanente aplicados al desarrollo de los modelos de machine learning. Ambas prácticas persiguen el mismo objetivo: mejorar la colaboración con el equipo de operaciones de TI, con quienes deben trabajar de forma conjunta para gestionar y mantener un modelo de software o de machine learning a lo largo de todo su ciclo de vida. 

Mientras que DevOps se centra en la automatización de las tareas operativas rutinarias y en la estandarización de los entornos para el desarrollo y la implementación, MLOps tiene un carácter más experimental y busca explorar formas de gestionar y mantener los canales de datos. Dado que los datos utilizados en los modelos de machine learning evolucionan constantemente, el propio modelo debe evolucionar con ellos, lo cual obliga a adaptarlos y ajustarlos con regularidad. 

Los procesos de prueba, implementación y producción son diferentes para MLOps y DevOps. Por eso, los equipos encargados de los proyectos de machine learning suelen incluir a analistas de datos que podrían no estar especializados en ingeniería de software, pero que centran sus esfuerzos en el análisis exploratorio de los datos, el desarrollo de modelos y la experimentación. Estas son algunas de las tareas que involucran las prácticas de MLOps y no suelen tenerse en cuenta en las de DevOps:

  • pruebas para la validación de datos, la evaluación de la calidad del modelo entrenado y la validación del modelo;
  • creación de un proceso de varios pasos para volver a entrenar e implementar automáticamente un modelo de machine learning a medida que recibe nuevos datos;
  • seguimiento de estadísticas de los datos y supervisión del rendimiento en línea del modelo para informar cuando los valores no se ajustan a las expectativas.

Por último, cuando se trata de la integración y la implementación continuas (CI/CD) en MLOps, la CI ya no consiste solo en realizar pruebas ni en validar el código y los elementos, como sucede en DevOps, sino que también implica probar y validar los datos, los esquemas de datos y los modelos. En el caso de la CD, ya no se trata de implementar un único paquete de software o servicios, sino un sistema (una cadena de procesos para el entrenamiento de machine learning) que debe implementar automáticamente otro servicio (el de predicción de modelos).

No hay una única forma de diseñar y poner en funcionamiento los modelos de machine learning, pero sí hay un ciclo de vida de cinco etapas esenciales que se deben seguir para diseñar y ejecutar aplicaciones. 

Red Hat® OpenShift® incluye las funciones esenciales para aplicar las prácticas de MLOps de manera uniforme en los centros de datos, la nube pública y el extremo de la red:

Paso 1: Recopilación y preparación de los datos
Recopila, limpia y etiqueta los datos estructurados o no estructurados en un formato adecuado para entrenar y probar los modelos de machine learning.

Paso 2: Entrenamiento de los modelos

Los modelos de machine learning se entrenan en Jupyter Notebooks en Red Hat OpenShift.

Paso 3: Automatización

Red Hat OpenShift Pipelines ofrece una función de integración continua basada en eventos que permite empaquetar los modelos de machine learning como imágenes de contenedores.

Paso 4: Implementación

Red Hat OpenShift GitOps automatiza la implementación de los modelos de machine learning a gran escala y en todos los entornos, ya sea en la nube pública, la nube privada, la nube híbrida o el extremo de la red. Las tecnologías como vLLM se pueden utilizar para optimizar el uso de la GPU durante la inferencia en la etapa de implementación.

Paso 5: Supervisión

Tu equipo puede utilizar las herramientas que ofrecen nuestros partners del ecosistema para supervisar los modelos y actualizarlos entrenándolos e implementándolos nuevamente, según sea necesario. A medida que se incorporan nuevos datos, el proceso vuelve a la primera etapa y atraviesa las cinco de forma constante y automática por tiempo indefinido. 

Obtén más información sobre la IA de Red Hat

Ya sea que estés analizando la posibilidad de incorporar el machine learning a tu empresa o que lleves tiempo trabajando con él, puede resultarte útil comprender el lugar que ocupan tus flujos de trabajo y procesos en el ámbito general de MLOps. La consolidación de un proceso de machine learning se suele clasificar en tres niveles, en función del grado de automatización del flujo de trabajo. 

Nivel 0 de MLOps: Todo es manual

Los equipos que comienzan a trabajar con el machine learning suelen operar con un flujo de trabajo completamente manual. En esta etapa, los analistas de datos que crean el modelo no están en contacto con los ingenieros que lo utilizan, por lo que cada paso del proceso (preparación de los datos, entrenamiento del modelo, automatización, implementación y supervisión) se lleva a cabo sin automatización. No hay integración ni implementación continuas (CI/CD). La implementación de nuevas versiones de los modelos es poco frecuente, y cuando se implementa uno nuevo, hay más posibilidades de que no se adapte a los cambios. 

Nivel 1 de MLOps: Canal de machine learning automatizado

Cuando el modelo necesita ajustarse de forma preventiva a los nuevos factores, es conveniente comenzar a introducir la automatización al flujo de trabajo. Gracias a esta automatización, se incorporan datos nuevos para el entrenamiento permanente, lo cual permite que el modelo acceda a la información más relevante para los servicios de predicción. 

Nivel 2 de MLOps: Sistema de CI/CD automatizado

En esta etapa, las actualizaciones del modelo de machine learning son rápidas y confiables. El modelo se vuelve a entrenar con datos nuevos a diario (o incluso a cada hora), y las actualizaciones se implementan en miles de servidores a la vez. Gracias a este sistema, los analistas de datos y los ingenieros pueden trabajar juntos en un entorno de colaboración único. 

Diseño o adquisición

Los recursos y el tiempo son factores importantes que debes considerar cuando decides si comprar una plataforma de MLOps o crearla de cero. Puede llevar más de un año diseñar una infraestructura de machine learning que funcione, y aún más determinar el modo de desarrollar un proceso que realmente ofrezca beneficios para tu empresa. Además, es necesario gestionar el ciclo de vida y contar con un equipo especializado para mantener la infraestructura. Sin embargo, si tu equipo no dispone de los conocimientos necesarios o del ancho de banda para adquirirlos, la mejor solución puede ser invertir en una plataforma de MLOps integral. 

Aprende a elegir una plataforma para la IA y MLOps

Red Hat® AI es nuestra cartera de productos de inteligencia artificial basada en soluciones que nuestros clientes ya conocen. Gracias a ellas, nuestros productos siguen siendo confiables, flexibles y adaptables.

Con Red Hat AI, las empresas logran:

  • adoptar la inteligencia artificial y generar innovaciones con ella de manera rápida;
  • simplificar el proceso de distribución de soluciones basadas en inteligencia artificial;
  • implementar recursos en cualquier entorno.

Descubre Red Hat AI

Una única plataforma de MLOps integrada

Red Hat AI incluye Red Hat® OpenShift® AI, una plataforma de inteligencia artificial que permite gestionar los ciclos de vida de inteligencia artificial/machine learning en los entornos de nube híbrida y en el extremo de la red.

Esta plataforma ofrece soporte para los siguientes recursos:

  • flujos de trabajo de colaboración;
  • supervisión;
  • aplicaciones de nube híbrida.

Las empresas que estén preparadas para ejecutar modelos de inteligencia artificial predictiva y generativa a gran escala pueden aprovechar Red Hat OpenShift AI, que permite que los equipos organicen y optimicen sus cargas de trabajo más importantes sin inconvenientes.

Obtén más información sobre Red Hat OpenShift AI 

Flexibilidad en los partners 

Nuestro ecosistema de partners de inteligencia artificial cada vez es más amplio, por lo que muchos de ellos trabajan con Red Hat para certificar su funcionamiento con Red Hat AI. De esta manera, puedes explorar diferentes opciones.

Obtén más información sobre nuestros partners

Publicación en blog

¿Cuál es el nivel de soberanía de tu estrategia? Presentamos la herramienta Red Hat Sovereignty Readiness Assessment

La herramienta Red Hat Sovereignty Readiness Assessment es una evaluación de autoservicio basada en la web que proporciona una referencia clara y objetiva del control digital de tu organización en siete áreas fundamentales.

Todas las versiones de prueba de los productos de Red Hat

Con las versiones de prueba gratuitas de nuestros productos, podrás adquirir experiencia práctica, prepararte para obtener una certificación o evaluar las soluciones para saber si son adecuadas para tu empresa.

Más información

La inteligencia artificial para empresas | Red Hat

La inteligencia artificial para empresas consiste en la integración de herramientas de esta tecnología y software de machine learning (aprendizaje automático) en los procesos y las operaciones a gran escala. Lo que antes llevaba años, hoy puede resolverse en semanas.

¿Qué es llm-d?

llm-d es un marco open source de Kubernetes que agiliza la inferencia distribuida de los LLM a gran escala.

¿Qué es el deep learning?

El deep learning (aprendizaje profundo) es una técnica de inteligencia artificial que consiste en enseñar a las computadoras a procesar los datos utilizando algoritmos inspirados en el cerebro humano.

IA/ML: lecturas recomendadas

Artículos relacionados