Définition d'une infrastructure d'IA
Parce que l'intelligence artificielle (IA) s'impose chaque jour un peu plus dans notre quotidien, il est essentiel de mettre en place une infrastructure qui assure l'efficacité des workflows. C'est là que les infrastructures d'intelligence artificielle entrent en jeu.
Une infrastructure bien conçue permet aux équipes de science des données et de développement d'accéder aux données, de déployer des algorithmes d'apprentissage automatique (AA) et de gérer les ressources informatiques du matériel.
Les infrastructures d'IA associent les technologies d'intelligence artificielle et d'apprentissage automatique (IA/AA) afin de développer et déployer des solutions évolutives pour les données. C'est la technologie sur laquelle repose l'apprentissage automatique et qui donne aux machines la capacité de penser comme un humain.
L'apprentissage automatique est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite. L'apprentissage profond, à la base de l'IA générative, est une technique d'AA utilisée pour l'analyse et l'interprétation de grandes quantités de données.
La pile technologique des infrastructures d'IA
Une pile technologique désigne un ensemble de technologies, de frameworks et d'outils utilisés pour concevoir et déployer des applications logicielles. On peut imaginer que ces technologies s'empilent les unes au-dessus des autres pour former une application. La pile technologique des infrastructures d'IA aide à accélérer le développement et le déploiement des applications au travers de trois couches fondamentales.
La couche d'applications permet aux individus de collaborer avec les machines lorsqu'ils utilisent des outils tels que des applications de bout en bout ou orientées utilisateur final. Les applications orientées utilisateur final reposent généralement sur des frameworks d'IA Open Source pour créer des modèles qui peuvent être adaptés aux besoins métier spécifiques.
La couche de modèles contribue au fonctionnement des produits d'IA et requiert une solution d'hébergement pour son déploiement. Cette couche repose sur les trois modèles suivants :
- IA générale : type d'IA qui imite le raisonnement et la prise de décision du cerveau humain, à l'image des applications d'IA telles que ChatGPT et DALL-E d'OpenAI.
- IA spécifique : type d'IA qui utilise des données spécifiques pour générer des résultats exacts, par exemple pour la création d'un texte publicitaire ou de paroles de chanson.
- IA spécialisée : type d'IA capable de parvenir aux plus hauts niveaux de précision et de pertinence, conçue pour être spécialiste de son domaine, par exemple pour rédiger des articles scientifiques ou créer des maquettes d'aménagement intérieur.
La couche d'infrastructure comprend le matériel et les logiciels nécessaires à la création et à l'entraînement des modèles d'IA, notamment les processeurs à usage spécifique comme les GPU (matériel) et les outils d'optimisation et de déploiement (logiciel). Les services de cloud computing appartiennent également à cette couche.
Composants des infrastructures d'IA
Divers composants sont nécessaires à la conception, au déploiement et à la gestion des modèles d'IA.
Stockage des données
Le stockage des données consiste à recueillir et conserver des informations numériques, c'est-à-dire les octets et bits des applications, des protocoles réseau, des documents, des fichiers multimédias, des carnets d'adresses, des préférences des utilisateurs, etc. Il revêt un rôle important dans la conservation, l'organisation et la récupération d'informations d'IA.
Gestion des données
La gestion des données regroupe la collecte, le stockage et l'utilisation des données, et s'effectue souvent à l'aide d'un logiciel spécialisé. Cette pratique permet de savoir quelles sont les données disponibles, où elles se trouvent, qui en est le propriétaire, qui peut les voir et comment y accéder. Avec les contrôles et la mise en œuvre appropriés, les flux de gestion des données génèrent les informations d'analyses nécessaires pour prendre de meilleures décisions.
Logiciels d'optimisation
Il est possible d'améliorer l'efficacité du matériel grâce à des logiciels d'optimisation tels que vLLM et llm-d.
- vLLM, sigle anglais de virtual Large Language Model, ou grand modèle de langage virtuel, est une bibliothèque de code Open Source. Ce framework améliore l'efficacité des calculs des grands modèles de langage (LLM) à grande échelle. Plus précisément, vLLM est un serveur d'inférence qui accélère les résultats des applications d'IA générative en optimisant l'utilisation de la mémoire GPU.
- llm-d est un framework Open Source natif pour Kubernetes qui accélère les opérations d'inférence distribuée à grande échelle. Il s'appuie sur la puissance de vLLM et agit en tant que coordinateur pour assurer le traitement des données le plus rapidement et efficacement possible.
Frameworks d'apprentissage automatique
L'apprentissage automatique est une sous-catégorie de l'intelligence artificielle qui utilise des algorithmes pour identifier des schémas et établir des prédictions dans un ensemble de données, et les frameworks fournissent les outils et les bibliothèques nécessaires.
MLOps
Acronyme de Machine Learning Operations, le MLOps désigne un ensemble de pratiques de gestion des workflows qui vise à rationaliser la production, la maintenance et la surveillance des modèles d'AA. S'inspirant des principes DevOps et GitOps, le MLOps a pour but d'établir un processus continu et en constante évolution pour l'intégration des modèles d'AA au développement logiciel.
Ressources Red Hat
Importance des infrastructures d'IA
Une infrastructure d'IA robuste dotée de composants bien établis favorise l'innovation et l'efficacité. Toutefois, la conception d'une infrastructure d'IA s'accompagne d'avantages, de défis et d'applications à prendre en compte.
Avantages
Les infrastructures d'IA offrent plusieurs avantages aux entreprises et aux équipes d'exploitation de l'IA. Parmi ces avantages figure l'évolutivité, qui permet d'adapter l'exploitation à la demande, en particulier avec les solutions d'IA/AA basées dans le cloud. L'automatisation des tâches répétitives est un autre avantage qui permet de réduire le nombre d'erreurs et le délai d'exécution.
Défis
Les infrastructures d'IA posent aussi quelques défis. L'un de ces plus grands défis est lié à la quantité et la qualité des données à traiter. Les systèmes d'IA s'appuient sur de grands volumes de données pour apprendre et prendre des décisions. Les méthodes traditionnelles de stockage et de traitement des données peuvent donc ne pas suffire pour gérer l'ampleur et la complexité des charges de travail de l'IA. Autre défi de taille : l'exigence liée à l'analyse et à la prise de décision en temps réel, qui implique un traitement rapide et efficace des données. Ce facteur doit être pris en compte pour choisir la solution qui pourra traiter de très grands volumes de données.
Applications
Certaines applications permettent de relever ces défis. Avec les services cloud Red Hat® OpenShift®, les entreprises peuvent créer, déployer et mettre à l'échelle des applications rapidement. Celles-ci peuvent aussi bénéficier d'une plus grande efficacité en améliorant la cohérence et la sécurité de leur infrastructure grâce à une gestion et à une assistance proactives. Les produits de la gamme Red Hat Edge permettent de déployer les applications au plus près de l'endroit où les données sont collectées et d'obtenir des informations exploitables.
Sécurité
Le terme « sécurité de l'IA » désigne toutes les mesures qui protègent les applications d'IA contre les attaques visant à affaiblir les charges de travail, à manipuler des données ou à dérober des informations sensibles. Elle adapte les principes de confidentialité, d'intégrité et de disponibilité au cycle de vie de l'IA et aux écosystèmes techniques. Pour protéger les systèmes d'IA, il est important de les comprendre parfaitement. En d'autres termes, plus une technologie d'IA et son infrastructure sont maîtrisées, plus il est facile de les sécuriser.
Effets de l'infrastructure d'IA sur l'inférence
Lors de la conception d'une infrastructure d'IA, il est important de ne pas oublier l'inférence. En effet, l'infrastructure peut avoir une grande influence sur les capacités d'inférence. L'infrastructure d'IA peut influer sur :
- La latence
- Les jetons textuels générés par seconde
- La simultanéité des utilisateurs
- Les coûts
Une infrastructure d'IA qui ne soutient pas l'inférence peut entraîner des temps de réponse plus longs, des goulets d'étranglement en matière de latence ainsi qu'une mise à l'échelle plus coûteuse. C'est pourquoi la réussite des stratégies d'IA dépend du matériel et des logiciels sur lesquels reposent les fonctionnalités d'inférence.
Nos solutions
Red Hat AI est une plateforme de produits et de services qui permettent aux entreprises d'avancer dans le déploiement de l'IA, qu'elles soient tout au début du processus ou déjà prêtes à évoluer. Cette offre répond aux besoins en matière d'IA prédictive et générative et convient aux cas d'utilisation propres à chaque entreprise.
Red Hat AI donne accès à la solution Red Hat® AI Inference Server pour optimiser l'inférence des modèles dans le cloud hybride et effectuer des déploiements plus rapides et plus rentables. Basé sur vLLM, ce serveur d'inférence optimise l'utilisation des GPU et diminue les délais de réponse.
Red Hat AI Inference Server comprend le référentiel Red Hat AI, une collection de modèles tiers validés et optimisés, qui favorise la flexibilité des modèles et la cohérence entre les équipes. Grâce à ce référentiel de modèles tiers, les entreprises peuvent réduire le délai de mise sur le marché et éliminer les obstacles financiers qui freinent l'adoption de l'IA.
Le blog officiel de Red Hat
Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.