Raccourcis

L'apprentissage automatique à la périphérie, qu'est-ce que c'est ?

Copier l'URL

L'apprentissage automatique en périphérie fait référence au processus d'exécution de modèles d'apprentissage automatique sur un appareil en périphérie pour collecter, traiter et reconnaître des modèles au sein d'ensembles de données brutes.

L'apprentissage automatique en périphérie, qu'est-ce que c'est ?

Pour mieux expliquer ce qu'est l'apprentissage automatique en périphérie, commençons par distinguer ses deux composants : l'apprentissage automatique et l'edge computing.

  • L'apprentissage automatique est un sous-ensemble de l'intelligence artificielle (IA) dans lequel l'IA est capable d'effectuer des tâches de perception bien plus rapidement qu'un humain. 
  • L'edge computing désigne le fait de rapprocher physiquement les services informatiques de l'utilisateur ou de la source des données. Ces services informatiques existent sur ce que nous appelons les périphériques, c'est-à-dire un ordinateur qui permet de collecter et de traiter des données brutes en temps réel, ce qui permet une analyse plus rapide et plus fiable. 

L'apprentissage automatique en périphérie permet d'exécuter des modèles d'apprentissage automatique localement sur des périphériques, tels que l'Internet des objets (IoT).

Alors que les attentes des clients augmentent, la demande de puissance de traitement rapide et sécurisée est également de plus en plus forte. 

Chaque interaction entre l'entreprise et le client associent désormais technologies et points de contact hybrides qui nécessitent un accès facile aux appareils, aux données et aux applications qui permettent de nouvelles expériences et créent une expérience utilisateur positive de bout en bout.

Traditionnellement, ce traitement s'effectue en transportant des ensembles de données vers des clouds distants via des réseaux qui ont parfois des difficultés à fonctionner à pleine capacité en raison du long trajet des données entre les destinations. Cela peut potentiellement entraîner des problèmes allant de la latence aux failles de sécurité.

Avec l'edge computing, vous pouvez rapprocher physiquement les applications basées sur l'intelligence artificielle/l'apprentissage automatique (IA/AA) des sources de données telles que les capteurs, les caméras et les appareils mobiles afin de recueillir des informations plus rapidement, d'identifier des modèles, puis de lancer des actions sans avoir recours aux réseaux cloud traditionnels.

L'edge computing est un élément important de toute stratégie de cloud hybride ouvert, car cette technologie permet d'obtenir des performances stables au niveau des applications et de l'exploitation, dans l'ensemble de l'architecture et par le biais d'une plateforme horizontale commune. 

Tout comme une stratégie de cloud hybride permet aux entreprises d'exécuter les mêmes charges de travail dans leurs propres datacenters et sur une infrastructure de cloud public (comme Amazon Web Services, Microsoft Azure ou Google Cloud), une stratégie d'edge computing va encore plus loin, permettant aux environnements cloud d'atteindre des emplacements trop éloignés pour maintenir une connectivité continue avec le datacenter.

Et parce que la plupart des sites réservés à l'edge computing ne disposent pas d'équipes informatiques spécialisées, une solution d'edge computing fiable doit être gérée avec les mêmes outils et processus que l'infrastructure centralisée, tout en pouvant fonctionner indépendamment en mode déconnecté.

Pour être complète, une solution d'edge computing doit généralement offrir les fonctionnalités suivantes :

  • Exécution d'un modèle de déploiement cohérent du cœur vers la périphérie
  • Options d'architecture flexibles pour mieux répondre aux besoins en matière de connectivité et de gestion des données
  • Automatisation et gestion des déploiements et des mises à jour de l'infrastructure depuis le datacenter principal jusqu'aux sites distants réservés à l'edge computing
  • Provisionnement, mise à jour et maintenance des applications logicielles de toute l'infrastructure à grande échelle
  • Continuité de l'exploitation sur les sites distants réservés à l'edge computing, même lorsque la connexion à Internet n'est pas fiable
  • Mise à disposition d'une plateforme logicielle performante capable d'évoluer selon les besoins
  • Sécurisation des données et des infrastructures dans des environnements distants où la sécurité est menacée

Il n'existe pas de méthode unique pour créer et mettre en œuvre des modèles d'apprentissage automatique, mais il existe un besoin constant de rassembler et de préparer des ensembles de données, de transformer des modèles en applications intelligentes et d'en tirer des revenus. Pour rendre ces applications opérationnelles avec des capacités d'apprentissage automatique intégrées (appelées MLOps) et les maintenir à jour, il faut une collaboration entre les data scientists, les développeurs, les ingénieurs AA, les équipes d'exploitation informatique et les diverses technologies DevOps

En appliquant les principes DevOps et GitOps, les entreprises automatisent et simplifient le processus itératif d'intégration des modèles d'apprentissage automatique dans les processus de développement logiciel, de déploiement en production, de surveillance, de réentraînement et de redéploiement pour assurer la précision des prévisions. 

Avec Red Hat® OpenShift®, ce processus peut être divisé en quatre étapes :

  1. Entraînement : les modèles d'apprentissage automatique sont testés sur des notebooks Jupyter sur Red Hat OpenShift.
  2. Automatisation : Red Hat OpenShift Pipelines est une fonctionnalité d'intégration continue basée sur les événements qui permet d'empaqueter des modèles d'apprentissage automatique sous forme d'images de conteneur en

    enregistrant les modèles prêts à être déployés dans un magasin de modèles.
    Conversion des modèles enregistrés en images de conteneur avec Red Hat OpenShift.
    Test des images de modèles en conteneur pour s'assurer qu'elles restent fonctionnelles.
    Stockage des images de modèles en conteneur dans un registre d'images de conteneur global et privé tel que Red Hat Quay, où les images sont analysées pour identifier les problèmes potentiels, en atténuant les risques de sécurité et la réplication géographique.
     
  3. Déploiement : la configuration déclarative gérée par Red Hat OpenShift GitOps automatise le déploiement de modèles d'apprentissage automatique à grande échelle, où que vous soyez.
  4. Surveillance : la fiabilité, la vitesse et l'évolution des modèles sont surveillées à l'aide des outils de l'un des partenaires de notre écosystème, et mises à jour en procédant à un nouvel entraînement et à un nouveau déploiement, si nécessaire.

L'intelligence artificielle et l'apprentissage automatique sont rapidement devenus essentiels pour les entreprises qui cherchent à convertir leurs données en valeur métier. Les solutions d'edge computing Open Source de Red Hat visent à accélérer ces initiatives en fournissant des services qui automatisent et simplifient le processus de développement d'applications intelligentes dans le cloud hybride. 

Red Hat reconnaît que, lorsque les data scientists s'efforcent de créer leurs modèles d'IA/AA, leurs efforts sont souvent contrariés par un manque d'alignement entre des outils en évolution rapide. Cela peut ensuite affecter la productivité et la collaboration entre leurs équipes, les développeurs de logiciels et l'équipe d'exploitation informatique. 

Pour éviter ces obstacles potentiels, les services Red Hat OpenShift sont conçus pour aider les utilisateurs à concevoir, à déployer et à gérer leurs applications intelligentes de manière cohérente dans les environnements cloud et les datacenters.

La plupart des entreprises pourraient mieux utiliser leurs données, mais elles sont limitées par leurs outils et workflows. Red Hat® OpenShift® Data Science fournit un environnement pris en charge en libre-service qui permet aux data scientists d'affiner les algorithmes et d'expérimenter le développement, la formation et le test de modèles d'apprentissage automatique.

L'edge computing sur OpenShift est utile dans de nombreux secteurs et peut servir d'outil clé pour un large éventail de tâches, de la détection des fraudes à l'automatisation des devis d'assurance, en passant par l'exploration des ressources naturelles.

Keep reading

Article

IoT et edge computing

L'IoT nécessite une puissance de calcul au plus près des appareils physiques et sources de données. L'edge computing fournit justement une source locale de capacités de traitement et de stockage.

Article

L'edge computing, qu'est-ce que c'est ?

L'edge computing ou « informatique en périphérie de réseau » désigne le traitement informatique qui s'effectue à l'emplacement physique de l'utilisateur ou de la source des données, ou à proximité.

Article

L'edge computing pour les télécommunications

L'adoption de l'edge computing est une priorité pour de nombreux opérateurs de télécommunications qui modernisent leurs réseaux et cherchent de nouvelles sources de revenus.

En savoir plus sur l'edge computing

Produits

Base stable, éprouvée et suffisamment polyvalente pour prendre en charge le déploiement de nouvelles applications, la virtualisation des environnements et la création d'un cloud hybride plus sécurisé.

Une plateforme d'applications d'entreprise comprenant un ensemble unifié de services testés conçus pour distribuer des applications sur votre choix d'infrastructure.

Gamme de logiciels d'entreprise optimisés pour les déploiements légers en périphérie du réseau.

Ressources

Résumé

L'edge computing dans l'espace : cas d'utilisation

Livre numérique

Ce qu'il faut savoir sur la création d'une infrastructure d'edge computing moderne