L'Edge AI, qu'est-ce que c'est ?

Copier l'URL

L'Edge AI, ou intelligence artificielle (IA) en périphérie du réseau, fait référence à l'association de l'IA et de l'edge computing pour recueillir les données sur un site physique ou à proximité. Par exemple, une tâche d'algorithme de reconnaissance d'image sera plus efficace si elle est exécutée près de la source des données.

L'Edge AI permet donc de fournir des réponses presque instantanément. Puisque les algorithmes d'IA peuvent traiter les données au plus près des appareils, il suffit de quelques millisecondes pour obtenir un retour d'informations en temps réel, avec ou sans connexion Internet. Ce processus s'avère particulièrement sûr, car les données sensibles ne quittent jamais la périphérie du réseau.

Contrairement à l'IA traditionnelle, l'Edge AI n'exécute pas des modèles au niveau du back-end d'un système cloud, mais sur des appareils connectés qui s'exécutent en périphérie du réseau.  Cette approche ajoute une couche d'intelligence en périphérie. En plus de collecter des indicateurs de mesure et des résultats d'analyse, les appareils les exploitent pour agir grâce à un modèle d'apprentissage automatique (AA) intégré.

L'intelligence artificielle poursuit le même objectif : confier la collecte des données, leur traitement et la génération de résultats aux ordinateurs, en copiant l'intelligence humaine. Toutefois, l'Edge AI exécute les tâches et prend des décisions localement, à l'intérieur ou à proximité de l'appareil utilisé. 

La combinaison de l'edge computing et de l'intelligence artificielle offre de grands avantages. Avec l'Edge AI, les capacités de calcul haute performance sont étendues aux sites d'edge computing, là où se trouvent les capteurs et les objets connectés. Les utilisateurs peuvent traiter des données en temps réel sur leurs appareils, car aucune connectivité ni intégration entre les systèmes n'est nécessaire. Ils peuvent également gagner du temps en recueillant les données, sans communiquer avec d'autres emplacements physiques.

Retrouvez ci-dessous les principaux avantages de l'Edge AI.

  • Réduction de la consommation d'énergie : diminution des coûts énergétiques grâce à la conservation des processus de données en local, et besoins plus faibles en énergie pour l'exécution de l'Edge AI par rapport aux datacenters cloud.
  • Réduction de la bande passante : diminution de la quantité de données à envoyer et réduction des coûts grâce au traitement, à l'analyse et au stockage des données localement au lieu de les envoyer dans le cloud.
  • Confidentialité : diminution du risque de fuite de données en traitant celles-ci sur des appareils d'edge computing.
  • Sécurité : priorité accordée au transfert de données importantes grâce au traitement et au stockage en périphérie du réseau, ou à un filtre de données redondantes et inutiles.
  • Évolutivité : mise à l'échelle facilitée des systèmes grâce à des plateformes basées dans le cloud et à des capacités d'edge computing natives sur les équipements embarqués.
  • Réduction de la latence : accélération du traitement des données sur une plateforme cloud et de leur analyse en local, afin de lancer d'autres tâches.

Chez Red Hat, nous collaborons étroitement avec la vaste communauté Open Source sur les technologies de conteneurs et Kubernetes. La solution Red Hat® OpenShift® rassemble des services fiables et testés pour faciliter le développement, la modernisation, le déploiement, l'exécution et la gestion des applications. 

Red Hat OpenShift inclut des capacités clés qui permettent d'appliquer les pratiques MLOps de manière cohérente dans les datacenters, dans le cloud hybride et en périphérie du réseau. Avec l'IA/AA sur Red Hat OpenShift, vous pouvez accélérer les workflows d'IA/AA et la distribution des applications intelligentes basées sur l'IA.

Gamme de produits pour l'IA, Red Hat OpenShift AI fournit des outils pour le cycle de vie complet des expériences et modèles d'IA/AA. Il s'agit d'une base cohérente et évolutive qui repose sur des technologies Open Source pour les responsables de l'exploitation. Elle donne aux data scientists et équipes de développement un accès à un écosystème de partenaires spécialisés pour stimuler l'innovation dans le domaine de l'IA.

Nouveau

InstructLab

InstructLab est un projet Open Source visant à améliorer les grands modèles de langage (LLM).

Pour aller plus loin

Article

L'IA générative, qu'est-ce que c'est ?

L'IA générative s'appuie sur des modèles d'apprentissage profond entraînés avec de grands ensembles de données pour créer des contenus.

Article

L'apprentissage automatique, qu'est-ce que c'est ?

L'apprentissage automatique est une technique qui consiste à entraîner un ordinateur à identifier des schémas, à établir des prédictions et à apprendre à partir d'expériences passées sans programmation explicite.

Article

Un modèle de fondation, qu'est-ce que c'est ?

Un modèle de fondation est un type de modèle d'apprentissage automatique (AA) qui est pré-entraîné pour réaliser une série de tâches. 

En savoir plus sur l'IA/AA

Produits

Nouveau

Une plateforme de modèle de fondation conçue pour développer, tester et exécuter facilement des grands modèles de langage (LLM) de la famille Granite pour les applications d'entreprise.

Gamme de produits pour l'IA qui fournit des outils pour entraîner, ajuster, distribuer, surveiller et gérer des expériences et des modèles d'intelligence artificielle/apprentissage automatique (IA/AA) sur Red Hat OpenShift.

Plateforme d'applications d'entreprise qui inclut un ensemble unifié de services testés conçus pour distribuer des applications sur l'infrastructure de votre choix. 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant est un service d'IA générative conçu par et pour les professionnels de l'automatisation ainsi que les équipes d'exploitation et de développement qui travaillent avec Ansible. 

Ressources

Livre numérique

Éléments importants pour la création d'un environnement d'IA/AA prêt pour la production

Rapport d'analyste

The Total Economic Impact™ of Red Hat Hybrid Cloud Platform for MLOps

Webinar

Getting the most out of AI with open source and Kubernetes