Cos'è l'intelligenza artificiale all'edge?

Copia URL

L'intelligenza artificiale all'edge, o edge AI, consiste nell'utilizzo dell'intelligenza artificiale in combinazione con l'edge computing per consentire la raccolta dei dati in un luogo fisico o nelle sue vicinanze. Ad esempio, un'attività che include un algoritmo di riconoscimento delle immagini dà migliori risultati se svolta vicino alla sorgente dei dati.

Le risposte dell'IA all'edge vengono ricevute immediatamente: questi algoritmi, infatti, elaborano i dati vicino alla posizione del dispositivo e in pochi millisecondi, perciò sono in grado di offrire un feedback in tempo reale con o senza connessione a Internet. La procedura garantisce più sicurezza, perché i dati sensibili non vengono mai effettivamente allontanati dall'edge.

L'edge AI è diversa dall'intelligenza artificiale tradizionale perché esegue i modelli sui dispositivi connessi che operano all'edge della rete, anziché nel backend di un sistema cloud.  Ciò aggiunge un livello di intelligenza all'edge, perché i dispositivi non si limitano a raccogliere metriche e analisi, ma sono anche in grado di reagire in base alle informazioni elaborate, grazie a un modello di machine learning (ML) integrato.

Lo scopo dell'intelligenza artificiale è lo stesso: far sì che i computer acquisiscano dati, li elaborino e generino risultati simili a quelli dell'intelligenza umana. Il limite dell'IA all'edge è, tuttavia, legato al fatto che questa tecnologia viene applicata solo localmente, all'interno o nei pressi del dispositivo utilizzato. 

L'integrazione di edge computing e intelligenza artificiale offre notevoli vantaggi. Grazie all'IA all'edge, le funzionalità di high performance computing vengono trasportate fino ai margini della rete, dove si trovano sensori e dispositivi IoT. Non essendo richieste connettività né integrazione fra sistemi, i dati possono essere elaborati e raccolti in tempo reale, consentendo agli utenti di risparmiare tempo, senza dover comunicare con altre ubicazioni.

Di seguito alcuni dei vantaggi dell'IA all'edge: 

  • Consumi energetici ridotti: i requisiti energetici per l'esecuzione di processi IA all'edge sono inferiori rispetto a quelli dei datacenter cloud, perché elaborando i dati in loco è possibile ottenere risparmi sui costi dei consumi.
  • Larghezza di banda necessaria ridotta: riducendo le informazioni inviate nel cloud, ottieni un flusso di dati inferiore che richiede meno larghezza di banda e ti consente di limitare i costi pur aumentando la quantità di dati elaborati, analizzati e archiviati.
  • Privacy: con l'elaborazione delle informazioni sui dispositivi di IA all'edge, riduci il rischio di diffusione dei dati sensibili.
  • Sicurezza: elaborando e archiviando i dati in una rete edge e filtrando quelli ridondanti o non necessari, puoi stabilire la giusta priorità per il trasferimento delle informazioni.
  • Scalabilità: le piattaforme basate sul cloud e la funzionalità edge nativa dei dispositivi OEM ti consentono di adattare i sistemi in maniera semplice e scalabile. 
  • Latenza ridotta: riduci le tempistiche necessarie per elaborare i dati su una piattaforma cloud e analizzali a livello locale per consentire lo svolgimento di altre attività.

Red Hat fornisce un contributo notevole allo sviluppo delle tecnologie dei container e Kubernetes, nell'ambito dell'intera community open source. Red Hat® OpenShift® coniuga servizi testati e affidabili per rendere i processi di sviluppo, modernizzazione, distribuzione, esecuzione e gestione delle applicazioni un'esperienza funzionale e omogenea. 

Red Hat OpenShift include funzionalità chiave per consentire operazioni di machine learning (MLOps) in modo coerente tra datacenter, cloud ibrido ed edge. Grazie all'AI/ML su Red Hat OpenShift puoi accelerare i flussi di lavoro AI/ML e la distribuzione di applicazioni basate sull'intelligenza artificiale.

Red Hat OpenShift AI è un insieme di strumenti basati sull'intelligenza artificiale e pensati per l'intero ciclo di vita delle iniziative e dei modelli di AI/ML. È una base scalabile e coerente fondata sulla tecnologia open source per i responsabili delle operazioni IT, che offre un ecosistema di partner per consentire a data scientist e sviluppatori di sfruttare le innovazioni incentrate sull'intelligenza artificiale.

Nuovo prodotto

InstructLab

InstructLab è un progetto open source che ha la finalità di migliorare i modelli linguistici di grandi dimensioni (LLM).

Approfondisci

Articolo

Cos'è l'IA generativa?

L'IA generativa crea nuovi contenuti usando i modelli di deep learning il cui training è stato eseguito su set di dati enormi.

Articolo

Cos'è il machine learning?

Il machine learning è una tecnica che permette di addestrare i computer a individuare schemi, a eseguire analisi predittive e a imparare dall'esperienza, senza alcuna programmazione esplicita.

Articolo

Cosa sono i modelli di base?

Un modello di base è una particolare tipologia di modello di machine learning (ML) che viene addestrato per eseguire una specifica gamma di attività. 

Maggiori informazioni su AI/ML

Prodotti

Nuovo

Una piattaforma per modelli fondativi concepita per sviluppare, testare ed eseguire, in modo semplice, i modelli linguistici di grandi dimensioni (LLM) della famiglia Granite per applicazioni aziendali.

Il portfolio di soluzioni incentrate sull'IA è una gamma di strumenti che permettono di addestrare, ottimizzare, impiegare, monitorare e gestire iniziative e modelli di AI/ML su Red Hat OpenShift.

Una piattaforma applicativa di livello enterprise che grazie a servizi verificati consente la distribuzione delle app su un'ampia gamma di infrastrutture. 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant è un servizio di IA generativa progettato da e per gli sviluppatori, gli operatori e gli autori dell'automazione Ansible. 

Risorse

ebook

Considerazioni essenziali per la creazione di un ambiente di AI/ML pronto per il passaggio in produzione

Resoconto analitico

The Total Economic Impact™ Of Red Hat Hybrid Cloud Platform For MLOps

Webinar

Getting the most out of AI with open source and Kubernetes