Vai al paragrafo

I vantaggi dell'edge computing

Copia URL

Per edge computing si intende l'elaborazione delle informazioni eseguita vicino all'ubicazione fisica dell'utente che elabora i dati o alla sorgente dei dati. Grazie alla maggiore prossimità di questi servizi di elaborazione all'edge della rete, gli utenti hanno accesso a servizi più veloci e affidabili, mentre le aziende possono sfruttare la flessibilità dell'ambiente di elaborazione del cloud ibrido. L'edge computing permette alle aziende di utilizzare e distribuire un pool di risorse comune fra varie sedi staccate.

L'edge è una strategia che consente di estendere un ambiente uniforme dal datacenter centrale a posizioni fisiche vicino agli utenti e ai dati. Analogamente a una strategia di cloud ibrido che consente alle organizzazioni di eseguire gli stessi carichi di lavoro sia nei propri datacenter che su infrastrutture di cloud pubblico (come Amazon Web Services, Microsoft Azure o Google Cloud), una strategia edge computing permette di estendere un ambiente cloud a molte più posizioni.

L'edge computing oggi viene utilizzato in molti settori, tra cui telecomunicazioni, produzione, trasporti, servizi pubblici e molti altri. I motivi che inducono le aziende all'adozione dell'edge computing sono molteplici come lo sono gli ambiti in cui queste operano.

Alcuni scenari di utilizzo comuni dell'edge

Molti scenari di utilizzo dell'edge sono legati alla necessità di elaborare i dati localmente in tempo reale, situazioni in cui la trasmissione dei dati a un datacenter per l'elaborazione causa livelli di latenza inaccettabili.

Un esempio di edge computing relativo all'esigenza di elaborare dati in tempo reale è il moderno impianto di produzione. Nel reparto produzione, i sensori Internet of Things (IoT) generano un flusso costante di dati che possono essere utilizzati per prevenire guasti e migliorare le operazioni. Secondo una stima, un moderno impianto con 2.000 apparecchiature può generare 2.200 terabyte di dati al mese. È più veloce e meno costoso elaborare questa enorme quantità di dati vicino all'apparecchiatura, anziché trasmetterli prima a un datacenter remoto. Ma è comunque auspicabile che l'apparecchiatura sia collegata tramite una piattaforma dati centralizzata. In questo modo, ad esempio, le apparecchiature possono ricevere aggiornamenti software standardizzati e condividere dati filtrati che possono aiutare a migliorare le operazioni in altre sedi della fabbrica.

I veicoli connessi sono un altro esempio comune di edge computing. Autobus e treni sono dotati di computer per monitorare il flusso dei passeggeri e l'erogazione dei servizi. Grazie alla tecnologia a bordo dei loro camion, i conducenti addetti alle consegne possono trovare i percorsi più efficienti. Quando viene distribuito utilizzando una strategia di edge computing, ogni veicolo esegue la stessa piattaforma standardizzata del resto della flotta, rendendo i servizi più affidabili e garantendo che i dati siano protetti in modo uniforme.

I veicoli autonomi rappresentano un ulteriore passo avanti, un altro esempio di edge computing che prevede l'elaborazione di un'elevata quantità di dati in tempo reale in una situazione in cui la connettività può non essere uniforme. A causa dell'enorme quantità di dati, i veicoli autonomi come le auto a guida autonoma elaborano i dati dei sensori a bordo del veicolo per ridurre la latenza, ma possono comunque connettersi a una posizione centrale per gli aggiornamenti software over the air.

L'edge computing aiuta anche a mantenere veloci i servizi Internet più diffusi. Le reti per la distribuzione di contenuti (CDN) distribuiscono server di dati vicino a dove si trovano gli utenti, consentendo il caricamento rapido dei siti Web con più traffico e supportando servizi di streaming video veloci.

Un altro esempio di edge computing si trova nelle torri della rete cellulare 5G. I provider di telecomunicazioni gestiscono sempre più le reti mediante la virtualizzazione delle funzioni di rete (NFV), utilizzando macchine virtuali in esecuzione su dispositivi hardware standard all'edge della rete. Queste macchine virtuali possono sostituire costose apparecchiature proprietarie. Una strategia di edge computing consente ai provider di mantenere il software in decine di migliaia di postazioni remote, tutte funzionanti in modo coerente e con standard di sicurezza uniformi. Anche le applicazioni in esecuzione vicino all'utente finale in una rete mobile riducono la latenza e consentono ai provider di offrire nuovi servizi.

Scegliere l'edge computing significa ottenere servizi più veloci e stabili a un costo inferiore. Per gli utenti, l'edge computing vuol dire fruire di un'esperienza più veloce e coerente. Per le aziende e i provider di servizi, una soluzione edge consente di ottenere una bassa latenza e app altamente disponibili con un monitoraggio in tempo reale.

L'edge computing permette di ridurre i costi di rete, evitare i vincoli della larghezza di banda, ridurre i ritardi nelle trasmissioni, limitare gli errori di servizio e controllare meglio i trasferimenti dei dati sensibili. I tempi di caricamento vengono ridotti e i servizi online vengono erogati più vicino agli utenti, offrendo funzionalità di caching sia statico che dinamico.

Anche le applicazioni che beneficiano di tempi di risposta inferiori, come le applicazioni di realtà aumentata e realtà virtuale, traggono vantaggio dall'edge computing.

Altri vantaggi dell'edge computing comprendono la possibilità di eseguire aggregazioni e analisi di big data in loco, consentendo di prendere decisioni quasi in tempo reale. Inoltre, l'edge computing riduce ulteriormente il rischio di esposizione dei dati sensibili poiché mantiene la potenza di elaborazione locale, consentendo alle aziende di applicare procedure di sicurezza o di conformarsi alle politiche di regolamentazione.

L'edge computing offre alle aziende una capacità di resilienza maggiore e un risparmio sui costi. Mantenendo la potenza di elaborazione locale, le sedi periferiche possono continuare a operare indipendentemente da un sito centrale, anche se quest'ultimo dovesse smettere di essere operativo. Al contempo, avere la potenza di elaborazione vicino alla sorgente significa ridurre drasticamente i costi della larghezza di banda per trasmettere continuamente i dati tra le sedi periferiche e il sito centrale.

Una piattaforma edge può aiutare a garantire coerenza per le operazioni e lo sviluppo delle applicazioni. Rispetto a un data center, può offrire l'interoperabilità per supportare una maggiore varietà di ambienti hardware e software. Una strategia di edge efficace consente inoltre ai prodotti di più provider di funzionare insieme in un ecosistema open source.

Scopri i quattro vantaggi chiave dell'edge computing ->

Un modo per visualizzare l'edge computing è immaginare una serie di cerchi che si irradiano dal datacenter del codice, in cui ciascun cerchio rappresenta un livello diverso che si avvicina all'edge più lontano.

  • Provider/azienda principale: si tratta di livelli tradizionali "non edge", di proprietà e gestiti da provider di cloud pubblico, provider di servizi di telecomunicazioni o grandi imprese.
  • Edge del service provider: questi livelli si trovano tra i datacenter principali o regionali e l'accesso last mile, sono proprietari e gestiti comunemente da un provider di servizi di telecomunicazioni o Internet e da questi il provider eroga i servizi a più clienti.
  • Edge delle sedi degli utenti finali: i livelli edge sul lato utente finale dell'accesso last mile possono includere l'edge aziendale (ad es. un negozio al dettaglio, una fabbrica, un treno) o l'edge consumer (ad es. un'abitazione residenziale, un'auto).
  • Edge dispositivo: sistemi standalone (non cluster) che collegano direttamente sensori/attuatori tramite protocolli non Internet. Questo rappresenta l'edge estremo della rete.

L'edge computing, con la sua enfasi sulla raccolta dati e sul calcolo in tempo reale, può contribuire al successo delle applicazioni intelligenti che elaborano volumi elevati di dati. Ad esempio, le attività di intelligenza artificiale/machine learning (IA/ML), come gli algoritmi di riconoscimento delle immagini, possono essere eseguite in modo più efficiente più vicino alla sorgente dei dati, eliminando la necessità di trasferire grandi quantità di dati a un datacenter centralizzato.

Queste applicazioni si basano su combinazioni di molti punti dati e le utilizzano per dedurre informazioni con una rilevanza superiore che possono aiutare le organizzazioni a ottimizzare il processo decisionale. Questa funzionalità consente di migliorare un'ampia gamma di interazioni aziendali come le esperienze dei clienti, la manutenzione preventiva, la prevenzione delle frodi, il processo decisionale clinico e molte altre.

Trattando ogni punto dati in entrata come un evento, le organizzazioni possono applicare la gestione delle decisioni e le tecniche di inferenza AI/ML per filtrare, elaborare, qualificare e combinare eventi al fine di dedurre informazioni di ordine superiore.

Le applicazioni ad alta intensità di dati possono essere suddivise in una serie di fasi, ciascuna eseguita in diverse parti dell'ambiente IT. L'edge entra in gioco nella fase di acquisizione dei dati, quando i dati vengono raccolti, pre-elaborati e trasportati. I dati passano quindi attraverso fasi di ingegneria e analisi, in genere in un ambiente di cloud privato o pubblico per essere archiviati e trasformati e, a questo punto, utilizzati per l'addestramento del modello di machine learning. Successivamente si torna all'edge per la fase di inferenza del runtime, quando i modelli di machine learning vengono resi disponibili e monitorati.

Per soddisfare queste diverse esigenze e fornire la connessione tra le varie fasi del processo, sono necessarie un'infrastruttura e una piattaforma di sviluppo delle applicazioni che siano flessibili, adattabili ed elastiche.

Una strategia di cloud ibrido, che fornisce un'esperienza coerente tra cloud pubblici e privati, offre la flessibilità necessaria per eseguire in modo ottimale il provisioning dei carichi di lavoro di acquisizione dati e inferenza intelligente all'edge di un ambiente, dei carichi di lavoro di elaborazione dei dati a elevato utilizzo di risorse e dei carichi di lavoro dedicati alla formazione negli ambienti cloud, nonché degli eventi aziendali e dei sistemi di gestione delle informazioni vicini agli utenti aziendali.

L'edge computing è una parte integrante dell'approccio al cloud ibrido che garantisce la coerenza delle applicazioni e delle operazioni.

L'adozione dell'edge computing è una priorità per i numerosi provider di servizi di telecomunicazioni che spostano i carichi di lavoro e i servizi verso l'edge della rete.

I millisecondi contano quando si utilizzano applicazioni di rete ad alta richiesta, come quelle per le chiamate vocali e video. Poiché l'edge computing può ridurre notevolmente gli effetti della latenza sulle applicazioni, i provider di servizi possono offrire nuove app e servizi in grado di migliorare l'esperienza delle app esistenti, in particolare a seguito dei progressi del 5G.

Ma non si tratta solo di offrire nuovi servizi. I provider scelgono l'edge computing per semplificare le operazioni di rete e migliorare flessibilità, disponibilità, efficienza, affidabilità e scalabilità.

Cosa si intende per NFV?

La virtualizzazione delle funzioni di rete (NFV) è una strategia che applica la virtualizzazione IT allo scenario di utilizzo delle funzioni di rete. La NFV consente di utilizzare dei server standard per funzioni che un tempo richiedevano un costoso hardware proprietario. 

Cos'è la tecnologia vRAN?

Le reti Radio Access Network (RAN) sono punti di connessione tra i dispositivi dell'utente finale e tutti gli altri elementi della rete di un operatore. Analogamente alle funzioni di rete, anche le RAN possono essere virtualizzate, dando origine alla rete di accesso radio virtuale, o vRAN.

L'implementazione in corso delle reti 5G spesso dipende dalla vRAN come percorso per semplificare le operazioni, servire più dispositivi e soddisfare le esigenze delle applicazioni più esigenti.

Accelera la tua strategia 5G con vRAN

Cos'è la tecnologia MEC?

Il Multiaccess Edge Computing (MEC) è un metodo con cui i provider di servizi possono offrire ai clienti un ambiente di servizi di applicazioni all'edge della rete mobile, in prossimità dei dispositivi mobili degli utenti.

I vantaggi del MEC includono un aumento della velocità effettiva e una riduzione della latenza. Il MEC mette a disposizione degli sviluppatori di app e dei provider di contenuti dei punti di connessione, dando loro accesso anche a funzioni di rete e all'elaborazione delle informazioni a un livello inferiore.

Il cloud computing consiste nell'esecuzione di carichi di lavoro all'interno di cloud, ovvero ambienti IT che consentono di estrarre, raggruppare e condividere risorse scalabili in una rete. 

Lo scopo principale del cloud computing è sempre stato quello di centralizzare i servizi cloud in un numero limitato di grandi datacenter. La centralizzazione consentiva alle risorse di essere altamente scalabili e di essere condivise in modo più efficiente, mantenendo al contempo il controllo e la sicurezza aziendale.

L'edge computing si rivolge a quegli scenari di utilizzo che non possono essere gestiti in modo efficiente dall'approccio centralizzato del cloud computing, in genere a causa di requisiti di rete o altri vincoli.

Inoltre, una strategia cloud per l'esecuzione di software in container completa il modello di edge computing. I container rendono le app portatili, consentendo alle aziende di eseguirle ovunque sia necessario. Una strategia di containerizzazione consente alle organizzazioni di spostare le app dal datacenter all'edge, o viceversa, con un impatto operativo minimo.

Con Internet of Things (IoT) ci si riferisce al processo di connessione a Internet di oggetti fisici di utilizzo quotidiano, dagli oggetti più familiari usati in casa, come le lampadine, alle risorse in ambito sanitario, come i dispositivi medici, ai dispositivi indossabili, a quelli smart e, per finire, alle smart city.

I dispositivi IoT non sono necessariamente dispositivi edge, ma questi dispositivi connessi fanno parte delle strategie edge di molte organizzazioni. L'edge computing è in grado di fornire più risorse di elaborazione all'edge di una rete IoT, riducendo la latenza delle comunicazioni fra i dispositivi IoT e le reti IT centrali a cui sono connessi.

Il semplice invio o ricezione dei dati è ciò che ha segnato l'avvento dell'IoT. Tuttavia, l'invio, la ricezione e l'analisi dei dati insieme alle applicazioni IoT è un approccio più moderno reso possibile dall'edge computing.

Cos'è l'IIoT?

Un concetto correlato, l'Industrial Internet of Things (IIoT), descrive le apparecchiature industriali connesse a Internet, come i macchinari che fanno parte di un impianto di produzione, un impianto agricolo o una catena di approvvigionamento.

Fog computing è un termine che indica l'elaborazione che si svolge in luoghi fisici distribuiti, più vicini agli utenti e alle sorgenti di dati. 

Fog computing è sinonimo di edge computing. Non c'è differenza tra il fog computing e l'edge computing oltre alla terminologia.

L'edge computing può semplificare un ambiente IT distribuito, ma l'infrastruttura edge non è sempre semplice da implementare e gestire.

  • Gestire la scalabilità dei server edge su più siti minori può risultare più complesso che aggiungere la capacità equivalente a ogni singolo datacenter centrale. Il carico di gestione delle posizioni fisiche può essere difficile da gestire per le aziende.
  • In genere, i siti di edge computing sono remoti e non dispongono quindi dell'assistenza tecnica on premise. In caso di problemi in loco, occorre avere un'infrastruttura che può essere riparata facilmente da personale non tecnico locale, e gestita centralmente da un ristretto gruppo di esperti ubicati altrove.
  • Le operazioni di gestione del sito devono essere altamente riproducibili in tutti i siti di edge computing per semplificare la gestione e facilitare la risoluzione dei problemi. Le sfide sorgono quando il software viene implementato in modi leggermente diversi in ciascun sito.
  • La sicurezza fisica dei siti edge è spesso molto inferiore a quella dei siti centrali. Una strategia edge deve tenere conto di un rischio maggiore di situazioni dannose o accidentali.

Poiché le sorgenti di dati e lo storage dei dati vengono distribuiti in più sedi, le organizzazioni necessitano di un'infrastruttura orizzontale comune che si estenda all'intera infrastruttura IT, compresi i siti edge. Anche per le organizzazioni abituate a operare in più aree geografiche, l'edge computing presenta problematiche infrastrutturali uniche. Le organizzazioni necessitano di soluzioni di edge computing con i seguenti requisiti:

  • Possono essere gestite utilizzando gli stessi strumenti e processi della loro infrastruttura centralizzata. Ciò include il provisioning, la gestione e l'orchestrazione automatizzati di centinaia, e talvolta decine di migliaia, di siti con personale IT minimo (o nullo). 
  • Sono in grado di soddisfare requisiti diversi corrispondenti a diversi livelli dell'edge, come l'ingombro dell'hardware, la complessità degli ambienti e i costi.
  • Offrono la possibilità di utilizzare carichi di lavoro ibridi costituiti da macchine virtuali, container e nodi bare metal che eseguono funzioni di rete, streaming video, gaming, intelligenza artificiale e machine learning e applicazioni business critical.
  • I siti edge possono continuare a funzionare in caso di guasti della rete. 
  • Sono interoperabili con componenti provenienti da vari fornitori. Nessun singolo fornitore può fornire una soluzione end to end.

Il vasto portafoglio di soluzioni Red Hat offre funzioni di connettività, integrazione e infrastruttura essenziali per i servizi utilizzati da piattaforme, applicazioni e sviluppatori. Questi avanzati blocchi costitutivi consentono ai clienti di superare gli ostacoli legati anche agli scenari di utilizzo più complessi.

Una base solida

La base che offriamo da sempre è Red Hat® Enterprise Linux®. Red Hat Enterprise Linux mette a disposizione un vasto ecosistema di strumenti, applicazioni, framework e librerie per la creazione e l'esecuzione di applicazioni e container.

Carichi di lavoro containerizzati

Per la creazione, il deployment e la gestione di applicazioni containerizzate in qualsiasi tipo di infrastruttura o cloud, inclusi i datacenter pubblici e privati o le ubicazioni all'edge, puoi scegliere Red Hat® OpenShift®. Si tratta di un ambiente Kubernetes enterprise ad alte prestazioni basato sui container.

Automazione all'edge

L'automazione dei carichi di lavoro all'edge contribuisce a semplificare le attività IT, a limitare le spese operative e a ottimizzare l'esperienza dei clienti anche nel caso di architetture edge largamente distribuite. Red Hat® Ansible® Automation Platform fornisce tutta la flessibilità necessaria per far fronte ai problemi di spazio e potenza che molto spesso caratterizzano i deployment all'edge. Fornisce un'unica vista coerente che abbraccia l'intero ambiente (posizioni edge, datacenter centrali e ambienti cloud), permettendo ai team operativi di gestire centinaia o addirittura migliaia di siti, dispositivi di rete e cluster.

Carichi di lavoro di macchine virtuali e HPC

Red Hat OpenStack® Platform, con nodi di calcolo distribuiti, supporta i carichi di lavoro più complessi delle macchine virtuali (ad esempio la virtualizzazione delle funzioni di rete, o NFV) e i carichi di lavoro High-Performance Computing (HPC). È una soluzione Infrastructure-as-a-Service (IaaS) affidabile e scalabile che include le API standard di settore con hardware multitenancy. Adotta questa soluzione di gestione coerente e centralizzata per i tuoi datacenter centrali e quelli periferici per spostare facilmente la potenza di elaborazione vicino alle sorgenti di dati.

Messaggistica e comunicazione

La soluzione Red Hat Application Services e gli strumenti per sviluppatori offrono capacità cloud-native per la realizzazione di applicazioni edge rapide, leggere e scalabili, che forniscono funzioni di aggregazione, trasformazione e connettività dei dati per supportare le architetture edge. Negli ambienti altamente distribuiti, la comunicazione tra i servizi in esecuzione nel cloud e quelli all'edge della rete richiede particolare attenzione. Le funzionalità di messaggistica e data streaming di Red Hat AMQ supportano i vari modelli di comunicazione necessari per gli scenari di utilizzo dell'edge computing. La messaggistica, combinata con una vasta gamma di runtime per applicazioni cloud-native (Red Hat Runtimes) e funzioni di connettività delle applicazioni (Red Hat Integration), costituisce una base solida per realizzare servizi applicativi edge-native integrati per il trasporto e l'aggregazione dei dati.

Gestione cloud

Red Hat offre un ricco portafoglio di tecnologie che estende e completa le piattaforme di cloud ibrido open source, per migliorare la gestione e la scalabilità dei tuoi ambienti di cloud ibrido.

Keep reading

Articolo

IoT ed edge computing

La IoT richiede potenza di elaborazione vicina al dispositivo fisico o alla sorgente dei dati, e l'edge computing fornisce a livello locale le risorse di elaborazione e storage richieste dalla IoT.

Articolo

I vantaggi dell'edge computing

Per edge computing si intende l'elaborazione delle informazioni eseguita vicino all'ubicazione fisica dell'utente che elabora i dati o alla sorgente dei dati.

Articolo

I vantaggi dell'edge computing per le telecomunicazioni

L'edge computing è una priorità per i molti provider di telecomunicazioni che rinnovano le proprie reti e cercano nuove fonti di reddito.

Scopri di più sull'edge

Prodotti

Una base stabile e versatile ideale per rilasciare nuove applicazioni, virtualizzare gli ambienti e ottenere un cloud ibrido più sicuro.

Una piattaforma applicativa aziendale che offre servizi verificati per consentire la distribuzione delle app sulle infrastrutture preferite.

Un portafoglio di software enterprise ottimizzati per un deployment snello all'edge.

Risorse