Sara L Lockhart-sirman – stock.adobe.com

Edge Computing: la prossima frontiera digitale è l’IA ovunque

Intervista a Dario Sabella, senior manager of Standards and Research in Intel, che lavora sulla nuova infrastruttura capace di abilitare nuovi servizi e dare sfogo alle potenzialità dell’Intelligenza Artificiale per tutti e in qualsiasi luogo.

Tutti noi abbiamo ormai l’esperienza del Cloud computing. Anche chi non ha alcuna conoscenza tecnica e scientifica, lo utilizza. L’Edge Computing  potremmo definirlo come un’evoluzione del Cloud, che garantisce prestazioni migliori e abilita a servizi innovativi.

Su questa tecnologia lavorano tanti professionisti. Tra questi Dario Sabella che, a MIT Technology Review Italia, non nasconde la sua passione ormai decennale per tutto quello che queste tecnologie rappresentano e, soprattutto, potranno rappresentare per tutti.

Dario Sabella – INTEL

Cos’è l’Edge Computing?

Tutti usiamo servizi Cloud e Internet e, anche se non lo sappiamo, utilizziamo una comunicazione tra client e server. Quello che si propone di fare l’Edge Computing è di avvicinare client e server in maniera da avere una minore latenza, migliori performance, fornire servizi più veloci e affidabili con banda maggiore. Questo vuol dire che il server che vado a interrogare dal mio dispositivo, qualunque esso sia (computer, laptop, smartphone, etc.) non è più in un altro continente o lontano da me, ma sarà il più vicino possibile, mi risponderà più velocemente e avrò anche vantaggi di performance, oltre che di privacy dei dati, che sono locali e che quindi vengono processati localmente.

L’utente comune noterà differenze con l’introduzione su larga scala di questa tecnologia?

Il passaggio da un sistema Cloud tradizionale a un sistema Edge sarà tangibile per gli utenti, anche se magari non ci renderemo conto di utilizzarlo. Questo è il futuro. In aggiunta al miglioramento di servizio esistenti, questo sistema abiliterà a una serie di servizi che senza l’Edge non ci sarebbe perché le latenze sono quelle imposte dalla lontananza dei server e spesso non sono neanche predicibili.

Che tipo di servizi potrebbe abilitare l’Edge Computing?

L’industrial automation, ad esempio, la realtà aumentata e la mixed reality, la robotica. Una vasta gamma di servizi. Parliamo di servizi che per essere efficienti richiedono delle performance che non si possono ottenere se i server con cui devono dialogare sono molto lontani. Le prime che vengono in mente sono la computer vision in real time e l’automotive, in cui serve bassa latenza (basti pensare alle auto connesse e a guida automatizzata). Ovviamente non parliamo solo di automobili ma anche di moto o biciclette e persino servizi per i pedoni. Tutti i servizi in real time beneficiano dell’Edge Computing, come ad esempio la traduzione simultanea in tempo reale, aiutata dalla intelligenza artificiale ma gestita localmente, quindi con l’ausilio di server Edge.

Com’è strutturato un sistema di Edge Computing?

L’infrastruttura deriva da quella del Cloud classico. Per semplificare, potremmo dire che l’Edge Computing non è altri che un Cloud di prossimità, con server più vicini all’utente che si connette per richiedere servizi. In mezzo può esserci una rete cellulare, una rete wifi o una di accesso fisso. Il paradigma è lo stesso del Cloud Computing, ma anziché avere server centralizzati, che stanno dietro a una rete di trasporto magari internazionale o addirittura intercontinentale, esistono server decentralizzati, magari più piccoli ma fisicamente più vicini all’utente.

Schema dell’infrastruttura di edge computing. ETSI MEC

I due sistemi (cloud tradizionale ed edge) non sono in alternativa, ovviamente. Gran parte del traffico necessita sempre di essere elaborato nei server centrali. Parliamo, ad esempio, di dati che non necessitano di essere consultati o elaborati molto di frequente. Ma già oggi la maggior parte dei dati viene generata all’edge, quindi, non ha molto senso farli arrivare a server centrali più lontani per poi tornare indietro all’utente;  è molto più veloce ed efficiente farli elaborare più in prossimità. Il mondo e il mercato si stanno già muovendo in questa direzione e le stime ci dicono che già nel 2025 il 75% dei dati sarà generato all’edge.

Non parliamo soltanto dei dati generati dagli utenti ma anche quelli raccolti e generati dai sensori. Ci sono ormai numerose sorgenti di informazione che raccolgono dati localmente (si parla appunto di Internet-of-Things) e anche in questo caso ha molto più senso processarli in prossimità anziché inviarli e farli processare dall’altra parte del mondo per poi tornare indietro, nei luoghi dove è più utile che vengano fruiti. Inoltre, grazie all’edge computing si ha anche un vantaggio intrinseco in termini di privacy, di sicurezza e di compliance con le norme sui dati personali e sensibili. In questo modo, come utente e cittadino, non solo ho il vantaggio di avere più efficienza e velocità nella fruizione di questi servizi ma anche in termini di sicurezza.

Che differenza c’è tra l’Edge Computing e il Multi-Access Edge Computing (MEC)?

Questo è proprio il mio campo. Il termine “MEC” è stato coniato tanti anni fa e io, oltre che lavorare in Intel, sono anche Chairman di ETSI MEC, un gruppo di standard internazionale che oggi conta più di 160 membri da tutto il mondo (un ecosistema che comprende non solo big corporations, ma anche piccole e medie imprese, startup, università, centri di ricerca e anche enti governativi). Il gruppo era nato nel 2014, come acronimo di “Mobile Edge Computing”. A partire dal 2017, l’ecosistema MEC ha poi deciso di mantenere lo stesso acronimo ma di espandere il concetto ponendolo come “Multi-Access”. Questo perché all’inizio era stato pensato in funzione soltanto delle reti cellulari. Da allora il gruppo MEC produce specifiche di standard internazionale per la definizione dell’Edge Computing che sia agnostico della rete d’accesso. Cioè, che si possa implementare e sfruttare la tecnologia Edge a prescindere dalla rete che viene utilizzata, sia essa mobile, wifi o fissa. L’approccio dello standard MEC è quindi di tipo “access-agnostic” ma al contempo allineato con altri enti di standardizzazione, come 3GPP, per trarre il massimo beneficio dall’utilizzo di questa tecnologia con le varie reti di accesso. Abbiamo inoltre abilitato l’esposizione di informazioni aggiuntive a beneficio degli sviluppatori di applicazioni (tramite opportune API, Application Programming Interface), in base alla tecnologia di accesso utilizzata, come le stazioni radio 5G (e in futuro anche 6G), gli access point Wi-Fi o gli elementi di rete fissa. Tutto ciò per ottimizzare le prestazioni dei servizi in base alla rete di accesso utilizzata.

La cosa molto interessante è che lo standard MEC, oltre questo, permette di avere anche delle API per abilitare il Multi-Access in parallelo. Questo significa che potrei avere più reti di accesso diverse, in parallelo, e sfruttarle tutte ottimizzando le performance e sfruttando la rete migliore per il servizio che mi serve.

Infine, lo standard MEC è uno standard aperto, in quanto l’applicazione all’edge può consumare non solo le API standardizzate ma anche di terze parti (purché ovviamente siano conformi ai principi classici di design MEC). Questo non è solamente un vantaggio per l’utente. Lo è anche per gli sviluppatori software e per il mercato, perché c’è la possibilità di creare valore aggiunto all’edge catturando informazioni subito disponibili che offrono potenzialmente opportunità infinite per la generazione di servizi.

Che genere di servizi possono essere esemplari per capire il vantaggio di questa tecnologia?

Oltre alla già citata traduzione in tempo reale, pensiamo all’advertising geolocalizzato. Con un server all’edge, se dai dati che l’utente automaticamente trasmette (previo consenso, ovviamente), come la geolocalizzazione, si determina la sua presenza in un certo luogo, il server può fornire a me utente una esperienza personalizzata, per esempio con notifiche riguardanti sconti su alcuni prodotti, o un evento interessante (come un concerto del mio cantante preferito) o altre informazioni disponibili nelle vicinanze (e in quel momento). Tutto questo è possibile grazie all’Edge Computing, sempre nel rispetto della privacy. Tra gli abilitatori tecnologici a cui lavoriamo c’è anche la predizione della qualità del servizio. Se si è alla guida di un’auto e si sta per entrare in un tunnel in cui il sistema sa in anticipo che non ci sarà campo e che quindi non sarà efficiente come prima, ci possono essere delle applicazioni che, conoscendo tutti questi dati ed elaborandoli in maniera veloce ed efficiente, possono prevedere questo problema e attuare delle contromisure in tempo reale. Ad esempio, se in auto ci fosse qualcuno che sta guardando un film in streaming, con questo sistema l’applicazione intelligente, potrebbe diminuire automaticamente e in maniera predittiva, il bitrate dello streaming per mantenere la continuità della visione per il tempo necessario e poi tornare alla normalità quando le condizioni di copertura della rete migliorano. Il tutto senza interruzione del servizio.

Questo è solo un esempio di tutta una serie di servizi che possono essere utili quando si è alla guida, come la rilevazione di incidenti, di traffico o altro.

Come si inserisce l’intelligenza artificiale in un sistema Edge in cui la velocità e l’elaborazione di prossimità sono i punti cardine?

L’AI è una tecnologia pervasiva che esiste già da diversi anni. Oggi se ne parla tanto grazie soprattutto all’arrivo dell’AI generativa, ma è una novità di 50 anni fa ed è già presente, in molti livelli, dappertutto. Non solo a livello applicativo ma anche a livello dell’automazione e ottimizzazione dell’infrastruttura stessa. Basti pensare alla copertura cellulare. Ci sono sistemi che con all’AI ottimizzano e automatizzano le configurazioni di rete. Cose che manualmente sarebbe impossibile fare. Inoltre, esistono già molti strumenti a disposizione degli utenti che sfruttano l’intelligenza artificiale. Intel ha di recente messo a disposizione tool, come la Intel Tiber Edge Platform, presentata questo febbraio al Mobile World Congress, pensati proprio per facilitare la vita degli sviluppatori mettendo loro a disposizione strumenti, sia hardware sia software, per fornire i loro servizi di AI all’edge.

INTEL
Edge COmputing nelle reti mobili evolute. INTEL

Il grande vantaggio dell’Edge Computing è la prossimità dei server. Qual è lo stato di sviluppo dell’infrastruttura edge in Italia e in Europa?

Nel mondo ci si sta muovendo in direzione edge e c’è molto interesse da diversi anni anche a livello comunitario, con ingenti fondi per progetti finalizzati a infrastrutturare gli Stati con cloud nazionali e all’edge. Ci sono anche iniziative di progetti di partnership tra molti stakeholder in Italia e in Europa, per facilitare l’adozione della tecnologia. L’idea è nata molti anni fa ma è necessario molto tempo per realizzare le infrastrutture perché, anziché avere un data center centralizzato, la decentralizzazione e quindi la moltiplicazione dei punti di accesso fa lievitare i costi operativi. Costi che vengono giustificati dai servizi premium che possono essere implementati con l’edge, ad ogni modo per una diffusione capillare si tratta sempre di investimenti importanti. In tempi di crisi, come quelli che stiamo vivendo, l’industria si è concentrata prioritariamente sul dispiegamento dei sistemi di comunicazione 5G. Adesso è il momento dell’Edge Computing che è allettante perché porta un grande valore aggiunto all’infrastruttura realizzata, e consente appunto agli operatori di “monetizzare” e rientrare dagli investimenti del 5G. Quindi anche in Italia, così come nel resto del mondo, ci sono diversi operatori che iniziano ad offrire servizi commerciali che si basano sull’Edge Computing. Esiste anche un gruppo internazionale di operatori, (l’Operator Platform Group all’interno del GSMA che è una grande associazione industriale internazionale), di cui fanno parte anche operatori italiani, nato per promuovere l’Edge Computing (o come lo chiama il GSMA, il Telco Edge Cloud) e le opportunità che questa tecnologia può offrire. Dopo alcuni anni di lavoro di questo gruppo è stato firmato un accordo fra numerosi operatori globali (coprenti più del 60% degli utenti mobili del pianeta) per fornire API anche per l’edge, da mettere a disposizione in maniera “federata” per nuovi servizi che possano sfruttare questa tecnologia attraverso l’iniziativa commerciale chiamata GSMA Open Gateway. Questo è un grande risultato, perché include anche la possibilità di mettere a disposizione i servizi dei diversi operatori garantendo interoperabilità e portabilità delle applicazioni: un operatore italiano può offrire i propri servizi in edge anche in Paesi dove non ha copertura, grazie a un operatore partner presente in quel Paese, e fare da host per quei servizi esteri non coperti dal gestore di riferimento in Italia. Un vantaggio sia per gli operatori sia per gli utenti che possono usufruire di servizi ottimizzati in edge anche in luoghi in cui il proprio operatore non è presente.

Quale ulteriore salto tecnologico potrebbe portare il 6G?

Sembra un po’ futuristico parlarne, ma l’intero ecosistema lavora già da anni sul 6G, che presumibilmente vedrà la luce intorno al 2030. Ciò non deve stupire, poiché il ciclo di vita dei sistemi di telecomunicazioni (di 10 anni) include le varie fasi di studio, definizione degli standard, implementazione dei prodotti, regolamentazione e immissione nel mercato. Per portare a compimento questi step, ad ogni generazione l’industria deve partire per tempo. Come Intel, noi già lavoriamo su 6G dal 2019 a livello di ricerca e sviluppo, anticipando tutta una serie di servizi e use case che sarà possibile realizzare solo grazie ad evoluzioni del 5G. Dualmente, lavoriamo anche in ambito standard ETSI MEC, in collaborazione con 3GPP, per delineare le evoluzioni dell’edge computing che si renderanno necessarie per supportare gli sviluppatori di applicazioni verso il 6G. Ovviamente, nessuno possiede la sfera di cristallo e può ancora dire cosa esattamente sarà il 6G (la cui standardizzazione partirà indicativamente dal 2026). Possiamo però già dire che il 6G sarà presumibilmente una evoluzione del 5G (piuttosto che una rivoluzione), e potrà ulteriormente abilitare nuove soluzioni e interessanti opportunità per gli utenti (consumer e business). Partiamo con una maggiore banda per il trasferimento dati, che è la costante di ogni nuova generazione. Questo garantirà una migliore efficienza nel trasferimento dei dati. Poi la copertura della rete. Sembra banale ma il primo KPI (Key Performance Indicator) di rete mobile, sul quale si basano tutti gli altri, è la copertura cellulare: per i futuri sistemi è ragionevole aspettarsi migliori livelli di copertura della rete e migliore sensibilità dei dispositivi, che come sempre saranno spinti al massimo. Infine, c’è un aspetto fondamentale: il 6G potrà aggiungere ulteriore flessibilità, combinando insieme i sistemi di comunicazione e computazione. La strategia di Intel è di portare l’intelligenza ovunque, dal terminale al client, al dispositivo, all’edge, alla rete. Per farlo in maniera nativa bisogna pensare a un’evoluzione del sistema, non basta il 5G. La visione di Intel sul 6G è quella di fornire in maniera nativa più flessibilità delle risorse computazionali. Questo permetterà di gestire in maniera efficiente le varie necessità di elaborazione dei dati per una moltitudine di applicazioni. I casi d’uso per questa nuova evoluzione della tecnologia sono ancora in definizione, ma se vogliamo fare qualche esempio, possiamo citare la comunicazione in tempo reale olografica o l’extended reality. In linea generale, possiamo dire che l’obiettivo è quello di sfruttare tutte le potenzialità delle nuove tecnologie per avere servizi nativi in edge che permettano di massimizzare l’efficientamento e la sicurezza. E questo lo stiamo facendo assieme agli enti regolatori, alle altre aziende e alle comunità di open source che vivono un grande fermento e sono player importanti in questo processo.

Credits foto di copertina: Sara L Lockhart-sirman – stock.adobe.com

Related Posts
Total
0
Share