Cisco Italia Blog

Come il caching dei contenuti si sta spostando verso la periferia della rete

3 min read



Come i provider di servizi possono evitare di colpire i buffer

Per soddisfare le mutevoli aspettative dei clienti, i provider di servizi devono sviluppare nuovi modi per progettare e costruire le reti

È innegabile che Internet è ora parte integrante delle modalità professionali e ricreative. Trascorriamo ore a guardare video in streaming su servizi come Netflix e YouTube. E consultiamo Google per qualsiasi cosa: per decidere dove andare in vacanza, per leggere le ultime notizie, fino alle domande sul senso della vita.

Ma, mentre l’uso dei servizi on-line è sempre più parte integrante della vita delle persone, cresce di pari passo anche l’importanza di fornire un’esperienza utente impeccabile. Esistono moltissime opzioni tra cui scegliere, che fanno a gara per ottenere l’attenzione degli utenti. E se un film in streaming comincia a bloccarsi o i risultati della ricerca ci mettono qualche secondo a caricarsi, i clienti chiuderanno la finestra e cercheranno da qualche altra parte.

Effettuare il caching dei contenuti per soddisfare le nuove esigenze
Purtroppo, a fronte delle crescenti richieste e aspettative dei clienti, queste esperienze frustranti diventano sempre più comuni e si può capirne il perché osservando il modo in cui funziona lo streaming video.

Quando un cliente richiede di vedere un film in streaming, tale informazione viene trasmessa dalla periferia della rete, come un’abitazione o un ufficio. In una rete tradizionale, la richiesta viene poi trasmessa a un data center centralizzato, tramite la rete core, per essere poi elaborata. I dati che consentono lo streaming del film sono poi inviati al cliente, tornando ancora una volta verso la periferia.

Questa modalità ha sempre funzionato bene. Non era importante che i dati viaggiassero per lunghe distanze perché andavano comunque molto veloci. Ma quei pochi millisecondi che sono necessari per spostarsi da e verso il data center fanno davvero la differenza quando la rete deve rispondere a milioni di richieste nello stesso momento. Di pari passo all’aumento della domanda, cresce il rischio di ritardi e clienti insoddisfatti.

Per assicurarsi che le richieste soddisfino le aspettative dei clienti, i motori di ricerca e le aziende di streaming video devono trovare il modo di erogare servizi veloci su vasta scala. Una soluzione è fare in modo che i dati che vengono trasferiti attraverso la rete viaggino il minimo indispensabile. Ecco perché si tende sempre più a memorizzare i contenuti nei livelli esterni della rete. In questo modo, le informazioni necessarie per fornire i contenuti sono già dove devono essere, e non c’è alcun bisogno di inviare dati dall’interno della rete verso la periferia e viceversa.

Sviluppare una rete distribuita
Ma questa tendenza rappresenta una sfida per i provider di servizi, ai quali viene chiesto improvvisamente di fornire la funzionalità di un data center nelle parti esterne della rete. La buona notizia è che ciò è possibile. Il problema è rappresentato dal fatto che occorrono un’attenta pianificazione e degli investimenti oculati in nuove tecnologie.

Creare un’infrastruttura di rete distribuita significa ricostruire la rete in più fasi, probabilmente impiegandoci anni. Quindi è importante che i provider di servizi scelgano un partner tecnologico che possa offrire consulenza e supporto a lungo termine.

Le aziende dovranno pensare a come usare tecnologie quali il routing dei segmenti o l’Application Centric Infrastructure (ACI) di Cisco, per creare un’architettura automatizzata e integrata che permetta di gestire il traffico attraverso la rete in modo efficiente. E sarà importante gestire la sicurezza fin dall’inizio di questo processo.

CORD: un movimento globale
I provider di servizi che vogliono costruire delle reti distribuite possono ricevere il supporto necessario grazie al progetto CORD (Central Office Re-architected as a Datacentre). CORD, sostenuto da un gruppo di aziende leader in tutto il mondo nel campo della tecnologia, ha come obiettivo quello di fornire le funzioni tradizionali di un data center nel livello più esterno della rete.

I principali provider di servizi sono unanimi nel ritenere che le reti distribuite supportate da CORD siano parte del futuro. Andre Fuetsch, vicepresidente senior dell’architettura e della progettazione presso AT&T, ha affermato che la sua azienda “sostiene gli stessi obiettivi e risultati che sono inclusi in CORD”.

“Il vero lavoro consiste nell’eliminare gli ostacoli di molte tecnologie e architetture e di hardware open source e open spec” ha spiegato Futsch l’anno scorso. “Stiamo imparando dagli esperimenti e dalle prove effettuate da CORD e utilizziamo questa conoscenza per affinare l’Integrated Cloud di AT&T”.

Un’altra azienda entusiasta di questo progetto è il provider di data center Equinix. Il Chief Technology Officer, Ihab Tarazi, ha dichiarato che la società “prevede di collaborare con il progetto CORD e implementare lo stack software di CORD su hardware Open Compute Project”.

Queste aziende sanno che è essenziale creare una struttura delle funzioni di rete più distribuita se vogliono soddisfare le esigenze dei servizi streaming e dei motori di ricerca, nonché del networking 5G. È una vera e propria sfida. Ma i provider di servizi che si sforzano di affrontarla ora ne raccoglieranno i frutti negli anni a venire.

Scopri di più su come si possono affrontare le sfide del futuro con le soluzioni Cisco Data Center.

 

Authors

Paolo Campoli

Senior Director, Operations

Service Provider - Italy

Lascia un commento