Cisco Blog Deutschland

So können Service-Provider der wachsenden Nachfrage gerecht werden

3 min read



Das Internet ist heute für die meisten Menschen im Arbeits- und Privatleben unverzichtbar. Wir verbringen Stunden mit dem Streamen von Videos durch Services wie Netflix und YouTube. Google beantwortet uns die Frage nach dem nächsten Urlaubsziel, aktuellen Nachrichten oder gar dem Sinn des Lebens.

Je selbstverständlicher diese Online-Services im Alltag werden, umso mehr gewinnt die Benutzerfreundlichkeit an Bedeutung. Der Wettbewerb ist unerbittlich. Sobald ein Film durch einen Puffervorgang unterbrochen wird oder eine Suche mehrere Sekunden dauert, schließt der Benutzer das Fenster und wechselt zu einem anderen Anbieter.

Content-Caching zur Erfüllung neuer Anforderungen

Leider nehmen diese negativen Erlebnisse zu, wenn die Kundenanforderungen und -erwartungen steigen. Der Grund dafür wird schnell klar, wenn wir uns ansehen, wie Video-Streaming funktioniert.

Ein Kunde wählt einen Film zum Streamen aus. Diese Information wird von einem Punkt am Netzwerk-Edge aus übermittelt, beispielsweise in einer Wohnung oder einem Büro. In einem herkömmlichen Netzwerk würde diese Anfrage über das Core-Netzwerk zur Verarbeitung an ein zentrales Rechenzentrum übertragen. Dann würden die für das Streaming des Films erforderlichen Daten zurück an den Kunden am Edge gesendet.

Früher funktionierte dieses Modell einwandfrei. Dank hoher Geschwindigkeiten spielte es keine Rolle, dass die Daten einen weiten Weg zurücklegen mussten. Die wenigen Millisekunden, die Daten für den Weg zum Rechenzentrum und zurück benötigen, summieren sich jedoch, wenn im Netzwerk mehrere Millionen Kundenanfragen gleichzeitig eingehen. Je höher die Nachfrage im Netzwerk, umso größer ist also das Risiko für Verzögerungen und unzufriedene Kunden.

Um den Erwartungen ihrer Kunden gerecht zu werden, müssen die Anbieter von Video-Streaming-Services und Suchmaschinen eine Möglichkeit finden, schnellen Service im großen Stil zu leisten. Eine mögliche Maßnahme ist die Minimierung der von den Daten im Netzwerk zurückgelegten Entfernungen. Aus diesem Grund werden Inhalte zunehmen in den äußeren Netzwerkschichten gespeichert. Wenn die zum Bereitstellen der Inhalte benötigten Informationen direkt verfügbar sind, müssen keine Daten mehr ins Innere des Netzwerks und zurück gesendet werden.

Entwicklung eines verteilten Netzwerks

Dieser Trend stellt die Service-Provider jedoch vor eine Herausforderung, weil sie plötzlich die Funktionen eines Rechenzentrums in den äußeren Bereichen des Netzwerks bereitstellen sollen. Die gute Nachricht: Es ist machbar. Die weniger gute Nachricht: Eine sorgfältige Planung und Investitionen in neue Technologie sind unverzichtbar.

Um eine verteilte Netzwerkinfrastruktur zu errichten, muss das Netzwerk in mehreren Phasen – in der Regel über einige Jahre hinweg – neu aufgebaut werden. Service-Provider sollten daher auf einen Technologiepartner setzen, der sie langfristig kompetent berät und unterstützt.

Unternehmen müssen sich darüber informieren, wie sie mit Technologien wie der Cisco Application Centric Infrastructure (ACI) eine automatisierte, integrierte Architektur entwickeln, in der sie den Datenverkehr im gesamten Netzwerk effizient verwalten können. Auch das Sicherheitsmanagement ist von Anfang an zu berücksichtigen.

CORD: eine weltweite Initiative

Eine wichtige Anlaufstelle für Unterstützung bei der Erstellung verteilter Netzwerke ist das CORD-Projekt (Central Office Re-architected as a Datacenter). Bei CORD arbeiten verschiedene führende Technologieunternehmen weltweit gemeinsam an Möglichkeiten, die Funktionen eines herkömmlichen Rechenzentrums in den äußeren Netzwerkschichten bereitzustellen.

Führende Service Provider haben keine Zweifel an der Zukunftsfähigkeit der von CORD unterstützten verteilten Netzwerke. Andre Fuetsch, Senior Vice President of Architecture and Design bei AT&T, gibt an, dass sein Unternehmen die Ziele und bisherigen Ergebnisse von CORD unterstützt.

„Unsere Arbeit erweitert die Möglichkeiten vieler Technologien und Architekturen ebenso wie die von Open-Source- und Open-Spec-Hardware“, erklärte Fuetsch letztes Jahr. „Wir lernen aus den CORD-Experimenten und -Tests und nutzen dieses Wissen zur Optimierung der AT&T Integrated Cloud.“

Ein weiteres im Projekt vertretenes Unternehmen ist der Rechenzentrumsanbieter Equinix. Laut Ihab Tarazi, Chief Technology Officer von Equinix, plant sein Unternehmen eine Zusammenarbeit mit dem CORD-Projekt und die Bereitstellung des CORD-Software-Stacks auf Open Compute Project-Hardware.

Unternehmen wie diese wissen, dass eine stärker verteilte Struktur für Netzwerkfunktionen unverzichtbar ist, um die Anforderungen von Streaming-Services oder Suchmaschinen und 5G-Netzwerken zu erfüllen. Die Herausforderung ist groß. Service-Provider, die jetzt aktiv werden, können jedoch langfristig nur profitieren.

Erfahren Sie mehr darüber, wie Sie mit Cisco Rechenzentrumslösungen die Herausforderungen der Zukunft meistern können.

Authors

Jan Falk

Marketing Manager Global Service Provider Marketing, EMEAR

Cisco Systems GmbH

Kommentar hinterlassen