Der weltweite Datenverkehr über Internet, IP-Netzwerke und mobile Verbindungen wird von 2011 bis 2016 um fast das Vierfache steigen. Dann werden jährlich 1,3 Zettabyte – also 1,3 Trilliarden Byte – übertragen, so das Ergebnis unserer IoE Value Index Studie. Die riesigen verfügbaren Datenmengen eröffnen Unternehmen zahlreiche neue Möglichkeiten für die Informationsbeschaffung über ihre Kunden, die Individualisierung der Angebote sowie intelligente, selbstregulierende Produkte. Doch gerade die Speicherung und Auswertung der Datenberge sowie die konkrete Umsetzung neuer Lösungen und Prozesse stellt Unternehmen vor große Herausforderungen.
So erkennen zwar 76 Prozent der Befragten in Deutschland, dass der intelligente Umgang mit Big Data die Wettbewerbsfähigkeit erhöht, aber nur 26 Prozent ziehen bereits strategischen Mehrwert daraus. Als Hürden werden hierzulande Datensicherheit (24%), zu wenig IT-Mitarbeiter (20%) oder nicht genügend Budget (17%) genannt. Zudem sind auf technischer Seite nur 37 Prozent der Netzwerke auf die weitere Datenexplosion vorbereitet, 26 Prozent benötigen höhere Bandbreiten, 21 Prozent bessere Richtlinien und Sicherheit.
Unternehmen müssen heute eine umfassende, validierte und standardbasierte Netzwerk-Infrastruktur besitzen, die beliebig skalierbar ist und sich flexibel an neue Anwendungen und Technologien anpassen lässt. Nur auf dieser Basis können sie aus Big Data wertvolle Erkenntnisse für ihr Business ziehen. Wie Unternehmen konkret profitieren können, zeigt die Analyse „Big Data – Vorsprung durch Wissen“ von Fraunhofer IAIS. Die größten Chancen liegen demnach in einer effizienteren Unternehmensführung: So lassen sich etwa im Einzelhandel genauere Prognosen über Verkaufszahlen und Nachbestellungen treffen oder in der Energiebranche, wann wie viel Strom benötigt wird. Aber auch bei der Massenindividualisierung eröffnet Big Data neue Möglichkeiten. Beispiele dafür sind nutzungsbezogene Versicherungsprodukte, tägliche Gesundheitsdiagnosen, personalisierte Unterhaltung oder vorausschauender Service bei Maschinen. Außerdem werden dadurch Produkte intelligenter. Eingebaute Sensoren ermöglichen selbstlernende Thermostate, automatisch regulierte Häuser oder autonom fahrende Fahrzeuge, die untereinander sowie mit der Umwelt vernetzt sind.
Die Befragten selbst sehen das größte Potenzial von Big Data im Aufbau strategischer Wettbewerbsvorteile (69 Prozent), gefolgt von höheren Umsätzen (61 Prozent) und geringeren Kosten (55 Prozent). Gesteigerte Produktivität sowie datenbasierte Planung und Entscheidungsfindung lauten weitere Ziele. Big Data ist dabei inzwischen ein Thema für alle Wirtschaftszweige, Organisationen und Nutzer digitaler Technologien – durch die übergreifende Verwendung von Verbindungsdaten im Mobilfunk, Überweisungsdaten im Bankgeschäft oder sozialen Netzwerken.
Auch die schnelle Entwicklung der weltweiten Märkte sowie die zunehmende Internationalisierung erfordern zeitnahe Entscheidungen bei komplexen Fragestellungen. Die dafür notwendigen Daten sind zwar in großem Umfang stetig aktuell verfügbar, Auswertungen und Analysen lassen sich jedoch mit der herkömmlichen Datenbank-Technologie nur mit einiger Zeitverzögerung vornehmen. Um Daten in Echtzeit zur Verfügung zu stellen sowie die Verarbeitungs- und Analysegeschwindigkeit zu erhöhen, bietet sich etwa die In-memory-Technologie von SAP HANA an.
Jedoch ist die Kapazität eines Scale-up-Systems von HANA in der höchsten Ausbaustufe auf 4 TByte Speicherplatz begrenzt. Das einfache Hinzufügen weiterer Nodes ist bei Big Data-Prozessen nicht sinnvoll, da alle Ressourcen auf den gleichen Datenbestand zugreifen müssen. Die Spezifikationen von SAP HANA für produktive Systeme erlauben derzeit weder eine Virtualisierung noch ein Ressourcen-Sharing mit anderen Applikationen. Die Lösung liefert also nur ein externer Speicher mit der sogenannten Scale-out Variante. Sie erlaubt nicht nur eine gemeinsame Nutzung der Ressourcen, sondern auch die Umsetzung eines Hochverfügbarkeits-Konzepts.
Über entsprechende Systeme von Drittanbietern lässt sich nicht nur die Kapazität des Gesamtsystems erweitern, sondern auch die Datensicherheit erhöhen. So wird bei Ausfall einer HANA Instanz der Datenzugriff automatisch auf ein redundantes Parallelsystem geleitet. Zudem ergänzen sie automatische Backups, Wiederherstellungspunkte und Datenspiegelungen an einen zweiten Standort. Unternehmen können damit Analysen und Data Warehousing in Echtzeit durchführen. Hohe Flexibilität, Leistungsfähigkeit und Skalierbarkeit, einfaches Management und Automatisierung erfüllen die Anforderungen der Kunden nach besserer Kontrolle und Verwaltbarkeit der Anwendungen.