Thore

Vice President EMC Isilon EMEA

Big Data in 2016: Diese vier Dinge sollten IT-Verantwortliche in jedem Fall beachten

2016 könnte zum Jahr von Big Data werden: Immer mehr Unternehmen beenden ihre Analytics-Versuchsvorhaben – und starten „echte“ Big-Data-Bereitstellungen für den Einsatz im Geschäftsbetrieb. Hierbei spielen vier Größen eine Rolle, die über Erfolg und Misserfolg entscheiden. Ein Überblick.

Big Data erreicht in vielen Unternehmen höhere Reifegrade. Diese Entwicklung verändert unsere Gespräche mit Kunden: In diesen geht es schon länger nicht mehr nur ausschließlich um das Speichern großer Datenmengen, sondern auch um das Schaffen von Mehrwert mittels Analytics. Seit Beginn dieses Jahres wird darüber hinaus zunehmend die Realisierung entsprechender Großvorhaben zum Thema.

Dabei kommen auch vier Nebenthemen oder Einflussgrößen zur Sprache, die meiner Ansicht nach große Bedeutung für Erfolg oder Scheitern von Big-Data-Projekten haben. Daher empfehle ich allen IT-Verantwortlichen, sich mit ihnen zu beschäftigen:

1. Multiprotokoll-Umgebungen

Unternehmen entwickeln sich zu „Big-Data-Fabriken“: Sie erzeugen, speichern und verarbeiten immer mehr strukturierte und unstrukturierte Daten. Deshalb beginnen mehr und mehr IT-Organisationen damit, Multiprotokoll-Umgebungen zu planen, um große Datenvolumina besser managen zu können. Das ist per se eine gute Entscheidung – bei der die Verantwortlichen allerdings eines beachten sollten: Der Anwendungsfall, den sie für ein heutiges Proof-of-Concept beschreiben, wird beileibe nicht der einzige bleiben, der für das Unternehmen relevant wird. Selbst wenn ein bestimmtes Hadoop-Deployment alle derzeitigen Anforderungen des Unternehmens erfüllt – niemand weiß, was die Zukunft bringt. IT-Verantwortliche sollten das bei der Planung berücksichtigen und frühzeitig nach zukunftssicheren IT-Ressourcen suchen, statt ausschließlich mit denen zu planen, die heutigen Ansprüchen genügen.

2. 360-Grad-Analysen

Daten-Analysen werden künftig weit mehr Bereiche einer IT-Umgebung einbeziehen als heute üblich – vom Data-Center-Core über die Grenzen des Unternehmensnetzwerks hinaus bis in die Cloud hinein. Bisher liegt der Schwerpunkt vieler Analyseprogramme und Proof-of-Concept-Vorhaben allerdings entweder auf der Auswertung interner Informationen, die auf zentral vorgehaltenen Ressourcen bereitstehen oder auf der externer Datenquellen. Künftig wird die Herausforderung vor allem darin bestehen, auch Daten aus den Außenstellen eines Unternehmens oder aus dessen Cloud-Archiven in die zentrale Data-Lake-Analyseumgebung zu integrieren. Auch diese Tatsache sollte in die Planung von Projekten unbedingt einfließen.

3. Das Ende des „ETL-Ansatzes“

Die Verlagerung von Daten in sogenannte Data Lakes macht ehemals notwendige „Extract-Transform-Load“-Abläufe, kurz ETL, überflüssig. Geteilte Ressourcen ermöglichen die Konsolidierung isolierter Speicherinseln in einem einzigen, alles umfassenden Speichersystem. Das bedeutet in der Regel vor allem eines: ganz erhebliche Geschwindigkeitsvorteile. Schon bei einem Datenvolumen von rund 100 Terabyte und einem 10-GBps-Netzwerk kann der Wegfall von ETL-Abläufen bis zu 24 Stunden Zeit beim Speichern oder Laden einsparen. Weil in Data-Lake-Umgebungen zudem weitere Schwierigkeiten etwa beim Datenkopie-Management oder dem Handling beschädigter Daten entfallen, werden Echtzeitanalysen grundsätzlich möglich.

Bei Big Data geht es eben nicht nur um große Datenmengen, sondern auch um erhebliche Geschwindigkeitszuwächse bei der Datenauswertung. Deshalb sollten IT-Verantwortliche am besten so früh wie möglich prüfen, wie sie Geschwindigkeits- in Wettbewerbsvorteile umwandeln können und entsprechende Darstellungen erarbeiten. Derartige Überlegungen stützen mit Sicherheit den Business Case für ein Big-Data-Projekt – und das wiederum dürfte Start und Umsetzung fast immer erleichtern.

4. Die Rolle des Chief Data Officers

Einer der Schlüssel zum Erfolg von Big-Data-Projekten besteht im Benennen eines Verantwortlichen, der das Thema Datenanalyse überzeugend vertreten kann. Viele Unternehmen behandeln letzteres häufig noch eher stiefmütterlich – und übertragen es entweder recht beliebig an die IT-, die Marketing- oder eine andere Abteilung. Dabei ist die Ernennung eines Chief Data Officers, der abteilungsübergreifend arbeiten kann, meist viel erfolgversprechender (über die Gründe hierfür habe ich in diesem Blogpost bereits geschrieben). Deshalb dürfte diese neue Rolle in den kommenden Monaten erheblich an Bedeutung gewinnen – Untersuchungen etwa von Experian haben ergeben, dass 92 Prozent der CIOs bereits fordern, ihre Unternehmen mögen einen CDO bestellen, um dem zunehmenden Handlungsdruck im Bereich des Datenmanagements besser gerecht werden zu können. IT-Verantwortliche sollten also für Ihr Unternehmen prüfen, wer künftig die Verantwortung für Big-Data-Analytics übernehmen kann und frühzeitig eine entsprechende Klärung anstreben.