Big Data vs. Data Warehouse: Zeit für die Modernisierung

Laut eines TDWI-Berichts ist es in den meisten Unternehmen Zeit für die Modernisierung der Data-Warehouse-Lösung

(PresseBox) ( München, )
Die Gründe dafür lassen sich in vier Kategorien einteilen:


Unternehmen wollen echte Werte aus Big Data generieren
Wir sind endgültig im Zeitalter von Predictive Analytics angekommen
Es gibt neue Anforderungen an Realtime-Daten
Open-Source-Software ist mittlerweile Teil des Data Warehouse


Die Bereithaltung, zentrale, einheitliche Ablage und Realtime-Auswertung gerade auch von immer größer werdenden Datenmengen ist also Aufgabe einer „modernen“ Data-Warehouse-Lösung. Zudem gilt es, heterogene Daten zu integrieren und zu validieren – möglichst schnell und ohne Performance-Einbußen. (siehe Infografik unter http://www.mip.de/wp-content/uploads/2015/01/mip-Infografik_Data-Warehouse_final-ohne-Logo.pdf)

Ziel ist es darüber hinaus, Daten auch so zu analysieren und zu nutzen, dass sie sich in gesteigerter Produktivität, mehr Umsatz und sinkenden Kosten niederschlagen.

Daten zu jeder Zeit, an jedem Ort, für jeden zugänglich

Trotz einer veränderten Nutzerstruktur – neben IT-Leitern und Geschäftsführern interessieren sich vermehrt auch Fachabteilungen für das Thema – hat sich an den Kernaufgaben eines Data Warehouse in den letzten zwei Jahrzehnten wenig geändert: Es bereitet Daten auf, legt diese zentral sowie zielgerichtet ab und erzeugt Statistiken. Diese müssen dann nicht nur rund um die Uhr, sondern auch weltweit zur Verfügung stehen.

Hadoop und MapReduce: Innovation aus unstrukturierten Daten

Eine Neuerung ist der Einsatz von Frameworks wie Hadoop, das auf Java und Googles MapReduce-Algorithmus basiert und die Verarbeitung unstrukturierter Daten ermöglicht. Mit MapReduce können Anwender rechenintensive Aufgaben mit Dateimengen im Petabyte-Bereich auf viele Rechner verteilen und parallel bearbeiten lassen.

Der Markt für solche Frameworks wächst. Eine kürzlich veröffentlichte Studie ergab, dass 60 Prozent der Befragten voraussichtlich schon nächstes Jahr Hadoop einsetzen werden. Ein Grund dafür ist das Innovationspotenzial, das sich fast alle der Teilnehmer davon erhoffen. Bereits heute werden Workloads, bei denen sich die Einsatzmöglichkeiten beider Systeme überschneiden, von traditionellen Data-Warehouse-Systemen zu Hadoop migriert.

Doch werden derartige Technologien das Data Warehouse nicht vollkommen verdrängen. „Es handelt sich dabei nicht um einen Ersatz für das klassische Data Warehouse, sondern vielmehr um eine Ergänzung, die es ermöglicht, auch unstrukturierte Daten in großen Mengen zu speichern und zu verarbeiten“, erklärt Markus Ruf, Geschäftsführer der mip GmbH. „Hadoop wird diejenigen Workloads übernehmen, für die es besser geeignet ist. Die Zielgruppe sind hier allerdings ganz klar Big-Data-Experten und Data Scientists, die diese Daten dann auswerten können.“

Mehr Informationen unter: http://mip.de/data-warehouse/
Für die oben stehenden Pressemitteilungen, das angezeigte Event bzw. das Stellenangebot sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Herausgeber (siehe Firmeninfo bei Klick auf Bild/Meldungstitel oder Firmeninfo rechte Spalte) verantwortlich. Dieser ist in der Regel auch Urheber der Pressetexte sowie der angehängten Bild-, Ton- und Informationsmaterialien.
Die Nutzung von hier veröffentlichten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Bei Veröffentlichung senden Sie bitte ein Belegexemplar an service@pressebox.de.