Big-Data-Lösung
SAP HANA und Hadoop - ein starkes Team
Empfehlenswert und ökonomisch sinnvoll ist es, kaufmännische und Massen-Datenverarbeitung zu trennen und dadurch den Spezialisten in jeder Disziplin zu vertrauen. Für viele Unternehmen kann ein idealer Mix aus der High-Performance-Datenbank SAP HANA und solider Hadoop-Plattform völlig neue Wege im Bereich der Realtime Analytics eröffnen und gleichzeitig enorme Kosten einsparen. Die Ankündigung des Produktes "SAP HANA Vora" untermauert diese ideale Konstellation. Dieses Werkzeug sorgt für eine noch tiefere Integration zwischen der In-Memory Datenplattform SAP HANA und der Big-Data-Komponente Hadoop.
Der Clou: Verteilte Verarbeitung der Daten
Ein wesentlicher Vorzug gegenüber anderen Systemen ist, dass Hadoop nicht auf teure proprietäre Hardware für die Speicherung und Verarbeitung der Daten baut. Der Vorteil des verteilten Filesystems erstreckt sich auch auf die verteilte Verarbeitung der Daten und kann nahezu endlos über günstige Standardserver skalieren: eine ideale Voraussetzung für die Vorbereitung auf die stetig wachsende Datenflut.
"Hadooponomics": Zahlen sprechen für sich
Hadoop ist nicht nur eine Option, sondern essenziell für Big-Data-Szenarien, so das Marktforschungsunternehmen Forrester Research. Um den finanziellen Nutzen der Open-Source-Software zu unterstreichen, kreierten Forrester-Analysten das Wort "Hadooponomics". Die Zahlen sprechen in der Tat für sich. Nach Angaben von Forrester belaufen sich die Kosten für die großen Hadoop-Distributionen auf 2000 bis 3000 Dollar pro Knoten und Jahr. Ein HANA-Knoten kostet dagegen rund 750.000 Dollar pro Jahr.
- Hadoop – Framework für Big Data
Haddop ist ein komplexes Framework, welches große Datenmengen auf zahlreiche Clusterknoten verteilen und berechnen kann. - Daraus besteht Hadoop
Hadoop besteht aus einem Cluster. Ein Knoten übernimmt die Steuerung (NameNode), die anderen die Berechnungen (DataNodes) im Cluster. - Lokaler Betrieb oder Cloud
Hadoop können Sie auch in der Cloud bei Microsoft Azure betreiben. - Ersetzt Hadoop Business Intelligence im Unternehmen?
Big Data-Lösungen wie Hadoop ergänzen Business Intelligence. Im Gegensatz zu BI-Lösungen, benötigen Big-Data-Lösungen keine perfekt zusammen gestellten Daten. - IBM General Parallel File System im Big Data-Einsatz
Verschiedene Clusterknoten können auf eine gemeinsame Datenbasis zugreifen, wenn GPFS im Einsatz ist. Unternehmen müssen beim Einsatz von Hadoop also nicht gezwungenermaßen auch auf HDFS setzen. - Hadoop in Amazon Web Services, Google Cloud Platform und Rackspace
Hadoop können Sie auch in Amazon Web Services betreiben. - Die wichtigsten Hadoop-Distributionen
Hortonworks Data Platform gehört zu den besonders bekannten Hadoop-Distributionen. - Hadoop erweitern – YARN und Co.
Auf dem Markt finden Sie zahlreiche Erweiterungen, mit denen sich der Funktionsumfang von Hadoop vergrößern lässt. - Sicherheit und Überwachung im Hadoop-Cluster
Apache Knox erhöht beispielsweise die Sicherheit im Hadoop-Cluster. Für die Überwachung der Hadoop-Infrastruktur eignet sich Apache Chukwa. - Oracle, IBM und Co. – Hadoop kommerziell erweitern
Oracle bietet zum mit Big Data SQL die Möglichkeit über SQL-Abfragen auf Big Data-Daten zuzugreifen. IBM InfoSphere BigInsights erweitert Hadoop um zahlreiche Möglichkeiten.
Ein namhaftes Unternehmen in Großbritannien stellte die konventionelle Datenspeicherung den geschätzten Kosten für den Einsatz von Hadoop gegenüber. Ein Terabyte in einer Oracle-Datenbank verursache demzufolge Kosten in Höhe von 35.000 Britischen Pfund pro Jahr. Für die Speicherung derselben Datenmenge in Hadoop errechnete das Unternehmen dagegen Kosten von 1120 Britischen Pfund pro Jahr. Angesichts dieser immensen Kostendifferenz ist es ökonomisch sinnvoll, nur die wertvollsten und am häufigsten genutzten Daten in SAP HANA zu verarbeiten und die übrigen Daten in Hadoop vorzuhalten.