Hadoop-Cluster

Ein Hadoop-Cluster ist ein spezieller Cluster für die Speicherung und Analyse von enormen Mengen an unstrukturierten Daten in einer verteilten Rechnerumgebung.

Entsprechende Cluster arbeiten mit Hadoops Open Source Software für verteilte Systeme, die auf preiswerten Computern läuft. Das Konzept arbeitet im Master-Slave-Betrieb, bei dem ein Rechner den NameNode, bildet, ein anderer den JobTracker. Diese beiden Knoten sind Masterknoten. Die Nutzdaten werden in den Slaves, die als DataNodes oder TaskTracker, arbeiten, gespeichert.

Hadoop-Cluster erhöhen die Verarbeitungsgeschwindigkeit für die Datenanalyse, sie sind skalierbar, ihre Rechen- und Speicherleistung können jederzeit durch Hinzufügen von weiteren Cluster-Knoten erhöht werden. Sie haben eine hohe Fehlerredundanz, weil alle Daten auf mehreren Cluster-Knoten gespeichert werden.

Informationen zum Artikel
Deutsch: Hadoop-Cluster
Englisch: Hadoop cluster
Veröffentlicht: 13.10.2016
Wörter: 114
Tags: #Datenbanken
Links: Cluster, Computer, Datenanalytik, Hadoop, Knoten