Datenanalyse mit Hadoop

Als registrierter Benutzer können Sie Ihre persönlichen Favoriten verwalten.

Die Konferenzregistrierung erfolgt über das Conftool.

Weitere Informationen & Preise
Big Data und Data Analysis sind die Themen, denen aktuell ein technologischer Quantensprung zugetraut wird. Durch diese Technologien erhofft man sich einen Durchbruch bei der Analyse extrem großer und komplexer Datenmengen, sowie die einfache Skalierung. Dieser Vortrag bietet eine Einführung in die grundlegende Funktionsweise von Map Reduce anhand der Apache Hadoop Implementierung. Der Schwerpunkt liegt hierbei bei der Verteilung der Daten und der Parallelisierung von Algorithmen. Hierbei wird auf verschiedene Programmiermöglichkeiten von Hadoop (Java, Python, PIG) und deren vor- und Nachteile eingegangen. Weiterhin wird gezeigt, welche Art von Algorithmen sich besonders gut oder schlecht für das Batch-Prozess artige Ablaufmodell von Map Reduce eignen, welchen großen Einfluss ungleichverteilte Eingabedaten haben, sowie einige best practices aus dem realen Einsatz. Der Beitrag richtet sich an Entwickler und Entscheider, die einen Eindruck über die Funktionsweise von Map Reduce gewinnen wollen, sowie welche Aufgaben sich grundsätzlich gut mit Map Reduce Anwendungen erledigen lassen.