Deutschland

Developer Training for Spark & Hadoop

Dieser praxisorientierte Kurs macht die Teilnehmer mit den Schlüsselkonzepten und dem Fachwissen vertraut, welches sie benötigen, um Daten zu einem Hadoop-Cluster aufzunehmen und zu verarbeiten und dabei die neuesten Werkzeuge und Technologien einzusetzen. Dabei werden Hadoop Ecosystem-Projekte verwendet, wie z. B.Spark, Hive, Flume, Sqoop und Impala. Damit ist der Kurs die ideale Vorbereitung auf die realen Herausforderungen, die im wirklichen Leben auf Hadoop-Entwickler warten. Die Teilnehmer lernen, welches Werkzeug das richtige in der jeweiligen Situation ist, und sammeln praktische Erfahrung in der Entwicklung dieser Werkzeuge.

Kursinhalt

• Introduction to Hadoop and the Hadoop Ecosystem
• Hadoop Architecture and HDFS
• Importing Relational Data with Apache Sqoop
• Introduction to Impala and Hive
• Modeling and Managing Data with Impala and Hive
• Data Formats
• Data File Partitioning
• Capturing Data with Apache Flume
• Spark Basics
• Working with RDDs in Spark
• Writing and Deploying Spark Applications
• Parallel Processing in Spark
• Spark RDD Persistence
• Common Patterns in Spark Data Processing
• DataFrames and Spark SQL
• Conclusion

 Die englischsprachigen Original-Unterlagen von Cloudera erhalten Sie als E-Book (pdf).

 Maßgeschneiderten Kurs anfragen

Zielgruppe

Dieser Kurs wird für Entwickler und Techniker mit Programmierkenntnissen angeboten.

Voraussetzungen

Beispiele zur Anwendung von Apache Spark und praktische Übungen werden in Scala und Phyton angeboten. Daher müssen die Teilnehmer eine der beiden Programmiersprachen beherrschen. Grundkenntnisse der Linux Command Line werden vorausgesetzt. Weiterhin sind Grundkenntnisse zu SQL hilfreich. Vorkenntnisse zu Hadoop sind nicht erforderlich.