-
Entdecken Sie die Macht Ihrer Daten! In der digitalen Wirtschaft von heute entscheidet die Fähigkeit zur Datennutzung über Erfolg oder Misserfolg. Dieser Überblicks-Kurs zu Big Data öffnet Ihnen die Türen zur faszinierenden Welt von Big Data – auch ohne Programmiererfahrung!
Sie lernen die Grundlagen der wichtigsten Technologien wie Hadoop, Spark, Elasticsearch und Kafka kennen und verstehen, wie moderne Unternehmen aus riesigen Datenmengen wertvolle Geschäftserkenntnisse gewinnen. Durch anschauliche Beispiele und interaktive Demonstrationen entwickeln Sie ein solides Verständnis für Big Data-Infrastrukturen, Datenpipelines und Real-Time-Analytics. Sie erfahren, wie der ELK-Stack für Monitoring und Visualisierung eingesetzt wird und wie Cloud-Plattformen skalierbare Datenlösungen ermöglichen.
Mit Low-Code-Tools und visuellen Workflows lernen Sie, selbst komplexe Datenanalysen durchzuführen und aussagekräftige Dashboards zu erstellen. Dieses Big Data Training verwandelt Sie vom Daten-Betrachter zum Data-Driven Decision Maker. Sie gewinnen das Vertrauen, Big Data-Projekte zu verstehen, zu bewerten und erfolgreich zu begleiten – ein unverzichtbarer Wettbewerbsvorteil in der modernen Geschäftswelt. Erwerben Sie die Fähigkeiten, um die datengetriebene Zukunft Ihres Unternehmens mitzugestalten!
-
Kursinhalt
-
- Was ist Big Data?
- Die 4 V’s und Abgrenzung zu klassischer Datenverarbeitung
- Anwendungsbeispiele, Umsetzung und Praktische Einsatzgebiete
- Low-Code-/No-Code-Analytics mit KNIME
- Big Data Visualisierung und Operational Intelligence mit Kibana und PowerBI
- MapReduce und CAP-Theorem anhand der Hadoop Architektur und HDFS-Konzepte
- Apache Spark und In-Memory-Verarbeitung
- Datenstreaming und Echtzeitverarbeitung
- Elasticsearch und ELK-Stack
- Big Data in der Cloud mit AWS, Azure, Google Cloud und Databricks
- Data-Lakes vs. Data-Warehouses
- Effiziente Datenpipelines mit Logstash, Beats und Apache Airflow
- Data Governance und Compliance
- Zukunftstrends und neue Technologien
Das ausführliche deutschsprachige digitale Unterlagenpaket, bestehend aus PDF und E-Book, ist im Kurspreis enthalten.
Premium Kursunterlagen
Zusätzlich zu dem digitalen Unterlagenpaket steht Ihnen auch das exklusive Premium Print Paket zur Verfügung:
- Hochwertige Farbausdrucke der ExperTeach Kursunterlagen
- Exklusiver Ordner in edlem Design
- Dokumententasche in Backpack-Form
- Eleganter LAMY Kugelschreiber
- Praktischer Notizblock
Das Premium Print Paket kann für € 150,- zzgl. MwSt. im Bestellprozess hinzugefügt werden (nur bei Präsenzteilnahme). -
Zielgruppe
-
Dieser Kurs richtet sich an alle, die den Einstieg in die Welt der Big-Data-Lösungen suchen – sei es zur Planung, Bewertung oder praktischen Umsetzung. Ob Sie erste Ideen entwickeln oder bestehende Strategien optimieren möchten: Hier erhalten Sie das nötige Wissen und die Werkzeuge, um datengetriebene Projekte erfolgreich voranzubringen.
-
Voraussetzungen
-
Neugier und Interesse an der Arbeit mit großen Datenmengen sind wichtig! Darüber hinaus ist ein grundlegendes Verständnis von Datenstrukturen und -verarbeitung hilfreich.
-
Kursziel
-
Sie verstehen Big-Data-Grundlagen, erkennen relevante Anwendungsfälle und beherrschen einen praxisnahen Workflow von Datenerfassung über Verarbeitung bis Visualisierung und Deployment – inklusive Datenqualität und Skalierung.
| 1 | Was ist Big Data? |
| 1.1 | Der große Berg Daten |
| 1.2 | Anwendungsgebiete von BIG DATA |
| 1.3 | Die Definition von Big Data: 3-5 „V“s |
| 1.3.1 | Volume |
| 1.3.2 | Velocity: Geschwindigkeit und Aktualität der Daten |
| 1.3.3 | Variety: Vielfältigkeit der Daten |
| 1.3.4 | Veracity: Gültigkeit und Zuverlässigkeit der Daten |
| 1.3.5 | Das ist Big Data |
| 1.4 | Der Ursprung von Big Data |
| 2 | Big Data Grundlagen |
| 2.1 | Die BIG DATA Value Chain |
| 2.2 | Quellen für BigData Datenanalysen |
| 2.3 | Die Architektur |
| 2.4 | SQL: feste, vordefinierte Tabellenschemata |
| 2.5 | Normalisierung von Tabellen |
| 2.6 | NoSQL |
| 2.6.1 | Key-Value Stores |
| 2.6.2 | In-Memory Key-Value Stores |
| 2.6.3 | Document Stores |
| 2.6.4 | Graph Databases |
| 2.6.5 | Column Stores |
| 2.7 | CAP-Theorem |
| 2.7.1 | Kombination CA des CAP-Theorems |
| 2.7.2 | Kombination CP des CAP-Theorems |
| 2.7.3 | Kombination AP des CAP-Theorems |
| 3 | Hadoop und Spark |
| 3.1 | Hadoop |
| 3.2 | MapReduce |
| 3.2.1 | Hauptkonzepte – MapReduce |
| 3.2.2 | Beispiel: Wörter zählen |
| 3.3 | HDFS |
| 3.3.1 | HDFS – Hauptkomponenten |
| 3.3.2 | HDFS – Architektur |
| 3.4 | YARN |
| 3.5 | Apache Spark |
| 3.5.1 | Resilient Distributed Dataset |
| 3.5.2 | Spark SQL |
| 3.5.3 | Spark Streaming |
| 3.5.4 | MLlib |
| 3.5.5 | Machine Learning |
| 3.5.6 | GraphX |
| 4 | Big Data Technologien |
| 4.1 | Das Hadoop Ecosystem |
| 4.2 | Pig |
| 4.3 | Hive |
| 4.4 | Mahout |
| 4.5 | HBase |
| 4.6 | Sqoop |
| 4.7 | Flume |
| 4.8 | Chukwa |
| 4.9 | Flink |
| 4.10 | Oozie |
| 4.11 | Zookeeper |
| 4.12 | Ambari |
| 4.13 | R Connector |
| 4.14 | Cassandra |
| 4.15 | SAP HANA |
| 5 | Anforderungen an die Datenbankentwicklung |
| 5.1 | Die Entwicklung von SQL zu NoSQL |
| 5.2 | Facebook und Twitter: höhere Anforderungen |
| 5.2.1 | Read-Only-Replicas zur Überbrückung |
| 5.2.2 | Multi-Master Datenbanken |
| 5.3 | ACID vs BASE |
| 5.4 | Vorteile von NoSQL (BASE) |
| 5.5 | Der ELK Stack |
| 5.5.1 | ElasticSearch Abfragen auf der Konsole |
| 5.5.2 | Kibana - das Dashboard für grafische Anzeigen |
| 5.6 | ELK: Sharding und Reverse Indexing |
| 5.7 | MongoDB - ein beliebter Document Store |
| 6 | Anwendungsbeispiele für Big Data |
| 6.1 | Limitierungen klassischer analytischer Anwendungen |
| 6.2 | Einsatzszenarien von Big Data |
| 6.2.1 | Clickstream Analyse |
| 6.2.2 | Stimmungsanalysen aus Social Media |
| 6.2.3 | Analyse von Log-Daten |
| 6.2.4 | Analyse von Sensordaten |
| 6.2.5 | Analyse von Texten |
| 6.2.6 | Analyse von Video- und Sprachdaten |
| 6.3 | Weltweite Immobilienvermietung am Beispiel von AirBnB |
| 6.4 | Internationale Datacenterverknüpfung am Beispiel CERN |
| 6.5 | Beispiel: US FINRA |
| 6.6 | Beispiel: Jobbörse MONSTER |
| 6.7 | Beispiel: Google BigTable |
| 7 | Pipelines und ETL Prozesse |
| 7.1 | DB vs. Datawarehouse vs. Data Lake |
| 7.2 | Snowflake-Schemas |
| 7.3 | Extract - Transform - Load (ETL) |
| 7.4 | Pivot Tabellen / Klassische Reports |
| 7.5 | Pipeline für einen ETL Prozess |
| 7.6 | Data-Lakes |
| 8 | Data Governance + Risiken |
| 8.1 | Die 3 Säulen von Data Governanance |
| 8.2 | Was kann ich tun, um meine Daten zu schützen? |
| 8.3 | Risiken |
| 8.4 | Data Compliance Risiko |
| 8.4.1 | National und in Europa |
| 8.4.2 | Inhalte der DSGVO |
| 8.4.3 | International |
| 8.4.4 | Sozialrisiko |
| 8.5 | Datenrisiken |
| 8.5.1 | Sicherheit der Daten |
| 8.5.2 | Qualität der Daten |
| 8.6 | Definitions- und Aussagerisiko |
| 8.6.1 | Faktor Daten |
| 8.6.2 | Faktor Data Management |
| 8.6.3 | Faktor Organisation |
| 8.6.4 | Faktor Prozess |
| 8.6.5 | Faktor Kunde als Betroffener |
| 8.7 | Herausforderungen |
| 8.8 | EU-AI-Act: Erste Regulierungen von KI |
| 9 | Herausforderungen im Betrieb von Big Data Lösungen |
| 9.1 | Wo ist der Anfang? |
| 9.2 | Hadoop unternehmensweit betreiben |
| 9.2.1 | Physische Infrastruktur |
| 9.2.2 | Datenhaltung |
| 9.2.3 | Datenzugriff |
| 9.2.4 | Datenintegration |
| 9.2.5 | IT-Sicherheit |
| 9.2.6 | Weitere Betriebskriterien |
| 9.2.7 | Wirtschaftliche Kriterien |
| 9.3 | Betriebsphasen einer neuen Big-Data Landschaft |
| 9.4 | Erfolgsfaktoren |
| 10 | Ausblick |
| 10.1 | Prognose der Big Data Markt-Kapitalisierung |
| 10.2 | Marktanteile führender Unternehmen im 4. Quartal 2023 |
| 10.3 | Orchestrierung in der Cloud |
| 10.4 | KI und ML |
| 10.5 | Environment-, Social- und Governance-Faktoren (ESG) |
| 10.6 | Quantencomputing und Big Data |
| 10.7 | Natural Language Processing (NLP) |
| 10.8 | Big-Data- und ML/KI Fachkräftebedarf |
| 10.9 | Aktueller Stand |
| 10.10 | Technische Entwicklungen |
| 10.11 | Markt-Entwicklungen |
| 10.12 | Business-Entwicklungen |
| 10.13 | Diskussion der Ergebnisse |
| 11 | Hadoop Installation & Configuration & Go! |
| 11.1 | Installationsschema für APACHE HADOOP 3.1.3 |
| 11.2 | Hadoop 3.1.3 auf Github |
| 11.3 | Die Experteach Labor-Umgebung |
| 11.4 | Anpassung der Konfigurationsdateien |
| 11.5 | Übersicht der Filestrukturen im Labor |
| 11.6 | Erster Start des HDFS |
| 11.7 | Syntax und Ablauf von Zählaufgaben |
| 11.8 | Output beim MAPREDUCE Vorgang |
| 11.9 | Hadoop Cockpit |
| 11.10 | Wordcount Abfrage via PIG: |
| 11.11 | RATING – Datensätze filtern (25 Mio) |
-
Classroom Training
- Bevorzugen Sie die klassische Trainingsmethode? Ein Kurs in einem unserer Training Center, mit einem kompetenten Trainer und dem direkten Austausch zwischen allen Teilnehmern? Dann buchen Sie einen der Classroom Training Termine!
-
Hybrid Training
- Hybrid Training bedeutet, dass zusätzliche Online-Teilnehmer an einem Präsenzkurs teilnehmen können. Die Dynamik eines realen Kurses bleibt erhalten, wovon besonders auch die Online-Teilnehmer profitieren. Als Online-Teilnehmer eines Hybrid-Kurses nutzen Sie eine Collaboration-Plattform wie WebEx Training Center oder Saba Meeting. Dazu wird nur ein PC mit Browser und Internet-Anschluss benötigt, ein Headset und idealerweise eine Webcam. Im Kursraum setzen wir speziell entwickelte und angepasste hochwertige Audio- und Videotechnik ein. Sie sorgt dafür, dass die Kommunikation zwischen allen Beteiligten angenehm und störungsfrei funktioniert.
-
Online Training
- Möchten Sie einen Kurs online besuchen? Zu diesem Kursthema bieten wir Ihnen Online-Kurstermine an. Als Teilnehmer benötigen Sie dazu einen PC mit Internet-Anschluss (mindestens 1 Mbit/s), ein Headset, falls Sie per VoIP arbeiten möchten und optional eine Kamera. Weitere Informationen und technische Empfehlungen finden Sie hier.
-
Inhouse-Schulung
-
Benötigen Sie einen maßgeschneiderten Kurs für Ihr Team? Neben unserem Standard-Angebot bieten wir Ihnen an, Kurse speziell nach Ihren Anforderungen zu gestalten. Gerne beraten wir Sie hierzu und erstellen Ihnen ein individuelles Angebot.
-
Entdecken Sie die Macht Ihrer Daten! In der digitalen Wirtschaft von heute entscheidet die Fähigkeit zur Datennutzung über Erfolg oder Misserfolg. Dieser Überblicks-Kurs zu Big Data öffnet Ihnen die Türen zur faszinierenden Welt von Big Data – auch ohne Programmiererfahrung!
Sie lernen die Grundlagen der wichtigsten Technologien wie Hadoop, Spark, Elasticsearch und Kafka kennen und verstehen, wie moderne Unternehmen aus riesigen Datenmengen wertvolle Geschäftserkenntnisse gewinnen. Durch anschauliche Beispiele und interaktive Demonstrationen entwickeln Sie ein solides Verständnis für Big Data-Infrastrukturen, Datenpipelines und Real-Time-Analytics. Sie erfahren, wie der ELK-Stack für Monitoring und Visualisierung eingesetzt wird und wie Cloud-Plattformen skalierbare Datenlösungen ermöglichen.
Mit Low-Code-Tools und visuellen Workflows lernen Sie, selbst komplexe Datenanalysen durchzuführen und aussagekräftige Dashboards zu erstellen. Dieses Big Data Training verwandelt Sie vom Daten-Betrachter zum Data-Driven Decision Maker. Sie gewinnen das Vertrauen, Big Data-Projekte zu verstehen, zu bewerten und erfolgreich zu begleiten – ein unverzichtbarer Wettbewerbsvorteil in der modernen Geschäftswelt. Erwerben Sie die Fähigkeiten, um die datengetriebene Zukunft Ihres Unternehmens mitzugestalten!
-
Kursinhalt
-
- Was ist Big Data?
- Die 4 V’s und Abgrenzung zu klassischer Datenverarbeitung
- Anwendungsbeispiele, Umsetzung und Praktische Einsatzgebiete
- Low-Code-/No-Code-Analytics mit KNIME
- Big Data Visualisierung und Operational Intelligence mit Kibana und PowerBI
- MapReduce und CAP-Theorem anhand der Hadoop Architektur und HDFS-Konzepte
- Apache Spark und In-Memory-Verarbeitung
- Datenstreaming und Echtzeitverarbeitung
- Elasticsearch und ELK-Stack
- Big Data in der Cloud mit AWS, Azure, Google Cloud und Databricks
- Data-Lakes vs. Data-Warehouses
- Effiziente Datenpipelines mit Logstash, Beats und Apache Airflow
- Data Governance und Compliance
- Zukunftstrends und neue Technologien
Das ausführliche deutschsprachige digitale Unterlagenpaket, bestehend aus PDF und E-Book, ist im Kurspreis enthalten.
Premium Kursunterlagen
Zusätzlich zu dem digitalen Unterlagenpaket steht Ihnen auch das exklusive Premium Print Paket zur Verfügung:
- Hochwertige Farbausdrucke der ExperTeach Kursunterlagen
- Exklusiver Ordner in edlem Design
- Dokumententasche in Backpack-Form
- Eleganter LAMY Kugelschreiber
- Praktischer Notizblock
Das Premium Print Paket kann für € 150,- zzgl. MwSt. im Bestellprozess hinzugefügt werden (nur bei Präsenzteilnahme). -
Zielgruppe
-
Dieser Kurs richtet sich an alle, die den Einstieg in die Welt der Big-Data-Lösungen suchen – sei es zur Planung, Bewertung oder praktischen Umsetzung. Ob Sie erste Ideen entwickeln oder bestehende Strategien optimieren möchten: Hier erhalten Sie das nötige Wissen und die Werkzeuge, um datengetriebene Projekte erfolgreich voranzubringen.
-
Voraussetzungen
-
Neugier und Interesse an der Arbeit mit großen Datenmengen sind wichtig! Darüber hinaus ist ein grundlegendes Verständnis von Datenstrukturen und -verarbeitung hilfreich.
-
Kursziel
-
Sie verstehen Big-Data-Grundlagen, erkennen relevante Anwendungsfälle und beherrschen einen praxisnahen Workflow von Datenerfassung über Verarbeitung bis Visualisierung und Deployment – inklusive Datenqualität und Skalierung.
| 1 | Was ist Big Data? |
| 1.1 | Der große Berg Daten |
| 1.2 | Anwendungsgebiete von BIG DATA |
| 1.3 | Die Definition von Big Data: 3-5 „V“s |
| 1.3.1 | Volume |
| 1.3.2 | Velocity: Geschwindigkeit und Aktualität der Daten |
| 1.3.3 | Variety: Vielfältigkeit der Daten |
| 1.3.4 | Veracity: Gültigkeit und Zuverlässigkeit der Daten |
| 1.3.5 | Das ist Big Data |
| 1.4 | Der Ursprung von Big Data |
| 2 | Big Data Grundlagen |
| 2.1 | Die BIG DATA Value Chain |
| 2.2 | Quellen für BigData Datenanalysen |
| 2.3 | Die Architektur |
| 2.4 | SQL: feste, vordefinierte Tabellenschemata |
| 2.5 | Normalisierung von Tabellen |
| 2.6 | NoSQL |
| 2.6.1 | Key-Value Stores |
| 2.6.2 | In-Memory Key-Value Stores |
| 2.6.3 | Document Stores |
| 2.6.4 | Graph Databases |
| 2.6.5 | Column Stores |
| 2.7 | CAP-Theorem |
| 2.7.1 | Kombination CA des CAP-Theorems |
| 2.7.2 | Kombination CP des CAP-Theorems |
| 2.7.3 | Kombination AP des CAP-Theorems |
| 3 | Hadoop und Spark |
| 3.1 | Hadoop |
| 3.2 | MapReduce |
| 3.2.1 | Hauptkonzepte – MapReduce |
| 3.2.2 | Beispiel: Wörter zählen |
| 3.3 | HDFS |
| 3.3.1 | HDFS – Hauptkomponenten |
| 3.3.2 | HDFS – Architektur |
| 3.4 | YARN |
| 3.5 | Apache Spark |
| 3.5.1 | Resilient Distributed Dataset |
| 3.5.2 | Spark SQL |
| 3.5.3 | Spark Streaming |
| 3.5.4 | MLlib |
| 3.5.5 | Machine Learning |
| 3.5.6 | GraphX |
| 4 | Big Data Technologien |
| 4.1 | Das Hadoop Ecosystem |
| 4.2 | Pig |
| 4.3 | Hive |
| 4.4 | Mahout |
| 4.5 | HBase |
| 4.6 | Sqoop |
| 4.7 | Flume |
| 4.8 | Chukwa |
| 4.9 | Flink |
| 4.10 | Oozie |
| 4.11 | Zookeeper |
| 4.12 | Ambari |
| 4.13 | R Connector |
| 4.14 | Cassandra |
| 4.15 | SAP HANA |
| 5 | Anforderungen an die Datenbankentwicklung |
| 5.1 | Die Entwicklung von SQL zu NoSQL |
| 5.2 | Facebook und Twitter: höhere Anforderungen |
| 5.2.1 | Read-Only-Replicas zur Überbrückung |
| 5.2.2 | Multi-Master Datenbanken |
| 5.3 | ACID vs BASE |
| 5.4 | Vorteile von NoSQL (BASE) |
| 5.5 | Der ELK Stack |
| 5.5.1 | ElasticSearch Abfragen auf der Konsole |
| 5.5.2 | Kibana - das Dashboard für grafische Anzeigen |
| 5.6 | ELK: Sharding und Reverse Indexing |
| 5.7 | MongoDB - ein beliebter Document Store |
| 6 | Anwendungsbeispiele für Big Data |
| 6.1 | Limitierungen klassischer analytischer Anwendungen |
| 6.2 | Einsatzszenarien von Big Data |
| 6.2.1 | Clickstream Analyse |
| 6.2.2 | Stimmungsanalysen aus Social Media |
| 6.2.3 | Analyse von Log-Daten |
| 6.2.4 | Analyse von Sensordaten |
| 6.2.5 | Analyse von Texten |
| 6.2.6 | Analyse von Video- und Sprachdaten |
| 6.3 | Weltweite Immobilienvermietung am Beispiel von AirBnB |
| 6.4 | Internationale Datacenterverknüpfung am Beispiel CERN |
| 6.5 | Beispiel: US FINRA |
| 6.6 | Beispiel: Jobbörse MONSTER |
| 6.7 | Beispiel: Google BigTable |
| 7 | Pipelines und ETL Prozesse |
| 7.1 | DB vs. Datawarehouse vs. Data Lake |
| 7.2 | Snowflake-Schemas |
| 7.3 | Extract - Transform - Load (ETL) |
| 7.4 | Pivot Tabellen / Klassische Reports |
| 7.5 | Pipeline für einen ETL Prozess |
| 7.6 | Data-Lakes |
| 8 | Data Governance + Risiken |
| 8.1 | Die 3 Säulen von Data Governanance |
| 8.2 | Was kann ich tun, um meine Daten zu schützen? |
| 8.3 | Risiken |
| 8.4 | Data Compliance Risiko |
| 8.4.1 | National und in Europa |
| 8.4.2 | Inhalte der DSGVO |
| 8.4.3 | International |
| 8.4.4 | Sozialrisiko |
| 8.5 | Datenrisiken |
| 8.5.1 | Sicherheit der Daten |
| 8.5.2 | Qualität der Daten |
| 8.6 | Definitions- und Aussagerisiko |
| 8.6.1 | Faktor Daten |
| 8.6.2 | Faktor Data Management |
| 8.6.3 | Faktor Organisation |
| 8.6.4 | Faktor Prozess |
| 8.6.5 | Faktor Kunde als Betroffener |
| 8.7 | Herausforderungen |
| 8.8 | EU-AI-Act: Erste Regulierungen von KI |
| 9 | Herausforderungen im Betrieb von Big Data Lösungen |
| 9.1 | Wo ist der Anfang? |
| 9.2 | Hadoop unternehmensweit betreiben |
| 9.2.1 | Physische Infrastruktur |
| 9.2.2 | Datenhaltung |
| 9.2.3 | Datenzugriff |
| 9.2.4 | Datenintegration |
| 9.2.5 | IT-Sicherheit |
| 9.2.6 | Weitere Betriebskriterien |
| 9.2.7 | Wirtschaftliche Kriterien |
| 9.3 | Betriebsphasen einer neuen Big-Data Landschaft |
| 9.4 | Erfolgsfaktoren |
| 10 | Ausblick |
| 10.1 | Prognose der Big Data Markt-Kapitalisierung |
| 10.2 | Marktanteile führender Unternehmen im 4. Quartal 2023 |
| 10.3 | Orchestrierung in der Cloud |
| 10.4 | KI und ML |
| 10.5 | Environment-, Social- und Governance-Faktoren (ESG) |
| 10.6 | Quantencomputing und Big Data |
| 10.7 | Natural Language Processing (NLP) |
| 10.8 | Big-Data- und ML/KI Fachkräftebedarf |
| 10.9 | Aktueller Stand |
| 10.10 | Technische Entwicklungen |
| 10.11 | Markt-Entwicklungen |
| 10.12 | Business-Entwicklungen |
| 10.13 | Diskussion der Ergebnisse |
| 11 | Hadoop Installation & Configuration & Go! |
| 11.1 | Installationsschema für APACHE HADOOP 3.1.3 |
| 11.2 | Hadoop 3.1.3 auf Github |
| 11.3 | Die Experteach Labor-Umgebung |
| 11.4 | Anpassung der Konfigurationsdateien |
| 11.5 | Übersicht der Filestrukturen im Labor |
| 11.6 | Erster Start des HDFS |
| 11.7 | Syntax und Ablauf von Zählaufgaben |
| 11.8 | Output beim MAPREDUCE Vorgang |
| 11.9 | Hadoop Cockpit |
| 11.10 | Wordcount Abfrage via PIG: |
| 11.11 | RATING – Datensätze filtern (25 Mio) |
-
Classroom Training
- Bevorzugen Sie die klassische Trainingsmethode? Ein Kurs in einem unserer Training Center, mit einem kompetenten Trainer und dem direkten Austausch zwischen allen Teilnehmern? Dann buchen Sie einen der Classroom Training Termine!
-
Hybrid Training
- Hybrid Training bedeutet, dass zusätzliche Online-Teilnehmer an einem Präsenzkurs teilnehmen können. Die Dynamik eines realen Kurses bleibt erhalten, wovon besonders auch die Online-Teilnehmer profitieren. Als Online-Teilnehmer eines Hybrid-Kurses nutzen Sie eine Collaboration-Plattform wie WebEx Training Center oder Saba Meeting. Dazu wird nur ein PC mit Browser und Internet-Anschluss benötigt, ein Headset und idealerweise eine Webcam. Im Kursraum setzen wir speziell entwickelte und angepasste hochwertige Audio- und Videotechnik ein. Sie sorgt dafür, dass die Kommunikation zwischen allen Beteiligten angenehm und störungsfrei funktioniert.
-
Online Training
- Möchten Sie einen Kurs online besuchen? Zu diesem Kursthema bieten wir Ihnen Online-Kurstermine an. Als Teilnehmer benötigen Sie dazu einen PC mit Internet-Anschluss (mindestens 1 Mbit/s), ein Headset, falls Sie per VoIP arbeiten möchten und optional eine Kamera. Weitere Informationen und technische Empfehlungen finden Sie hier.
-
Inhouse-Schulung
-
Benötigen Sie einen maßgeschneiderten Kurs für Ihr Team? Neben unserem Standard-Angebot bieten wir Ihnen an, Kurse speziell nach Ihren Anforderungen zu gestalten. Gerne beraten wir Sie hierzu und erstellen Ihnen ein individuelles Angebot.
