KNIME Logo

KNIME Productionizing Data Pipelines

L3-DE

KNIME Logo

In diesem Kurs zeigen wir Ihnen, wie Sie mit der KNIME Software einen Datenumwandlungs-Workflow testen und implementieren, seine Bereitstellung automatisieren und die anschließende Datenüberwachung und -pflege ermöglichen können. 

Wir werden einen Anwendungsfall betrachten, bei dem eine Datenpipeline zur Verwaltung der Bestelldaten für ein Restaurant-Franchise-Unternehmen erstellt wird, das Daten von verschiedenen Filialen erhält, und zeigen, wie der Datenumwandlungs-Workflow manuell oder automatisch bereitgestellt wird und wie die Ausführung von Datenpipelines in einer Produktionsumgebung geplant und ausgelöst werden kann.

In der ersten Sitzung dieses Kurses lernen Sie, wie Sie einen Datenumwandlungs-Workflow für die Bereitstellung vorbereiten. In der zweiten Sitzung werden Sie in den KNIME Business Hub eingeführt und lernen, wie Sie eine Datenpipeline als geplante oder ausgelöste Ausführung bereitstellen. In der dritten Sitzung lernen Sie, welche Arten von Datenpipelines es gibt - ETL und ELT - und wie Sie das Continuous Deployment for Data Science (CDDS) Erweiterungsframework nutzen können, um ein automatisiertes Deployment auf KNIME Business Hub zu ermöglichen. In der vierten Sitzung schließlich lernen Sie die Best Practices für die Produktion von Datenpipelines kennen: die Prinzipien der Data Governance - Qualität, Sicherheit und Katalogisierung, Orchestrierung und Leistungsoptimierung.

Kursinhalt

  • Preparing a Data Pipeline for Deployment
  • Introduction to KNIME Business Hub
  • ETL and ELT; Data Pipelines Validation and Deployment Automation
  • Best Practices when Productionizing Data Pipelines
  • Optional follow-up Q&A

Bitte beachten Sie: Dieser Kurs besteht aus vier 75-minütigen Online-Sitzungen, die von einem KNIME-Datenwissenschaftler durchgeführt werden. Zu jeder Sitzung gibt es eine Übung, die Sie zu Hause durchführen können. Gemeinsam gehen wird die Lösung zu Beginn der nächsten Sitzung durchgesprochen. Am 5. Tag endet der Kurs mit einer 15-30-minütigen Abschlusssitzung.

Inhouse-Schulung jetzt anfragen

Zielgruppe

Sie sollten ein fortgeschrittener KNIME-Benutzer sein.

Voraussetzungen

Sie sollten bereits wissen, wie man Workflows und Komponenten mit der KNIME Analytics Platform erstellt. Es werden Kenntnisse und Erfahrungen empfohlen, die unseren fortgeschrittenen KNIME Analytics Platform Kursen (L2-Level) entsprechen.

Sie sollten auf Ihrem Laptop bereits die letzte Version der KNIME Analytics Platform installiert haben, die Sie hier herunterladen können: knime.com/downloads

Online Training

Möchten Sie einen Kurs online besuchen? Zu diesem Kursthema bieten wir Ihnen Online-Kurstermine an. Als Teilnehmer benötigen Sie dazu einen PC mit Internet-Anschluss (mindestens 1 Mbit/s), ein Headset, falls Sie per VoIP arbeiten möchten und optional eine Kamera. Weitere Informationen und technische Empfehlungen finden Sie hier.
PDF SymbolDie gesamte Beschreibung dieses Kurses mit Terminen und Preisen zum Download als PDF.

In diesem Kurs zeigen wir Ihnen, wie Sie mit der KNIME Software einen Datenumwandlungs-Workflow testen und implementieren, seine Bereitstellung automatisieren und die anschließende Datenüberwachung und -pflege ermöglichen können. 

Wir werden einen Anwendungsfall betrachten, bei dem eine Datenpipeline zur Verwaltung der Bestelldaten für ein Restaurant-Franchise-Unternehmen erstellt wird, das Daten von verschiedenen Filialen erhält, und zeigen, wie der Datenumwandlungs-Workflow manuell oder automatisch bereitgestellt wird und wie die Ausführung von Datenpipelines in einer Produktionsumgebung geplant und ausgelöst werden kann.

In der ersten Sitzung dieses Kurses lernen Sie, wie Sie einen Datenumwandlungs-Workflow für die Bereitstellung vorbereiten. In der zweiten Sitzung werden Sie in den KNIME Business Hub eingeführt und lernen, wie Sie eine Datenpipeline als geplante oder ausgelöste Ausführung bereitstellen. In der dritten Sitzung lernen Sie, welche Arten von Datenpipelines es gibt - ETL und ELT - und wie Sie das Continuous Deployment for Data Science (CDDS) Erweiterungsframework nutzen können, um ein automatisiertes Deployment auf KNIME Business Hub zu ermöglichen. In der vierten Sitzung schließlich lernen Sie die Best Practices für die Produktion von Datenpipelines kennen: die Prinzipien der Data Governance - Qualität, Sicherheit und Katalogisierung, Orchestrierung und Leistungsoptimierung.

Kursinhalt

  • Preparing a Data Pipeline for Deployment
  • Introduction to KNIME Business Hub
  • ETL and ELT; Data Pipelines Validation and Deployment Automation
  • Best Practices when Productionizing Data Pipelines
  • Optional follow-up Q&A

Bitte beachten Sie: Dieser Kurs besteht aus vier 75-minütigen Online-Sitzungen, die von einem KNIME-Datenwissenschaftler durchgeführt werden. Zu jeder Sitzung gibt es eine Übung, die Sie zu Hause durchführen können. Gemeinsam gehen wird die Lösung zu Beginn der nächsten Sitzung durchgesprochen. Am 5. Tag endet der Kurs mit einer 15-30-minütigen Abschlusssitzung.

Inhouse-Schulung jetzt anfragen

Zielgruppe

Sie sollten ein fortgeschrittener KNIME-Benutzer sein.

Voraussetzungen

Sie sollten bereits wissen, wie man Workflows und Komponenten mit der KNIME Analytics Platform erstellt. Es werden Kenntnisse und Erfahrungen empfohlen, die unseren fortgeschrittenen KNIME Analytics Platform Kursen (L2-Level) entsprechen.

Sie sollten auf Ihrem Laptop bereits die letzte Version der KNIME Analytics Platform installiert haben, die Sie hier herunterladen können: knime.com/downloads

Online Training

Möchten Sie einen Kurs online besuchen? Zu diesem Kursthema bieten wir Ihnen Online-Kurstermine an. Als Teilnehmer benötigen Sie dazu einen PC mit Internet-Anschluss (mindestens 1 Mbit/s), ein Headset, falls Sie per VoIP arbeiten möchten und optional eine Kamera. Weitere Informationen und technische Empfehlungen finden Sie hier.

PDF SymbolDie gesamte Beschreibung dieses Kurses mit Terminen und Preisen zum Download als PDF.