DP-203 Data Engineering on Microsoft Azure: virtueller Vier-Tage-Workshop

2.255,05 EUR inkl. MwSt./USt
Regulärer Preis
1.895,00 EUR zzgl. MwSt./USt.
Angebotspreis
1.895,00 EUR zzgl. MwSt./USt.
Regulärer Preis
Derzeit nicht verfügbar
Stückpreis
per 

DATUM 24.–27. Januar 2023

UHRZEIT 9:00–17:00

FORMAT virtuell

Eckdaten

Zielgruppe: BI-Experten, Datenanalysten, Datenarchitekten, Datenexperten | Dauer 4 Tage | 9:00–17:00 Uhr | Trainer: New Elements GmbH | Online-Seminar | Teilnehmerzahl: 4-12

Ziele

In diesem Kurs lernen die Teilnehmer das Data Engineering in Bezug auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechnologien kennen. Die Teilnehmer lernen zunächst die wichtigsten Rechen- und Speichertechnologien kennen, die zum Aufbau einer analytischen Lösung verwendet werden. Die Teilnehmer lernen, wie sie in Dateien gespeicherte Daten in einem Data Lake interaktiv untersuchen können. Sie lernen die verschiedenen Ingestion-Techniken kennen, die zum Laden von Daten mit der Apache Spark-Funktion in Azure Synapse Analytics oder Azure Databricks verwendet werden können, oder wie man mit Azure Data Factory oder Azure Synapse Pipelines Ingests durchführt. Die Teilnehmer lernen auch die verschiedenen Möglichkeiten kennen, wie sie die Daten mit denselben Technologien umwandeln können, die für den Dateningest verwendet werden. Sie werden verstehen, wie wichtig es ist, Sicherheit zu implementieren, um sicherzustellen, dass die Daten im Ruhezustand oder bei der Übertragung geschützt sind. Der Teilnehmer wird dann zeigen, wie ein Echtzeit-Analysesystem erstellt wird, um Echtzeit-Analyselösungen zu entwickeln.

 

Zielgruppe

  • Business-Intelligence-Experten
  • Datenanalysten
  • Datenarchitekten
  • Datenexperten

Voraussetzungen

  • AZ-900 - Azure Fundamentals
  • DP-900 - Microsoft Azure Data Fundamentals

Agenda

Rechen- und Speicheroptionen für Data-Engineering-Workloads

  • Einführung in Azure Synapse Analytics
  • Erläuterung von Azure Databricks
  • Erläuterung in Azure Data Lake-Speicher
  • Beschreiben der Delta Lake-Architektur
  • Arbeiten mit Datenströmen unter Verwendung von Azure Stream Analytics


Interaktive Abfragen mit Azure Synapse Analytics serverlosen SQL-Pools ausführen

  • Möglichkeiten von Azure Synapse Serverless SQL Pools
  • Abfragen von Daten im Lake mit Azure Synapse Serverless SQL Pools
  • Erstellen von Metadatenobjekten in Azure Synapse Serverless SQL Pools
  • Sichern von Daten und Verwalten von Benutzern in Azure Synapse Serverless SQL Pools


Datenexploration und -umwandlung in Azure Databricks

  • Azure Databricks
  • Lesen und Schreiben von Daten in Azure Databricks
  • Arbeiten mit DataFrames in Azure Databricks
  • Arbeiten mit fortgeschrittenen DataFrames-Methoden in Azure Databricks


Analysieren, Transformieren und Laden von Daten in das Data Warehouse mit Apache Spark

  • Verstehen von Big Data Engineering mit Apache Spark in Azure Synapse Analytics
  • Einlesen von Daten mit Apache Spark-Notebooks in Azure Synapse Analytics
  • Transformieren von Daten mit DataFrames in Apache Spark-Pools in Azure Synapse Analytics
  • Integrieren von SQL- und Apache Spark-Pools in Azure Synapse Analytics


Daten in das Data Warehouse aufnehmen und laden

  • Vewenden von Best Practices zum Laden von Daten in Azure Synapse Analytics
  • Ingestion im Petabyte-Bereich mit Azure Data Factory


Transformieren von Daten mit Azure Data Factory oder Azure Synapse Pipelines

  • Datenintegration mit Azure Data Factory oder Azure Synapse Pipelines
  • Codefreie Transformation im großen Maßstab mit Azure Data Factory oder Azure Synapse Pipelines


Orchestrierung der Datenbewegung und -transformation in Azure Synapse Pipelines

  • Orchestrierung der Datenbewegung und -transformation in Azure Data Factory


End-to-End-Sicherheit mit Azure Synapse Analytics

  • Data Warehouse in Azure Synapse Analytics sichern
  • Konfigurieren und Verwalten von Secrets in Azure Key Vault
  • Implementierung von Compliance-Kontrollen für sensible Daten


Hybride transaktionale analytische Verarbeitung (HTAP) mit Azure Synapse Link unterstützen

  • Entwerfen Sie hybride transaktionale und analytische Verarbeitung mit Azure Synapse Analytics
  • Konfigurieren von Azure Synapse Link mit Azure Cosmos DB
  • Abfrage von Azure Cosmos DB mit Apache Spark-Pools
  • Abfrage von Azure Cosmos DB mit serverlosen SQL-Pools


Stream-Verarbeitung in Echtzeit mit Stream Analytics

  • Zuverlässiges Messaging für Big Data-Anwendungen mit Azure Event Hubs ermöglichen
  • Arbeiten mit Daten-Streams mithilfe von Azure Stream Analytics
  • Einlesen von Daten-Streams mit Azure Stream Analytics


Erstellen einer Stream Processing-Lösung mit Event Hubs und Azure Databricks

  • Verarbeiten von Streaming-Daten mit Azure Databricks Structured Streaming

Eckdaten

Zielgruppe: BI-Experten, Datenanalysten, Datenarchitekten, Datenexperten | Dauer 4 Tage | 9:00–17:00 Uhr | Trainer: New Elements GmbH | Online-Seminar | Teilnehmerzahl: 4-12

Ziele

In diesem Kurs lernen die Teilnehmer das Data Engineering in Bezug auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechnologien kennen. Die Teilnehmer lernen zunächst die wichtigsten Rechen- und Speichertechnologien kennen, die zum Aufbau einer analytischen Lösung verwendet werden. Die Teilnehmer lernen, wie sie in Dateien gespeicherte Daten in einem Data Lake interaktiv untersuchen können. Sie lernen die verschiedenen Ingestion-Techniken kennen, die zum Laden von Daten mit der Apache Spark-Funktion in Azure Synapse Analytics oder Azure Databricks verwendet werden können, oder wie man mit Azure Data Factory oder Azure Synapse Pipelines Ingests durchführt. Die Teilnehmer lernen auch die verschiedenen Möglichkeiten kennen, wie sie die Daten mit denselben Technologien umwandeln können, die für den Dateningest verwendet werden. Sie werden verstehen, wie wichtig es ist, Sicherheit zu implementieren, um sicherzustellen, dass die Daten im Ruhezustand oder bei der Übertragung geschützt sind. Der Teilnehmer wird dann zeigen, wie ein Echtzeit-Analysesystem erstellt wird, um Echtzeit-Analyselösungen zu entwickeln.

 

Zielgruppe

  • Business-Intelligence-Experten
  • Datenanalysten
  • Datenarchitekten
  • Datenexperten

Voraussetzungen

  • AZ-900 - Azure Fundamentals
  • DP-900 - Microsoft Azure Data Fundamentals

Agenda

Rechen- und Speicheroptionen für Data-Engineering-Workloads

  • Einführung in Azure Synapse Analytics
  • Erläuterung von Azure Databricks
  • Erläuterung in Azure Data Lake-Speicher
  • Beschreiben der Delta Lake-Architektur
  • Arbeiten mit Datenströmen unter Verwendung von Azure Stream Analytics


Interaktive Abfragen mit Azure Synapse Analytics serverlosen SQL-Pools ausführen

  • Möglichkeiten von Azure Synapse Serverless SQL Pools
  • Abfragen von Daten im Lake mit Azure Synapse Serverless SQL Pools
  • Erstellen von Metadatenobjekten in Azure Synapse Serverless SQL Pools
  • Sichern von Daten und Verwalten von Benutzern in Azure Synapse Serverless SQL Pools


Datenexploration und -umwandlung in Azure Databricks

  • Azure Databricks
  • Lesen und Schreiben von Daten in Azure Databricks
  • Arbeiten mit DataFrames in Azure Databricks
  • Arbeiten mit fortgeschrittenen DataFrames-Methoden in Azure Databricks


Analysieren, Transformieren und Laden von Daten in das Data Warehouse mit Apache Spark

  • Verstehen von Big Data Engineering mit Apache Spark in Azure Synapse Analytics
  • Einlesen von Daten mit Apache Spark-Notebooks in Azure Synapse Analytics
  • Transformieren von Daten mit DataFrames in Apache Spark-Pools in Azure Synapse Analytics
  • Integrieren von SQL- und Apache Spark-Pools in Azure Synapse Analytics


Daten in das Data Warehouse aufnehmen und laden

  • Vewenden von Best Practices zum Laden von Daten in Azure Synapse Analytics
  • Ingestion im Petabyte-Bereich mit Azure Data Factory


Transformieren von Daten mit Azure Data Factory oder Azure Synapse Pipelines

  • Datenintegration mit Azure Data Factory oder Azure Synapse Pipelines
  • Codefreie Transformation im großen Maßstab mit Azure Data Factory oder Azure Synapse Pipelines


Orchestrierung der Datenbewegung und -transformation in Azure Synapse Pipelines

  • Orchestrierung der Datenbewegung und -transformation in Azure Data Factory


End-to-End-Sicherheit mit Azure Synapse Analytics

  • Data Warehouse in Azure Synapse Analytics sichern
  • Konfigurieren und Verwalten von Secrets in Azure Key Vault
  • Implementierung von Compliance-Kontrollen für sensible Daten


Hybride transaktionale analytische Verarbeitung (HTAP) mit Azure Synapse Link unterstützen

  • Entwerfen Sie hybride transaktionale und analytische Verarbeitung mit Azure Synapse Analytics
  • Konfigurieren von Azure Synapse Link mit Azure Cosmos DB
  • Abfrage von Azure Cosmos DB mit Apache Spark-Pools
  • Abfrage von Azure Cosmos DB mit serverlosen SQL-Pools


Stream-Verarbeitung in Echtzeit mit Stream Analytics

  • Zuverlässiges Messaging für Big Data-Anwendungen mit Azure Event Hubs ermöglichen
  • Arbeiten mit Daten-Streams mithilfe von Azure Stream Analytics
  • Einlesen von Daten-Streams mit Azure Stream Analytics


Erstellen einer Stream Processing-Lösung mit Event Hubs und Azure Databricks

  • Verarbeiten von Streaming-Daten mit Azure Databricks Structured Streaming

Für alle fachlichen Workshops und virtuellen Live-Kurse gilt:

Nach Erwerb eines Workshop Platzes ("Ticket") werden den Teilnehmenden ca. eine Woche vor Workshop-Beginn die Logindaten zum virtuellen Schulungsraum sowie Schulungsmaterialien per Mail zur Verfügung gestellt.


Der Workshop wird in deutscher Sprache durchgeführt. Die Teilnehmenden benötigen eigene PCs mit dem Betriebssystem ihrer Wahl und Internet-Anschluss zum Zugriff auf die Schulungsumgebung.

Sollte der Workshop aufgrund von Krankheit, höherer Gewalt oder zu wenig Anmeldungen nicht durchgeführt werden können, informieren wir die Teilnehmenden schnellstmöglich. Der Ticketpreis wird in dem Fall erstattet.

Für alle Coachings und auf persönliche Kompetenzen ausgelegten Trainings gilt:

Nach Buchung eines Coachings wird der Sitzungstermin mit demCoach individuell ausgemacht. Wir treten mit dem Teilnehmenden in Kontakt, um drei Wunschtermine zu erfragen und diese mit dem gebuchten Coach zu organisieren.

Die Sitzung kann in deutscher oder in englischer Sprache durchgeführt werden. Technische Voraussetzungen sind ein Live-Video-Stream in Bild und Ton fähiges Endgerät, ein Mikrofon und falls gewünscht eine Webcam. Wir empfehlen, während einer Sitzung eine stabile Internetverbindung oder ein WLAN zu nutzen.

Sollte der oder die Teilnehmende nicht an der Sitzung teilnehmen können, kann die Sitzung kostenlos auf einen Ausweichtermin verschoben werden. Hierzu benötigen wir proaktiv die Mitteilung, welcher Termin in Frage kommt.


Für alle E-Learning Kurse, die direkt in der Golem Karrierewelt bestellt wurden, gilt:

Die E-Learnings können bequem im Kundenbereich der Golem Karrierewelt im Rahmen der Bestellnummer eingesehen werden, oder unter: Meine E-Learning Kurse (nur gültig mit aktivem E-Learning und kostenlosem Golem Karrierewelt Kundenkonto) . Das E-Learning kann, wenn nicht anders im Produkt beschrieben, unbegrenzt abgerufen werden . WICHTIG: mit Kursstart erlischt das Widerrufsrecht. E-Learning nur in Verbindung mit Kundenkonto und der dem E-Learning zugeordneten Kauf-E-Mailadresse abrufbar.

Fragen zu einem Workshop, Coaching oder E-Learning? Bitte nutze unser Kontaktformular unter dem Tab "Stelle uns eine Frage". Wir melden uns umgehend bei dir.

Du hast eine Frage oder wünschst ein individuelles Angebot für deine Firma? Dann kontaktiere uns gerne:

IT-Schulungen.com / New Elements GmbH

Mit ihrem Portal IT-Schulungen.com gehört die New Elements GmbH zu den größeren Schulungsunternehmen in Deutschland. Der Fokus liegt auf fachlich hochwertigen Seminaren zu aktuellen IT-Themen. Die New Elements GmbH bietet mit über 750 erfahrenen Dozenten aus IT und Management ein breites Themengebiet an Schulungsthemen an.