Microsoft Azure Data Engineering: Data Factory, Synapse & Co – virtueller Zwei-Tage-Workshop

Data Engineering mit Python und Spark: virtueller Zwei-Tage-Workshop - Golem Karrierewelt
Data Engineering mit Python und Spark: virtueller Zwei-Tage-Workshop - Golem Karrierewelt

Eckdaten

Zielgruppe: IT-Entwickler, Datenbankentwickler, Datenanalysten, Datenarchitekten, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Mario Meir-Huber | Ort: Remote | Teilnehmerzahl: 6-12 Personen

Seminarbeschreibung

Moderne Datenprodukte sind das Rückgrat datengetriebener Unternehmen – und Microsoft Azure bietet alle Werkzeuge, um diese professionell und skalierbar umzusetzen. Mit Diensten wie Azure Data Factory, Synapse, Databricks und dbt lassen sich komplexe Datenprozesse modellieren, transformieren und für Analytics, AI und Business Intelligence bereitstellen.

In diesem praxisorientierten Seminar lernen die Teilnehmer Schritt für Schritt, wie man mit der Microsoft Azure Plattform erfolgreiche Datenprodukte entwickelt – von der Datenanbindung über die Transformation bis hin zur Nutzung in Data Science- und AI-Szenarien. Der Fokus liegt auf wiederverwendbaren Architekturen, effizienter Modellierung und der Umsetzung nach Best Practices.

Von der initialen Datenaufnahme mittels Change Data Capture und Batch-Ingestion über Transformationen im Rahmen der Medaillon-Architektur bis zur Datenverwendung mit Azure AI und Governance-Tools: Alle Komponenten werden anhand realitätsnaher Use Cases vermittelt, live demonstriert und mit Hands-on-Übungen vertieft. Ziel ist ein umfassendes Verständnis für produktionsreifes Data Engineering auf Azure.

Die Schulung findet über eine Videokonferenzplattform statt und wird in deutscher Sprache abgehalten. Die Unterlagen sind ebenfalls auf Deutsch, Fachbegriffe erscheinen teilweise in englischer Originalform. Alle technischen Zugänge und Materialien werden vorab per E-Mail zur Verfügung gestellt. Nach erfolgreicher Teilnahme erhalten die Teilnehmenden ein Zertifikat, das die erfolgreiche Kursteilnahme bestätigt.

Agenda der IT-Schulung

Von der Idee bis zur Datenverarbeitung

Begrüßung & Überblick

  • Einführung: Was sind Datenprodukte?
  • Rolle von Data Engineering im Produktlebenszyklus

Grundlagen & Architekturen für Datenprodukte

  • Datenmanagement: Bestandteile und Arbeitsaufläufe
  • Azure-Komponenten für Data Engineering
  • Architekturmuster (z. B. Domain-Driven Design, Data Mesh, Medaillon-Architektur, Event Driven Architecture)

Data Ingest – Wege von der Quelle nach Azure

  • Batch vs. Streaming. Outbox Pattern
  • Übersicht zu Azure Data Factory, Event Hubs
  • Einführung in Change Data Capture (CDC)
  • Einführung in Batch Ingestion mit DAGs (Airflow, ADF Data Flows)

Hands-on: Data Ingestion mit Azure

  • Daten aus SQL, APIs und Filesystemen laden
  • CDC am Beispiel mit SQL Server oder PostgreSQL
  • Orchestrierung mit Data Factory / Synapse

Datenverarbeitung – Grundlagen

  • Übersicht: Azure Databricks, Synapse, Data Lake,
  • Einführung in Transformationen mit PySpark
  • Erste Schritte mit dbt auf Azure

Transformation, Modellierung & Verwendung von Datenprodukten

Modellierung & Medaillon-Architektur

  • Bronze, Silver, Gold Layer in Azure
  • Data Contracts & Quality Gates
  • Modellierung: Star Schema, Kimball, Data Vault

Hands-on: Transformationen & Modellierung

  • Umsetzung von Transformationen in dbt oder Notebooks
  • Aufbau der Medaillon-Struktur mit Delta Lake
  • Validierung & Dokumentation von Transformationen

Datenverwendung – Mehrwert aus Datenprodukten ziehen

  • Azure AI Services & Azure Machine Learning (Überblick)
  • Notebooks & Power BI für Business User
  • Governance & Katalogisierung: Microsoft Purview
  • Zugriffskonzepte & Security-Rollen

Hands-on: Daten nutzen & dokumentieren

  • Analyse & Visualisierung mit Power BI / Synapse
  • Klassifikation & Katalogisierung von Daten
  • Data Lineage nachvollziehen

    KPIs

    • Datenprodukte richtig verstehen: Praxisnahes Verständnis von Aufbau, Architektur und Nutzen moderner Datenprodukte
    • Datenanbindung meistern: Verschiedene Ingestionsmethoden wie Change Data Capture und Batch-DAGs eigenständig anwenden
    • Transformation und Modellierung beherrschen: Einsatz von dbt, PySpark und Medaillon-Architektur für strukturierte Datenverarbeitung
    • Plattformkompetenz aufbauen: Sicherer Umgang mit zentralen Azure-Diensten wie Data Factory, Synapse und Databricks
    • AI & Governance kennenlernen: Überblick über Azure AI, Machine Learning und Purview zur ganzheitlichen Datenverwendung
    • Selbstständigkeit fördern: Zielbild eines produktionsreifen Datenprodukts von der Quelle bis zur Nutzung verstehen
    • Inspiration schaffen: Eigene Datenprodukte und Anwendungsfälle identifizieren und umsetzen

    Voraussetzungen

    Vorausgesetzt wird grundlegende Erfahrung mit Datenverarbeitung, SQL und Cloud-Diensten. Programmierkenntnisse (z. B. in Python oder SQL) sowie ein technisches Grundverständnis im Umgang mit Datenplattformen sind von Vorteil.

    Dozent

    Mario Meir-Huber ist seit mehr als einem Jahrzehnt in den Bereichen Big Data, Data Analytics und Data Engineering tätig. Er hatte in führenden Unternehmen (Microsoft, A1 Telekom, UNIQA) leitende Positionen im Bereich Data Management inne. Daneben schreibt er Blogbeiträge und Artikel für Golem.de.

    Mario hat langjährige Schulungserfahrung als Trainer zahlreicher IT-Workshops. Außerdem ist er Co-Autor des "Data Science Handbook" und regelmäßiger Referent auf internationalen Konferenzen zum Thema.

    Ab 4 Teilnehmern: Gruppenrabatt sichern

    Bei Buchung 15% sparen: statt 1.800,00 € 1.530,00 € pro Teilnehmer (zzg. MwSt./USt.)

    Customer Reviews

    Be the first to write a review
    0%
    (0)
    0%
    (0)
    0%
    (0)
    0%
    (0)
    0%
    (0)
    Datum
    Uhrzeit
    Format

    2.142,00 EUR inkl. MwSt./USt
    1.800,00 EUR zzgl. MwSt./USt.