Eckdaten
Zielgruppe: IT-Entwickler, Datenbankentwickler, Datenanalysten, Datenarchitekten, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Mario Meir-Huber | Ort: Remote | Teilnehmerzahl: 6-12 Personen
Seminarbeschreibung
Moderne Datenprodukte sind das Rückgrat datengetriebener Unternehmen – und Microsoft Azure bietet alle Werkzeuge, um diese professionell und skalierbar umzusetzen. Mit Diensten wie Azure Data Factory, Synapse, Databricks und dbt lassen sich komplexe Datenprozesse modellieren, transformieren und für Analytics, AI und Business Intelligence bereitstellen.
In diesem praxisorientierten Seminar lernen die Teilnehmer Schritt für Schritt, wie man mit der Microsoft Azure Plattform erfolgreiche Datenprodukte entwickelt – von der Datenanbindung über die Transformation bis hin zur Nutzung in Data Science- und AI-Szenarien. Der Fokus liegt auf wiederverwendbaren Architekturen, effizienter Modellierung und der Umsetzung nach Best Practices.
Von der initialen Datenaufnahme mittels Change Data Capture und Batch-Ingestion über Transformationen im Rahmen der Medaillon-Architektur bis zur Datenverwendung mit Azure AI und Governance-Tools: Alle Komponenten werden anhand realitätsnaher Use Cases vermittelt, live demonstriert und mit Hands-on-Übungen vertieft. Ziel ist ein umfassendes Verständnis für produktionsreifes Data Engineering auf Azure.
Die Schulung findet über eine Videokonferenzplattform statt und wird in deutscher Sprache abgehalten. Die Unterlagen sind ebenfalls auf Deutsch, Fachbegriffe erscheinen teilweise in englischer Originalform. Alle technischen Zugänge und Materialien werden vorab per E-Mail zur Verfügung gestellt. Nach erfolgreicher Teilnahme erhalten die Teilnehmenden ein Zertifikat, das die erfolgreiche Kursteilnahme bestätigt.
Agenda der IT-Schulung
Von der Idee bis zur Datenverarbeitung
Begrüßung & Überblick
- Einführung: Was sind Datenprodukte?
- Rolle von Data Engineering im Produktlebenszyklus
Grundlagen & Architekturen für Datenprodukte
- Datenmanagement: Bestandteile und Arbeitsaufläufe
- Azure-Komponenten für Data Engineering
- Architekturmuster (z. B. Domain-Driven Design, Data Mesh, Medaillon-Architektur, Event Driven Architecture)
Data Ingest – Wege von der Quelle nach Azure
- Batch vs. Streaming. Outbox Pattern
- Übersicht zu Azure Data Factory, Event Hubs
- Einführung in Change Data Capture (CDC)
- Einführung in Batch Ingestion mit DAGs (Airflow, ADF Data Flows)
Hands-on: Data Ingestion mit Azure
- Daten aus SQL, APIs und Filesystemen laden
- CDC am Beispiel mit SQL Server oder PostgreSQL
- Orchestrierung mit Data Factory / Synapse
Datenverarbeitung – Grundlagen
- Übersicht: Azure Databricks, Synapse, Data Lake,
- Einführung in Transformationen mit PySpark
- Erste Schritte mit dbt auf Azure
Transformation, Modellierung & Verwendung von Datenprodukten
Modellierung & Medaillon-Architektur
- Bronze, Silver, Gold Layer in Azure
- Data Contracts & Quality Gates
- Modellierung: Star Schema, Kimball, Data Vault
Hands-on: Transformationen & Modellierung
- Umsetzung von Transformationen in dbt oder Notebooks
- Aufbau der Medaillon-Struktur mit Delta Lake
- Validierung & Dokumentation von Transformationen
Datenverwendung – Mehrwert aus Datenprodukten ziehen
- Azure AI Services & Azure Machine Learning (Überblick)
- Notebooks & Power BI für Business User
- Governance & Katalogisierung: Microsoft Purview
- Zugriffskonzepte & Security-Rollen
Hands-on: Daten nutzen & dokumentieren
- Analyse & Visualisierung mit Power BI / Synapse
- Klassifikation & Katalogisierung von Daten
- Data Lineage nachvollziehen
-
KPIs
- Datenprodukte richtig verstehen: Praxisnahes Verständnis von Aufbau, Architektur und Nutzen moderner Datenprodukte
- Datenanbindung meistern: Verschiedene Ingestionsmethoden wie Change Data Capture und Batch-DAGs eigenständig anwenden
- Transformation und Modellierung beherrschen: Einsatz von dbt, PySpark und Medaillon-Architektur für strukturierte Datenverarbeitung
- Plattformkompetenz aufbauen: Sicherer Umgang mit zentralen Azure-Diensten wie Data Factory, Synapse und Databricks
- AI & Governance kennenlernen: Überblick über Azure AI, Machine Learning und Purview zur ganzheitlichen Datenverwendung
- Selbstständigkeit fördern: Zielbild eines produktionsreifen Datenprodukts von der Quelle bis zur Nutzung verstehen
- Inspiration schaffen: Eigene Datenprodukte und Anwendungsfälle identifizieren und umsetzen
Voraussetzungen
Vorausgesetzt wird grundlegende Erfahrung mit Datenverarbeitung, SQL und Cloud-Diensten. Programmierkenntnisse (z. B. in Python oder SQL) sowie ein technisches Grundverständnis im Umgang mit Datenplattformen sind von Vorteil.