Produktionsreifes Data Engineering mit Azure

Von Change Data Capture bis Power BI: Dieser praxisorientierte Azure-Workshop vermittelt alles, was für die Entwicklung moderner Datenprodukte auf Basis von Microsoft Azure erforderlich ist.
Microsoft Azure bietet leistungsfähige Werkzeuge für alle Phasen datengetriebener Projekte – von der Datenaufnahme über die Transformation bis zur Nutzung für Analyse, Machine Learning und Business Intelligence. Damit werden aus reinen Datensätzen produktionsreife Datenprodukte, die in Unternehmen zum zentralen Baustein moderner Wertschöpfungsketten werden.
Data Engineering mit Azure – von der Quelle bis zur Auswertung
Im zweitägigen Online-Workshop "Microsoft Azure Data Engineering: Data Factory, Synapse & Co" am 23. und 24. September 2025 (weiterer Termin: 18. und 19. November 2025) zeigt Data-Science-Experte Mario Meir-Huber, wie auf der Microsoft Azure Plattform skalierbare, wiederverwendbare und belastbare Datenprodukte entstehen.
Weitere Informationen:
Der Kurs beginnt mit einer Einführung in den Lebenszyklus datengetriebener Produkte und der Rolle von Data Engineering. Anschließend werden zentrale Azure-Dienste wie Data Factory, Synapse, Databricks und dbt praxisnah eingeführt und in konkreten Use Cases angewendet.
Ein besonderer Fokus liegt dabei auf der Umsetzung gängiger Architekturen wie der Medaillon-Struktur (Bronze-Silver-Gold), der Orchestrierung mit Data Flows, der Integration von Change Data Capture (CDC) sowie der Transformation strukturierter Daten mit PySpark und dbt. Auch die Visualisierung mit Power BI und das Datenmanagement mit Microsoft Purview sind Bestandteil des Workshops.
Vom Konzept zur produktionsreifen Datenplattform
Teilnehmer lernen, wie sie Daten aus unterschiedlichen Quellen – SQL, APIs, Dateisystemen – effizient anbinden, transformieren und für Analyse- oder Machine-Learning-Anwendungen verfügbar machen. Die Umsetzung erfolgt anhand realistischer Szenarien mit Fokus auf Hands-on-Übungen, Codebeispielen und Livedemonstrationen.
Dabei kommen gängige Werkzeuge wie Data Factory Pipelines, Delta Lake, dbt, PySpark und Azure Synapse zum Einsatz. Ziel ist ein vollständiges Verständnis darüber, wie moderne Datenprodukte im Cloud-Umfeld entworfen, modelliert, betrieben und abgesichert werden – inklusive Governance-Aspekten wie Datenkatalogisierung, Rollenmanagement und Data Lineage.
Der Kurs wird online und in deutscher Sprache durchgeführt. Absolventen erhalten im Anschluss ein Zertifikat, das ihre hinzugewonnenen Kenntnisse bestätigt.
Bild: Freepik.com
Wer vor dem Kauf unseren kostenlosen Newsletter abonniert, erhält 10 Prozent Rabatt auf die erste Bestellung:
Weitere Data-Science-Trainings:
Weitere Angebote gibt es in der Trainingssuche der Golem Karrierewelt.