Data Engineering mit Python und Spark: virtueller Zwei-Tage-Workshop

1.785,00 EUR inkl. MwSt./USt
Regulärer Preis
1.500,00 EUR zzgl. MwSt./USt.
Angebotspreis
1.500,00 EUR zzgl. MwSt./USt.
Regulärer Preis
1.600,00 EUR
Derzeit nicht verfügbar
Stückpreis
per 

Datum 18.–19. Januar 2023

Uhrzeit 9:00–17:00

Format Virtuell

Eckdaten

Zielgruppe: Data Analysts, Softwareentwickler, Datenbankentwickler, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Mario Meir-Huber | Ort: Remote | Teilnehmerzahl: 6-12 Personen

Seminarbeschreibung

Der Kurs bietet eine umfassende Einführung in Big Data-Technologien. Im Fokus steht Apache Spark, das meistverwendete Framework für Datenverarbeitung. Der Referent  liefert zahlreiche anschauliche Beispiele aus seiner jahrzehntelange Berufspraxis in leitenden Positionen im Datenmanagement. Als Skriptsprache wird Python genutzt. Umfangreiche Labs und Aufgaben stellen den praxisnahen Bezug des Seminars sicher.

Die Schulung wird mit einem gängigen Online-Conferencing-System durchgeführt. Alle wichtigen Informationen zur Durchführung erhalten die Teilnehmer vorab per Mail. Der Workshop wird in deutscher Sprache durchgeführt.

Agenda der IT-Schulung

Einführung in Data Engineering & Modernen Datentechnologien

  • Verteilung, CAP Theorem, ACID vs. BASE als Grundlagen
  • Überblick verteilte Dateisysteme
  • Überblick LAB-Environment (Juypter in Docker) für Kurs

Einführung in Python für Daten

  • Wichtigste Grundlagen (Kontrollstrukturen, Fehlerbehandlung, Decorators, Klassen, Async, Logging, …
  • Python Labs (Beispiele und Aufgaben)

Einführung in Apache Spark

  • Überblick Apache Spark
  • RDDs in Spark: Grundlagen von Daten in Spark
  • Dataframes in Spark: High-Level Datenbehandlung in Spark

 Labs

  • Umfangreiche Abrundung des ersten Tages mit Lab Beispielen und Aufgaben

Weitere Möglichkeiten von Data Engineering in Python

  • Pandas und Anaconda in Python
  • NumPy und MathLibPlot

Einführung in Data Science mit Apache Spark

  • Grundlagen von Data Science
  • Möglichkeiten von Data Science mit Apache Spark

Überblick Cloud Technologien für Spark

  • AWS: Elastic Map Reduce (EMR)
  • Azure: Azure Synapse, Azure Databricks
  • Google BigQuery

Labs

  • Umfangreiche Abrundung des zweiten Tages mit Lab Beispielen und Aufgaben

KPIs

  • Einblick in Apache Spark
  • Nutzung von Python als Programmiersprache
  • Einblick in AWS und Azure
  • Einblick in Objektdatenbanken (Amazon S3, Azure Blob, ADLS)
  • Architekturen für Data Engineering und Data Science

Voraussetzungen

  • Allgemeine Programmierkenntnisse (Python nicht notwendig)
  • Allgemeine Datenbankkenntnisse
  • Allgemeine Cloud-Kenntnisse

Eckdaten

Zielgruppe: Data Analysts, Softwareentwickler, Datenbankentwickler, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Mario Meir-Huber | Ort: Remote | Teilnehmerzahl: 6-12 Personen

Seminarbeschreibung

Der Kurs bietet eine umfassende Einführung in Big Data-Technologien. Im Fokus steht Apache Spark, das meistverwendete Framework für Datenverarbeitung. Der Referent  liefert zahlreiche anschauliche Beispiele aus seiner jahrzehntelange Berufspraxis in leitenden Positionen im Datenmanagement. Als Skriptsprache wird Python genutzt. Umfangreiche Labs und Aufgaben stellen den praxisnahen Bezug des Seminars sicher.

Die Schulung wird mit einem gängigen Online-Conferencing-System durchgeführt. Alle wichtigen Informationen zur Durchführung erhalten die Teilnehmer vorab per Mail. Der Workshop wird in deutscher Sprache durchgeführt.

Agenda der IT-Schulung

Einführung in Data Engineering & Modernen Datentechnologien

  • Verteilung, CAP Theorem, ACID vs. BASE als Grundlagen
  • Überblick verteilte Dateisysteme
  • Überblick LAB-Environment (Juypter in Docker) für Kurs

Einführung in Python für Daten

  • Wichtigste Grundlagen (Kontrollstrukturen, Fehlerbehandlung, Decorators, Klassen, Async, Logging, …
  • Python Labs (Beispiele und Aufgaben)

Einführung in Apache Spark

  • Überblick Apache Spark
  • RDDs in Spark: Grundlagen von Daten in Spark
  • Dataframes in Spark: High-Level Datenbehandlung in Spark

 Labs

  • Umfangreiche Abrundung des ersten Tages mit Lab Beispielen und Aufgaben

Weitere Möglichkeiten von Data Engineering in Python

  • Pandas und Anaconda in Python
  • NumPy und MathLibPlot

Einführung in Data Science mit Apache Spark

  • Grundlagen von Data Science
  • Möglichkeiten von Data Science mit Apache Spark

Überblick Cloud Technologien für Spark

  • AWS: Elastic Map Reduce (EMR)
  • Azure: Azure Synapse, Azure Databricks
  • Google BigQuery

Labs

  • Umfangreiche Abrundung des zweiten Tages mit Lab Beispielen und Aufgaben

KPIs

  • Einblick in Apache Spark
  • Nutzung von Python als Programmiersprache
  • Einblick in AWS und Azure
  • Einblick in Objektdatenbanken (Amazon S3, Azure Blob, ADLS)
  • Architekturen für Data Engineering und Data Science

Voraussetzungen

  • Allgemeine Programmierkenntnisse (Python nicht notwendig)
  • Allgemeine Datenbankkenntnisse
  • Allgemeine Cloud-Kenntnisse

Für alle fachlichen Workshops und virtuellen Live-Kurse gilt:

Nach Erwerb eines Workshop Platzes ("Ticket") werden den Teilnehmenden ca. eine Woche vor Workshop-Beginn die Logindaten zum virtuellen Schulungsraum sowie Schulungsmaterialien per Mail zur Verfügung gestellt.


Der Workshop wird in deutscher Sprache durchgeführt. Die Teilnehmenden benötigen eigene PCs mit dem Betriebssystem ihrer Wahl und Internet-Anschluss zum Zugriff auf die Schulungsumgebung.

Sollte der Workshop aufgrund von Krankheit, höherer Gewalt oder zu wenig Anmeldungen nicht durchgeführt werden können, informieren wir die Teilnehmenden schnellstmöglich. Der Ticketpreis wird in dem Fall erstattet.

Für alle Coachings und auf persönliche Kompetenzen ausgelegten Trainings gilt:

Nach Buchung eines Coachings wird der Sitzungstermin mit demCoach individuell ausgemacht. Wir treten mit dem Teilnehmenden in Kontakt, um drei Wunschtermine zu erfragen und diese mit dem gebuchten Coach zu organisieren.

Die Sitzung kann in deutscher oder in englischer Sprache durchgeführt werden. Technische Voraussetzungen sind ein Live-Video-Stream in Bild und Ton fähiges Endgerät, ein Mikrofon und falls gewünscht eine Webcam. Wir empfehlen, während einer Sitzung eine stabile Internetverbindung oder ein WLAN zu nutzen.

Sollte der oder die Teilnehmende nicht an der Sitzung teilnehmen können, kann die Sitzung kostenlos auf einen Ausweichtermin verschoben werden. Hierzu benötigen wir proaktiv die Mitteilung, welcher Termin in Frage kommt.


Für alle E-Learning Kurse, die direkt in der Golem Karrierewelt bestellt wurden, gilt:

Die E-Learnings können bequem im Kundenbereich der Golem Karrierewelt im Rahmen der Bestellnummer eingesehen werden, oder unter: Meine E-Learning Kurse (nur gültig mit aktivem E-Learning und kostenlosem Golem Karrierewelt Kundenkonto) . Das E-Learning kann, wenn nicht anders im Produkt beschrieben, unbegrenzt abgerufen werden . WICHTIG: mit Kursstart erlischt das Widerrufsrecht. E-Learning nur in Verbindung mit Kundenkonto und der dem E-Learning zugeordneten Kauf-E-Mailadresse abrufbar.

Fragen zu einem Workshop, Coaching oder E-Learning? Bitte nutze unser Kontaktformular unter dem Tab "Stelle uns eine Frage". Wir melden uns umgehend bei dir.

Du hast eine Frage oder wünschst ein individuelles Angebot für deine Firma? Dann kontaktiere uns gerne:

Mario Meir-Huber

Mario Meir-Huber ist seit mehr als einem Jahrzehnt in den Bereichen Big Data, Data Analytics und Data Engineering tätig. Er hatte in führenden Unternehmen (Microsoft, A1 Telekom, UNIQA) leitende Positionen im Bereich Data Management inne. Daneben schreibt er Blogbeiträge und Artikel für Golem.de.

Mario hat langjährige Schulungserfahrung als Trainer zahlreicher IT-Workshops. Außerdem ist er Co-Autor des "Data Science Handbook" und regelmäßiger Referent auf internationalen Konferenzen zum Thema.