Data Engineering mit Apache Spark: virtueller Zwei-Tage-Workshop

1.650,00 EUR exkl. MwSt./USt
Regulärer Preis
1.963,50 EUR inkl. MwSt./USt.
Angebotspreis
1.963,50 EUR inkl. MwSt./USt.
Regulärer Preis
1.963,50 EUR
Ausverkauft
Stückpreis
per 

Datum 29.–30. November 2021

Uhrzeit 9:00–17:00

Format Virtuell

Eckdaten

Zielgruppe: ETL-Entwickler, Data Engineers, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Dr. Kaya Kupferschmidt, Dimajix | Ort: online | Teilnehmerzahl: 6-12

Seminarbeschreibung

Apache Spark hat sich im Data Engineering als Standard etabliert. Das Einladen, Transformieren und Abspeichern der Daten für nachgelagerte Aufgaben sind beim Machine Learning und im Analytics-Kontext unabdingbar. Aufgrund der vielfältigen Adapter zu verschiedensten Datenquellen, seiner flexiblen und erweiterbaren Transformationsmöglichkeiten und nicht zuletzt seiner sehr guten horizontalen Skalierbarkeit im Cluster ist Apache Spark hier das Werkzeug der Wahl.

Für Neulinge im Big Data-Bereich ist der Einstieg in Spark nicht ganz einfach, da ein Grundwissen über das gesamte Hadoop/Spark-Ökosystem unverzichtbar ist. Ist diese Hürde überwunden und hat man sich mit der nativen Programmiersprache von Apache Spark, Scala, angefreundet, wird man Apache Spark rasch als mächtiges Werkzeug zu schätzen lernen. Insbesondere für die Arbeit mit sehr großen Datenmengen, die andernfalls nur mühsam zu zähmen wären.

Der Workshop versetzt den Teilnehmer in die Lage, erste eigenständige Schritte mit Apache Spark zu gehen. Dabei wird auch auf die Positionierung von Apache Spark im Big Data Universum eingegangen, um die typischen Einsatzumgebungen kennenzulernen. Der Schwerpunkt der Schulung liegt auf Data Engineering, d.h. der Aufbereitung von Daten zur weiteren Verwendung.

Für die praktischen Übungen im Workshop erhält jeder Teilnehmer Zugang zu einem jeweils eigenen Hadoop/Spark-Cluster in der Cloud. Der Zugriff erfolgt per Web-Browser und gegebenenfalls per SSH.

Agenda der IT-Schulung

Tag 1 Vormittag

  • Einführung in die virtuelle Cloud-Umgebung
  • Schnelleinführung in Scala
  • Grundlagen Hadoop und verteilte Datenverarbeitung
  • Grundlegende Ideen und Konzepte von Apache Spark

Tag 1 Nachmittag

  • Erste Schritte mit Apache Spark
  • Transformieren, Filtern, Aggregieren, Gruppieren, Joins

Tag 2 Vormittag

  • Wiederholung Vortag
  • Längere Übung
  • SQL mit Apache Spark

Tag 2 Nachmittag

  • Überblick zu Hive und Integration in Spark
  • Grundgerüst einer Sparkapplikation
  • Start einer Sparkanwendung
  • Ausblick auf weitere Features wie Streaming und Machine Learning

Zielgruppe

Dieser Kurs richtet sich an Software-Entwickler, die mit Apache Spark arbeiten möchten, unter anderem ETL-Entwickler, Data Engineers und Data Scientists. Mit den präsentierten Inhalten hinsichtlich der Technologien und APIs eignet sich der Kurs hervorragend als Vorbereitung für erste Praxisaufgaben im Berufsalltag eines Big Data Engineers.

Eckdaten

Zielgruppe: ETL-Entwickler, Data Engineers, Data Scientists | Dauer 2 Tage | 9:00–17:00 Uhr | Trainer: Dr. Kaya Kupferschmidt, Dimajix | Ort: online | Teilnehmerzahl: 6-12

Seminarbeschreibung

Apache Spark hat sich im Data Engineering als Standard etabliert. Das Einladen, Transformieren und Abspeichern der Daten für nachgelagerte Aufgaben sind beim Machine Learning und im Analytics-Kontext unabdingbar. Aufgrund der vielfältigen Adapter zu verschiedensten Datenquellen, seiner flexiblen und erweiterbaren Transformationsmöglichkeiten und nicht zuletzt seiner sehr guten horizontalen Skalierbarkeit im Cluster ist Apache Spark hier das Werkzeug der Wahl.

Für Neulinge im Big Data-Bereich ist der Einstieg in Spark nicht ganz einfach, da ein Grundwissen über das gesamte Hadoop/Spark-Ökosystem unverzichtbar ist. Ist diese Hürde überwunden und hat man sich mit der nativen Programmiersprache von Apache Spark, Scala, angefreundet, wird man Apache Spark rasch als mächtiges Werkzeug zu schätzen lernen. Insbesondere für die Arbeit mit sehr großen Datenmengen, die andernfalls nur mühsam zu zähmen wären.

Der Workshop versetzt den Teilnehmer in die Lage, erste eigenständige Schritte mit Apache Spark zu gehen. Dabei wird auch auf die Positionierung von Apache Spark im Big Data Universum eingegangen, um die typischen Einsatzumgebungen kennenzulernen. Der Schwerpunkt der Schulung liegt auf Data Engineering, d.h. der Aufbereitung von Daten zur weiteren Verwendung.

Für die praktischen Übungen im Workshop erhält jeder Teilnehmer Zugang zu einem jeweils eigenen Hadoop/Spark-Cluster in der Cloud. Der Zugriff erfolgt per Web-Browser und gegebenenfalls per SSH.

Agenda der IT-Schulung

Tag 1 Vormittag

  • Einführung in die virtuelle Cloud-Umgebung
  • Schnelleinführung in Scala
  • Grundlagen Hadoop und verteilte Datenverarbeitung
  • Grundlegende Ideen und Konzepte von Apache Spark

Tag 1 Nachmittag

  • Erste Schritte mit Apache Spark
  • Transformieren, Filtern, Aggregieren, Gruppieren, Joins

Tag 2 Vormittag

  • Wiederholung Vortag
  • Längere Übung
  • SQL mit Apache Spark

Tag 2 Nachmittag

  • Überblick zu Hive und Integration in Spark
  • Grundgerüst einer Sparkapplikation
  • Start einer Sparkanwendung
  • Ausblick auf weitere Features wie Streaming und Machine Learning

Zielgruppe

Dieser Kurs richtet sich an Software-Entwickler, die mit Apache Spark arbeiten möchten, unter anderem ETL-Entwickler, Data Engineers und Data Scientists. Mit den präsentierten Inhalten hinsichtlich der Technologien und APIs eignet sich der Kurs hervorragend als Vorbereitung für erste Praxisaufgaben im Berufsalltag eines Big Data Engineers.

Für alle fachlichen Workshops und virtuellen Live-Kurse gilt:

Nach Erwerb eines Workshop Platzes ("Ticket") werden den Teilnehmenden ca. eine Woche vor Workshop-Beginn die Logindaten zum virtuellen Schulungsraum sowie Schulungsmaterialien per Mail zur Verfügung gestellt.


Der Workshop wird in deutscher Sprache durchgeführt. Die Teilnehmenden benötigen eigene PCs mit dem Betriebssystem ihrer Wahl und Internet-Anschluss zum Zugriff auf die Schulungsumgebung.

Sollte der Workshop aufgrund von Krankheit, höherer Gewalt oder zu wenig Anmeldungen nicht durchgeführt werden können, informieren wir die Teilnehmenden schnellstmöglich. Der Ticketpreis wird in dem Fall erstattet.

Für alle Coachings und auf persönliche Kompetenzen ausgelegten Trainings gilt:

Nach Buchung eines Coachings wird der Sitzungstermin mit Ihrem Coach individuell ausgemacht. Wir treten mit Ihnen in Kontakt, um Ihre Wunschtermine zu erfragen und diese mit dem gebuchten Coach zu organisieren.

Die Sitzung kann in deutscher oder in englischer Sprache durchgeführt werden. Technische Voraussetzungen sind ein Live-Video-Stream in Bild und Ton fähiges Endgerät, ein Mikrofon und falls gewünscht eine Webcam. Wir empfehlen, während einer Sitzung eine stabile Internetverbindung oder ein WLAN zu nutzen.

Sollten Sie an der Sitzung nicht teilnehmen können, können Sie die Sitzung kostenlos auf einen Ausweichtermin verschieben.


Für alle E-Learning Kurse unseres Partners Shop Hackers gilt:

Achtung: alle E-Learning Kurse von Shop Hacker sind englischsprachig und vorgefertigt. Weitere Infos findest du in der jeweiligen Produktbeschreibung. Bitte prüfe nach deinem Einkauf dein Postfach (evtl. Spam) und registriere dich für deinen E-Learning Kurs. Solltest du einen weiteren Kurs bei uns einkaufen, wird dir dieser in deinem Academy Hacker Konto hinterlegt. WICHTIG: mit Kursstart erlischt das Widerrufsrecht. 

Du hast eine Frage oder wünschst ein individuelles Angebot für deine Firma? Dann kontaktiere uns gerne:

Dr. Kaya Kupferschmidt

trainer-foto

Dr. Kaya Kupferschmidt hat vor zehn Jahren mit der Hadoop Version 0.22.0 seinen Einstieg in die Big Data-Welt genommen. Seitdem arbeitet er als unabhängiger Experte für zahlreiche Unternehmen an der Verarbeitung und Analyse großer Datenmengen, vorzugsweise mit Apache Spark. Seit einigen Jahren führt er Workshops im Themenfeld Data Engineering und Machine Learning durch.