<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="36493" language="de" source="https://portal.flane.ch/swisscom/xml-course/amazon-deaws" lastchanged="2026-04-17T10:32:34+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Data Engineering on AWS</title><productcode>DEAWS</productcode><vendorcode>AW</vendorcode><vendorname>Amazon Web Services</vendorname><fullproductcode>AW-DEAWS</fullproductcode><version>1.0</version><objective>&lt;p&gt;In diesem Kurs lernen Sie Folgendes:
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verstehen Sie die grundlegenden Rollen und Schl&amp;uuml;sselkonzepte des Data Engineering, einschliesslich Datenpers&amp;ouml;nlichkeiten, Datenermittlung und relevante AWS-Services.&lt;/li&gt;&lt;li&gt;Identifizieren und erl&amp;auml;utern Sie die verschiedenen AWS-Tools und -Services, die f&amp;uuml;r das Data Engineering von entscheidender Bedeutung sind, darunter Orchestrierung, Sicherheit, &amp;Uuml;berwachung, CI/CD, IaC, Netzwerke und Kostenoptimierung.&lt;/li&gt;&lt;li&gt;Entwerfen und implementieren Sie eine Data-Lake-L&amp;ouml;sung auf AWS, einschliesslich Speicherung, Datenaufnahme, Transformation und Bereitstellung von Daten f&amp;uuml;r die Nutzung.&lt;/li&gt;&lt;li&gt;Optimieren und sichern Sie eine Data-Lake-L&amp;ouml;sung durch die Implementierung offener Tabellenformate, Sicherheitsmassnahmen und die Behebung h&amp;auml;ufiger Probleme.&lt;/li&gt;&lt;li&gt;Entwerfen und richten Sie ein Data Warehouse mit Amazon Redshift Serverless ein und machen Sie sich mit dessen Architektur, Datenerfassung, Verarbeitung und Bereitstellungsfunktionen vertraut.&lt;/li&gt;&lt;li&gt;Wenden Sie Techniken zur Leistungsoptimierung auf Data Warehouses in Amazon Redshift an, darunter &amp;Uuml;berwachung, Datenoptimierung, Abfrageoptimierung und Orchestrierung.&lt;/li&gt;&lt;li&gt;Verwalten Sie die Sicherheit und Zugriffskontrolle f&amp;uuml;r Data Warehouses in Amazon Redshift und machen Sie sich mit Authentifizierung, Datensicherheit, Auditing und Compliance vertraut.&lt;/li&gt;&lt;li&gt;Entwerfen Sie effektive Batch-Datenpipelines unter Verwendung geeigneter AWS-Dienste f&amp;uuml;r die Verarbeitung und Transformation von Daten.&lt;/li&gt;&lt;li&gt;Implementieren Sie umfassende Strategien f&amp;uuml;r Batch-Datenpipelines, die die Datenverarbeitung, -transformation, -integration, -katalogisierung und -bereitstellung f&amp;uuml;r die Nutzung abdecken.&lt;/li&gt;&lt;li&gt;Optimieren, koordinieren und sichern Sie Batch-Datenpipelines und demonstrieren Sie dabei fortgeschrittene Kenntnisse in den Bereichen Datenverarbeitungsautomatisierung und -sicherheit.&lt;/li&gt;&lt;li&gt;Entwickeln Sie Streaming-Datenpipelines, verstehen Sie verschiedene Anwendungsf&amp;auml;lle, Erfassung, Speicherung, Verarbeitung und Analyse mithilfe von AWS-Diensten.&lt;/li&gt;&lt;li&gt;Optimierung und Sicherung von Streaming-Datenl&amp;ouml;sungen, einschliesslich Compliance-Aspekten und Zugriffskontrolle.&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;p&gt;Wir empfehlen, dass die Teilnehmer dieses Kurses &amp;uuml;ber folgende Voraussetzungen verf&amp;uuml;gen:
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens, wie beispielsweise &amp;uuml;berwachtes und un&amp;uuml;berwachtes Lernen, Regression, Klassifizierung und Clustering-Algorithmen.&lt;/li&gt;&lt;li&gt;Praktische Kenntnisse der Programmiersprache Python und g&amp;auml;ngiger Data-Science-Bibliotheken wie NumPy, Pandas und Scikit-learn.&lt;/li&gt;&lt;li&gt;Grundlegendes Verst&amp;auml;ndnis der Cloud-Computing-Konzepte und Vertrautheit mit der AWS-Plattform.&lt;/li&gt;&lt;li&gt;Kenntnisse in SQL und relationalen Datenbanken sind empfehlenswert, aber nicht zwingend erforderlich.&lt;/li&gt;&lt;li&gt;Erfahrung mit Versionskontrollsystemen wie Git ist von Vorteil, aber nicht erforderlich.&lt;/li&gt;&lt;/ul&gt;</essentials><audience>&lt;p&gt;Dieser Kurs richtet sich an Fachleute, die sich f&amp;uuml;r das Entwerfen, Erstellen, Optimieren und Sichern von Data-Engineering-L&amp;ouml;sungen unter Verwendung von AWS-Diensten interessieren.&lt;/p&gt;</audience><outline>&lt;h4&gt;Tag 1&lt;/h4&gt;&lt;p&gt;&lt;strong&gt;Modul 1: Aufgabenbereiche und Schl&amp;uuml;sselkonzepte im Bereich Data Engineering&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Rolle eines Dateningenieurs&lt;/li&gt;&lt;li&gt;Wichtige Aufgaben eines Dateningenieurs&lt;/li&gt;&lt;li&gt;Daten Personen&lt;/li&gt;&lt;li&gt;Datenermittlung&lt;/li&gt;&lt;li&gt;AWS-Datendienste&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Modul 2: AWS-Tools und -Services f&amp;uuml;r das Data Engineering&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Orchestrierung und Automatisierung&lt;/li&gt;&lt;li&gt;Sicherheit im Bereich Datenverarbeitung&lt;/li&gt;&lt;li&gt;&amp;Uuml;berwachung&lt;/li&gt;&lt;li&gt;Kontinuierliche Integration und kontinuierliche Bereitstellung&lt;/li&gt;&lt;li&gt;Infrastruktur als Code&lt;/li&gt;&lt;li&gt;AWS Serverless-Anwendungsmodell&lt;/li&gt;&lt;li&gt;&amp;Uuml;berlegungen zum Netzwerk&lt;/li&gt;&lt;li&gt;Kostenoptimierungstools&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Modul 3: Entwurf und Implementierung von Data Lakes&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Data Lakes&lt;/li&gt;&lt;li&gt;Datenspeicher&lt;/li&gt;&lt;li&gt;Daten in einen Data Lake einlesen&lt;/li&gt;&lt;li&gt;Katalogdaten&lt;/li&gt;&lt;li&gt;Daten transformieren&lt;/li&gt;&lt;li&gt;Serverdaten f&amp;uuml;r den Verbrauch&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Einrichten eines Data Lake auf AWS&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Modul 4: Optimierung und Sicherung einer Data-Lake-L&amp;ouml;sung&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Formate f&amp;uuml;r offene Tabellen&lt;/li&gt;&lt;li&gt;Sicherheit mit AWS Lake Formation&lt;/li&gt;&lt;li&gt;Festlegen von Berechtigungen mit Lake Formation&lt;/li&gt;&lt;li&gt;Sicherheit und Governance&lt;/li&gt;&lt;li&gt;Fehlerbehebung&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Automatisierung der Erstellung von Data Lakes mit AWS Lake Formation Blueprints&lt;/p&gt;
&lt;h4&gt;Tag 2&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Modul 5: Architektur und Gestaltungsprinzipien von Data Warehouses&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Data Warehouses&lt;/li&gt;&lt;li&gt;Amazon Redshift &amp;ndash; &amp;Uuml;bersicht&lt;/li&gt;&lt;li&gt;Daten in Redshift einlesen&lt;/li&gt;&lt;li&gt;Datenverarbeitung&lt;/li&gt;&lt;li&gt;Daten f&amp;uuml;r den Verbrauch bereitstellen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Einrichten eines Data Warehouse mit Amazon Redshift Serverless&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Modul 6: Techniken zur Leistungsoptimierung f&amp;uuml;r Data Warehouses&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berwachungs- und Optimierungsoptionen&lt;/li&gt;&lt;li&gt;Datenoptimierung in Amazon Redshift&lt;/li&gt;&lt;li&gt;Abfrageoptimierung in Amazon Redshift&lt;/li&gt;&lt;li&gt;Orchestrierungsoptionen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Modul 7: Sicherheit und Zugriffskontrolle f&amp;uuml;r Data Warehouses&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Authentifizierung und Zugriffskontrolle in Amazon Redshift&lt;/li&gt;&lt;li&gt;Datensicherheit in Amazon Redshift&lt;/li&gt;&lt;li&gt;Auditierung und Compliance in Amazon Redshift&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Verwaltung der Zugriffskontrolle in Redshift&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Modul 8: Entwerfen von Batch-Datenpipelines&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Batch-Datenpipelines&lt;/li&gt;&lt;li&gt;Entwurf einer Batch-Datenpipeline&lt;/li&gt;&lt;li&gt;AWS-Dienste f&amp;uuml;r die Stapelverarbeitung von Daten&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Modul 9: Implementierung von Strategien f&amp;uuml;r die Batch-Datenpipeline&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Elemente einer Batch-Datenpipeline&lt;/li&gt;&lt;li&gt;Verarbeitung und Umwandlung von Daten&lt;/li&gt;&lt;li&gt;Integration und Katalogisierung Ihrer Daten&lt;/li&gt;&lt;li&gt;Daten f&amp;uuml;r den Verbrauch bereitstellen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Ein Tag im Leben eines Dateningenieurs&lt;/p&gt;
&lt;h4&gt;Tag drei&lt;/h4&gt;&lt;p&gt;&lt;strong&gt;Modul 10: Optimierung, Orchestrierung und Sicherung von Batch-Datenpipelines&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Optimierung der Batch-Datenpipeline&lt;/li&gt;&lt;li&gt;Orchestrierung der Batch-Datenpipeline&lt;/li&gt;&lt;li&gt;Sicherung der Batch-Datenpipeline&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Orchestrierung der Datenverarbeitung in Spark mithilfe von AWS Step Functions&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Modul 11: Architekturmuster f&amp;uuml;r Streaming-Daten&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Streaming-Datenpipelines&lt;/li&gt;&lt;li&gt;Daten aus Stream-Quellen erfassen&lt;/li&gt;&lt;li&gt;Streaming-Datenaufnahmedienste&lt;/li&gt;&lt;li&gt;Speichern von Streaming-Daten&lt;/li&gt;&lt;li&gt;Verarbeitung von Streaming-Daten&lt;/li&gt;&lt;li&gt;Analyse von Streaming-Daten mit AWS-Services&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Streaming-Analysen mit Amazon Managed Service f&amp;uuml;r Apache Flink&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Modul 12: Optimierung und Sicherung von Streaming-L&amp;ouml;sungen&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Optimierung einer Streaming-Datenl&amp;ouml;sung&lt;/li&gt;&lt;li&gt;Sichern einer Streaming-Datenpipeline&lt;/li&gt;&lt;li&gt;Compliance-&amp;Uuml;berlegungen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;
Praktisches Labor: Zugriffskontrolle mit Amazon Managed Streaming f&amp;uuml;r Apache Kafka&lt;/p&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/amazon-deaws&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>In diesem Kurs lernen Sie Folgendes:



- Verstehen Sie die grundlegenden Rollen und Schlüsselkonzepte des Data Engineering, einschliesslich Datenpersönlichkeiten, Datenermittlung und relevante AWS-Services.
- Identifizieren und erläutern Sie die verschiedenen AWS-Tools und -Services, die für das Data Engineering von entscheidender Bedeutung sind, darunter Orchestrierung, Sicherheit, Überwachung, CI/CD, IaC, Netzwerke und Kostenoptimierung.
- Entwerfen und implementieren Sie eine Data-Lake-Lösung auf AWS, einschliesslich Speicherung, Datenaufnahme, Transformation und Bereitstellung von Daten für die Nutzung.
- Optimieren und sichern Sie eine Data-Lake-Lösung durch die Implementierung offener Tabellenformate, Sicherheitsmassnahmen und die Behebung häufiger Probleme.
- Entwerfen und richten Sie ein Data Warehouse mit Amazon Redshift Serverless ein und machen Sie sich mit dessen Architektur, Datenerfassung, Verarbeitung und Bereitstellungsfunktionen vertraut.
- Wenden Sie Techniken zur Leistungsoptimierung auf Data Warehouses in Amazon Redshift an, darunter Überwachung, Datenoptimierung, Abfrageoptimierung und Orchestrierung.
- Verwalten Sie die Sicherheit und Zugriffskontrolle für Data Warehouses in Amazon Redshift und machen Sie sich mit Authentifizierung, Datensicherheit, Auditing und Compliance vertraut.
- Entwerfen Sie effektive Batch-Datenpipelines unter Verwendung geeigneter AWS-Dienste für die Verarbeitung und Transformation von Daten.
- Implementieren Sie umfassende Strategien für Batch-Datenpipelines, die die Datenverarbeitung, -transformation, -integration, -katalogisierung und -bereitstellung für die Nutzung abdecken.
- Optimieren, koordinieren und sichern Sie Batch-Datenpipelines und demonstrieren Sie dabei fortgeschrittene Kenntnisse in den Bereichen Datenverarbeitungsautomatisierung und -sicherheit.
- Entwickeln Sie Streaming-Datenpipelines, verstehen Sie verschiedene Anwendungsfälle, Erfassung, Speicherung, Verarbeitung und Analyse mithilfe von AWS-Diensten.
- Optimierung und Sicherung von Streaming-Datenlösungen, einschliesslich Compliance-Aspekten und Zugriffskontrolle.</objective_plain><essentials_plain>Wir empfehlen, dass die Teilnehmer dieses Kurses über folgende Voraussetzungen verfügen:



- Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens, wie beispielsweise überwachtes und unüberwachtes Lernen, Regression, Klassifizierung und Clustering-Algorithmen.
- Praktische Kenntnisse der Programmiersprache Python und gängiger Data-Science-Bibliotheken wie NumPy, Pandas und Scikit-learn.
- Grundlegendes Verständnis der Cloud-Computing-Konzepte und Vertrautheit mit der AWS-Plattform.
- Kenntnisse in SQL und relationalen Datenbanken sind empfehlenswert, aber nicht zwingend erforderlich.
- Erfahrung mit Versionskontrollsystemen wie Git ist von Vorteil, aber nicht erforderlich.</essentials_plain><audience_plain>Dieser Kurs richtet sich an Fachleute, die sich für das Entwerfen, Erstellen, Optimieren und Sichern von Data-Engineering-Lösungen unter Verwendung von AWS-Diensten interessieren.</audience_plain><outline_plain>Tag 1

Modul 1: Aufgabenbereiche und Schlüsselkonzepte im Bereich Data Engineering



- Die Rolle eines Dateningenieurs
- Wichtige Aufgaben eines Dateningenieurs
- Daten Personen
- Datenermittlung
- AWS-Datendienste
Modul 2: AWS-Tools und -Services für das Data Engineering



- Orchestrierung und Automatisierung
- Sicherheit im Bereich Datenverarbeitung
- Überwachung
- Kontinuierliche Integration und kontinuierliche Bereitstellung
- Infrastruktur als Code
- AWS Serverless-Anwendungsmodell
- Überlegungen zum Netzwerk
- Kostenoptimierungstools
Modul 3: Entwurf und Implementierung von Data Lakes



- Einführung in Data Lakes
- Datenspeicher
- Daten in einen Data Lake einlesen
- Katalogdaten
- Daten transformieren
- Serverdaten für den Verbrauch

Praktisches Labor: Einrichten eines Data Lake auf AWS

Modul 4: Optimierung und Sicherung einer Data-Lake-Lösung



- Formate für offene Tabellen
- Sicherheit mit AWS Lake Formation
- Festlegen von Berechtigungen mit Lake Formation
- Sicherheit und Governance
- Fehlerbehebung

Praktisches Labor: Automatisierung der Erstellung von Data Lakes mit AWS Lake Formation Blueprints

Tag 2


Modul 5: Architektur und Gestaltungsprinzipien von Data Warehouses



- Einführung in Data Warehouses
- Amazon Redshift – Übersicht
- Daten in Redshift einlesen
- Datenverarbeitung
- Daten für den Verbrauch bereitstellen

Praktisches Labor: Einrichten eines Data Warehouse mit Amazon Redshift Serverless

Modul 6: Techniken zur Leistungsoptimierung für Data Warehouses



- Überwachungs- und Optimierungsoptionen
- Datenoptimierung in Amazon Redshift
- Abfrageoptimierung in Amazon Redshift
- Orchestrierungsoptionen
Modul 7: Sicherheit und Zugriffskontrolle für Data Warehouses



- Authentifizierung und Zugriffskontrolle in Amazon Redshift
- Datensicherheit in Amazon Redshift
- Auditierung und Compliance in Amazon Redshift

Praktisches Labor: Verwaltung der Zugriffskontrolle in Redshift

Modul 8: Entwerfen von Batch-Datenpipelines



- Einführung in Batch-Datenpipelines
- Entwurf einer Batch-Datenpipeline
- AWS-Dienste für die Stapelverarbeitung von Daten
Modul 9: Implementierung von Strategien für die Batch-Datenpipeline



- Elemente einer Batch-Datenpipeline
- Verarbeitung und Umwandlung von Daten
- Integration und Katalogisierung Ihrer Daten
- Daten für den Verbrauch bereitstellen

Praktisches Labor: Ein Tag im Leben eines Dateningenieurs

Tag drei

Modul 10: Optimierung, Orchestrierung und Sicherung von Batch-Datenpipelines



- Optimierung der Batch-Datenpipeline
- Orchestrierung der Batch-Datenpipeline
- Sicherung der Batch-Datenpipeline

Praktisches Labor: Orchestrierung der Datenverarbeitung in Spark mithilfe von AWS Step Functions

Modul 11: Architekturmuster für Streaming-Daten



- Einführung in Streaming-Datenpipelines
- Daten aus Stream-Quellen erfassen
- Streaming-Datenaufnahmedienste
- Speichern von Streaming-Daten
- Verarbeitung von Streaming-Daten
- Analyse von Streaming-Daten mit AWS-Services

Praktisches Labor: Streaming-Analysen mit Amazon Managed Service für Apache Flink

Modul 12: Optimierung und Sicherung von Streaming-Lösungen



- Optimierung einer Streaming-Datenlösung
- Sichern einer Streaming-Datenpipeline
- Compliance-Überlegungen

Praktisches Labor: Zugriffskontrolle mit Amazon Managed Streaming für Apache Kafka</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="3">3 Tage</duration><pricelist><price country="US" currency="USD">2025.00</price><price country="CA" currency="CAD">2795.00</price><price country="GB" currency="GBP">2655.00</price><price country="FR" currency="EUR">2550.00</price><price country="DE" currency="EUR">1995.00</price><price country="CH" currency="CHF">1995.00</price><price country="AT" currency="EUR">1995.00</price><price country="SE" currency="EUR">1995.00</price><price country="SI" currency="EUR">1995.00</price><price country="NL" currency="EUR">1995.00</price><price country="IT" currency="EUR">1650.00</price><price country="EG" currency="USD">1750.00</price></pricelist><miles/></course>