{"course":{"productid":36493,"modality":1,"active":true,"language":"de","title":"Data Engineering on AWS","productcode":"DEAWS","vendorcode":"AW","vendorname":"Amazon Web Services","fullproductcode":"AW-DEAWS","courseware":{"has_ekit":true,"has_printkit":false,"language":""},"url":"https:\/\/portal.flane.ch\/course\/amazon-deaws","objective":"<p>In diesem Kurs lernen Sie Folgendes:\n<\/p>\n<ul>\n<li>Verstehen Sie die grundlegenden Rollen und Schl&uuml;sselkonzepte des Data Engineering, einschliesslich Datenpers&ouml;nlichkeiten, Datenermittlung und relevante AWS-Services.<\/li><li>Identifizieren und erl&auml;utern Sie die verschiedenen AWS-Tools und -Services, die f&uuml;r das Data Engineering von entscheidender Bedeutung sind, darunter Orchestrierung, Sicherheit, &Uuml;berwachung, CI\/CD, IaC, Netzwerke und Kostenoptimierung.<\/li><li>Entwerfen und implementieren Sie eine Data-Lake-L&ouml;sung auf AWS, einschliesslich Speicherung, Datenaufnahme, Transformation und Bereitstellung von Daten f&uuml;r die Nutzung.<\/li><li>Optimieren und sichern Sie eine Data-Lake-L&ouml;sung durch die Implementierung offener Tabellenformate, Sicherheitsmassnahmen und die Behebung h&auml;ufiger Probleme.<\/li><li>Entwerfen und richten Sie ein Data Warehouse mit Amazon Redshift Serverless ein und machen Sie sich mit dessen Architektur, Datenerfassung, Verarbeitung und Bereitstellungsfunktionen vertraut.<\/li><li>Wenden Sie Techniken zur Leistungsoptimierung auf Data Warehouses in Amazon Redshift an, darunter &Uuml;berwachung, Datenoptimierung, Abfrageoptimierung und Orchestrierung.<\/li><li>Verwalten Sie die Sicherheit und Zugriffskontrolle f&uuml;r Data Warehouses in Amazon Redshift und machen Sie sich mit Authentifizierung, Datensicherheit, Auditing und Compliance vertraut.<\/li><li>Entwerfen Sie effektive Batch-Datenpipelines unter Verwendung geeigneter AWS-Dienste f&uuml;r die Verarbeitung und Transformation von Daten.<\/li><li>Implementieren Sie umfassende Strategien f&uuml;r Batch-Datenpipelines, die die Datenverarbeitung, -transformation, -integration, -katalogisierung und -bereitstellung f&uuml;r die Nutzung abdecken.<\/li><li>Optimieren, koordinieren und sichern Sie Batch-Datenpipelines und demonstrieren Sie dabei fortgeschrittene Kenntnisse in den Bereichen Datenverarbeitungsautomatisierung und -sicherheit.<\/li><li>Entwickeln Sie Streaming-Datenpipelines, verstehen Sie verschiedene Anwendungsf&auml;lle, Erfassung, Speicherung, Verarbeitung und Analyse mithilfe von AWS-Diensten.<\/li><li>Optimierung und Sicherung von Streaming-Datenl&ouml;sungen, einschliesslich Compliance-Aspekten und Zugriffskontrolle.<\/li><\/ul>","essentials":"<p>Wir empfehlen, dass die Teilnehmer dieses Kurses &uuml;ber folgende Voraussetzungen verf&uuml;gen:\n<\/p>\n<ul>\n<li>Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens, wie beispielsweise &uuml;berwachtes und un&uuml;berwachtes Lernen, Regression, Klassifizierung und Clustering-Algorithmen.<\/li><li>Praktische Kenntnisse der Programmiersprache Python und g&auml;ngiger Data-Science-Bibliotheken wie NumPy, Pandas und Scikit-learn.<\/li><li>Grundlegendes Verst&auml;ndnis der Cloud-Computing-Konzepte und Vertrautheit mit der AWS-Plattform.<\/li><li>Kenntnisse in SQL und relationalen Datenbanken sind empfehlenswert, aber nicht zwingend erforderlich.<\/li><li>Erfahrung mit Versionskontrollsystemen wie Git ist von Vorteil, aber nicht erforderlich.<\/li><\/ul>","audience":"<p>Dieser Kurs richtet sich an Fachleute, die sich f&uuml;r das Entwerfen, Erstellen, Optimieren und Sichern von Data-Engineering-L&ouml;sungen unter Verwendung von AWS-Diensten interessieren.<\/p>","outline":"<h4>Tag 1<\/h4><p><strong>Modul 1: Aufgabenbereiche und Schl&uuml;sselkonzepte im Bereich Data Engineering<\/strong>\n<\/p>\n<ul>\n<li>Die Rolle eines Dateningenieurs<\/li><li>Wichtige Aufgaben eines Dateningenieurs<\/li><li>Daten Personen<\/li><li>Datenermittlung<\/li><li>AWS-Datendienste<\/li><\/ul><p><strong>Modul 2: AWS-Tools und -Services f&uuml;r das Data Engineering<\/strong>\n<\/p>\n<ul>\n<li>Orchestrierung und Automatisierung<\/li><li>Sicherheit im Bereich Datenverarbeitung<\/li><li>&Uuml;berwachung<\/li><li>Kontinuierliche Integration und kontinuierliche Bereitstellung<\/li><li>Infrastruktur als Code<\/li><li>AWS Serverless-Anwendungsmodell<\/li><li>&Uuml;berlegungen zum Netzwerk<\/li><li>Kostenoptimierungstools<\/li><\/ul><p><strong>Modul 3: Entwurf und Implementierung von Data Lakes<\/strong>\n<\/p>\n<ul>\n<li>Einf&uuml;hrung in Data Lakes<\/li><li>Datenspeicher<\/li><li>Daten in einen Data Lake einlesen<\/li><li>Katalogdaten<\/li><li>Daten transformieren<\/li><li>Serverdaten f&uuml;r den Verbrauch<\/li><\/ul><p>\nPraktisches Labor: Einrichten eines Data Lake auf AWS<\/p>\n<p><strong>Modul 4: Optimierung und Sicherung einer Data-Lake-L&ouml;sung<\/strong>\n<\/p>\n<ul>\n<li>Formate f&uuml;r offene Tabellen<\/li><li>Sicherheit mit AWS Lake Formation<\/li><li>Festlegen von Berechtigungen mit Lake Formation<\/li><li>Sicherheit und Governance<\/li><li>Fehlerbehebung<\/li><\/ul><p>\nPraktisches Labor: Automatisierung der Erstellung von Data Lakes mit AWS Lake Formation Blueprints<\/p>\n<h4>Tag 2<\/h4><p>\n<strong>Modul 5: Architektur und Gestaltungsprinzipien von Data Warehouses<\/strong>\n<\/p>\n<ul>\n<li>Einf&uuml;hrung in Data Warehouses<\/li><li>Amazon Redshift &ndash; &Uuml;bersicht<\/li><li>Daten in Redshift einlesen<\/li><li>Datenverarbeitung<\/li><li>Daten f&uuml;r den Verbrauch bereitstellen<\/li><\/ul><p>\nPraktisches Labor: Einrichten eines Data Warehouse mit Amazon Redshift Serverless<\/p>\n<p><strong>Modul 6: Techniken zur Leistungsoptimierung f&uuml;r Data Warehouses<\/strong>\n<\/p>\n<ul>\n<li>&Uuml;berwachungs- und Optimierungsoptionen<\/li><li>Datenoptimierung in Amazon Redshift<\/li><li>Abfrageoptimierung in Amazon Redshift<\/li><li>Orchestrierungsoptionen<\/li><\/ul><p><strong>Modul 7: Sicherheit und Zugriffskontrolle f&uuml;r Data Warehouses<\/strong>\n<\/p>\n<ul>\n<li>Authentifizierung und Zugriffskontrolle in Amazon Redshift<\/li><li>Datensicherheit in Amazon Redshift<\/li><li>Auditierung und Compliance in Amazon Redshift<\/li><\/ul><p>\nPraktisches Labor: Verwaltung der Zugriffskontrolle in Redshift<\/p>\n<p><strong>Modul 8: Entwerfen von Batch-Datenpipelines<\/strong>\n<\/p>\n<ul>\n<li>Einf&uuml;hrung in Batch-Datenpipelines<\/li><li>Entwurf einer Batch-Datenpipeline<\/li><li>AWS-Dienste f&uuml;r die Stapelverarbeitung von Daten<\/li><\/ul><p><strong>Modul 9: Implementierung von Strategien f&uuml;r die Batch-Datenpipeline<\/strong>\n<\/p>\n<ul>\n<li>Elemente einer Batch-Datenpipeline<\/li><li>Verarbeitung und Umwandlung von Daten<\/li><li>Integration und Katalogisierung Ihrer Daten<\/li><li>Daten f&uuml;r den Verbrauch bereitstellen<\/li><\/ul><p>\nPraktisches Labor: Ein Tag im Leben eines Dateningenieurs<\/p>\n<h4>Tag drei<\/h4><p><strong>Modul 10: Optimierung, Orchestrierung und Sicherung von Batch-Datenpipelines<\/strong>\n<\/p>\n<ul>\n<li>Optimierung der Batch-Datenpipeline<\/li><li>Orchestrierung der Batch-Datenpipeline<\/li><li>Sicherung der Batch-Datenpipeline<\/li><\/ul><p>\nPraktisches Labor: Orchestrierung der Datenverarbeitung in Spark mithilfe von AWS Step Functions<\/p>\n<p><strong>Modul 11: Architekturmuster f&uuml;r Streaming-Daten<\/strong>\n<\/p>\n<ul>\n<li>Einf&uuml;hrung in Streaming-Datenpipelines<\/li><li>Daten aus Stream-Quellen erfassen<\/li><li>Streaming-Datenaufnahmedienste<\/li><li>Speichern von Streaming-Daten<\/li><li>Verarbeitung von Streaming-Daten<\/li><li>Analyse von Streaming-Daten mit AWS-Services<\/li><\/ul><p>\nPraktisches Labor: Streaming-Analysen mit Amazon Managed Service f&uuml;r Apache Flink<\/p>\n<p><strong>Modul 12: Optimierung und Sicherung von Streaming-L&ouml;sungen<\/strong>\n<\/p>\n<ul>\n<li>Optimierung einer Streaming-Datenl&ouml;sung<\/li><li>Sichern einer Streaming-Datenpipeline<\/li><li>Compliance-&Uuml;berlegungen<\/li><\/ul><p>\nPraktisches Labor: Zugriffskontrolle mit Amazon Managed Streaming f&uuml;r Apache Kafka<\/p>","comments":"<p><em>Dieser Text wurde automatisiert &uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte <span class=\"cms-link-marked\"><a class=\"fl-href-prod\" href=\"\/swisscom\/en\/course\/amazon-deaws\"><svg role=\"img\" aria-hidden=\"true\" focusable=\"false\" data-nosnippet class=\"cms-linkmark\"><use xlink:href=\"\/css\/img\/icnset-linkmarks.svg#linkmark\"><\/use><\/svg>hier<\/a><\/span>.<\/em><\/p>","summary":"<p>Data Engineering auf AWS ist ein dreit&auml;giger Kurs f&uuml;r Fortgeschrittene, der sich an Fachleute richtet, die sich intensiv mit Data-Engineering-Praktiken und -L&ouml;sungen auf AWS befassen m&ouml;chten. Durch eine ausgewogene Kombination aus Theorie, praktischen &Uuml;bungen und Aktivit&auml;ten lernen die Teilnehmer, Data-Engineering-L&ouml;sungen mit AWS-Services zu entwerfen, zu erstellen, zu optimieren und zu sichern. Von grundlegenden Konzepten bis hin zur praktischen Implementierung von Data Lakes, Data Warehouses sowie Batch- und Streaming-Datenpipelines vermittelt dieser Kurs Datenfachleuten die erforderlichen F&auml;higkeiten, um moderne Datenl&ouml;sungen in grossem Massstab zu entwerfen und zu verwalten.<\/p>","objective_plain":"In diesem Kurs lernen Sie Folgendes:\n\n\n\n- Verstehen Sie die grundlegenden Rollen und Schl\u00fcsselkonzepte des Data Engineering, einschliesslich Datenpers\u00f6nlichkeiten, Datenermittlung und relevante AWS-Services.\n- Identifizieren und erl\u00e4utern Sie die verschiedenen AWS-Tools und -Services, die f\u00fcr das Data Engineering von entscheidender Bedeutung sind, darunter Orchestrierung, Sicherheit, \u00dcberwachung, CI\/CD, IaC, Netzwerke und Kostenoptimierung.\n- Entwerfen und implementieren Sie eine Data-Lake-L\u00f6sung auf AWS, einschliesslich Speicherung, Datenaufnahme, Transformation und Bereitstellung von Daten f\u00fcr die Nutzung.\n- Optimieren und sichern Sie eine Data-Lake-L\u00f6sung durch die Implementierung offener Tabellenformate, Sicherheitsmassnahmen und die Behebung h\u00e4ufiger Probleme.\n- Entwerfen und richten Sie ein Data Warehouse mit Amazon Redshift Serverless ein und machen Sie sich mit dessen Architektur, Datenerfassung, Verarbeitung und Bereitstellungsfunktionen vertraut.\n- Wenden Sie Techniken zur Leistungsoptimierung auf Data Warehouses in Amazon Redshift an, darunter \u00dcberwachung, Datenoptimierung, Abfrageoptimierung und Orchestrierung.\n- Verwalten Sie die Sicherheit und Zugriffskontrolle f\u00fcr Data Warehouses in Amazon Redshift und machen Sie sich mit Authentifizierung, Datensicherheit, Auditing und Compliance vertraut.\n- Entwerfen Sie effektive Batch-Datenpipelines unter Verwendung geeigneter AWS-Dienste f\u00fcr die Verarbeitung und Transformation von Daten.\n- Implementieren Sie umfassende Strategien f\u00fcr Batch-Datenpipelines, die die Datenverarbeitung, -transformation, -integration, -katalogisierung und -bereitstellung f\u00fcr die Nutzung abdecken.\n- Optimieren, koordinieren und sichern Sie Batch-Datenpipelines und demonstrieren Sie dabei fortgeschrittene Kenntnisse in den Bereichen Datenverarbeitungsautomatisierung und -sicherheit.\n- Entwickeln Sie Streaming-Datenpipelines, verstehen Sie verschiedene Anwendungsf\u00e4lle, Erfassung, Speicherung, Verarbeitung und Analyse mithilfe von AWS-Diensten.\n- Optimierung und Sicherung von Streaming-Datenl\u00f6sungen, einschliesslich Compliance-Aspekten und Zugriffskontrolle.","essentials_plain":"Wir empfehlen, dass die Teilnehmer dieses Kurses \u00fcber folgende Voraussetzungen verf\u00fcgen:\n\n\n\n- Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens, wie beispielsweise \u00fcberwachtes und un\u00fcberwachtes Lernen, Regression, Klassifizierung und Clustering-Algorithmen.\n- Praktische Kenntnisse der Programmiersprache Python und g\u00e4ngiger Data-Science-Bibliotheken wie NumPy, Pandas und Scikit-learn.\n- Grundlegendes Verst\u00e4ndnis der Cloud-Computing-Konzepte und Vertrautheit mit der AWS-Plattform.\n- Kenntnisse in SQL und relationalen Datenbanken sind empfehlenswert, aber nicht zwingend erforderlich.\n- Erfahrung mit Versionskontrollsystemen wie Git ist von Vorteil, aber nicht erforderlich.","audience_plain":"Dieser Kurs richtet sich an Fachleute, die sich f\u00fcr das Entwerfen, Erstellen, Optimieren und Sichern von Data-Engineering-L\u00f6sungen unter Verwendung von AWS-Diensten interessieren.","outline_plain":"Tag 1\n\nModul 1: Aufgabenbereiche und Schl\u00fcsselkonzepte im Bereich Data Engineering\n\n\n\n- Die Rolle eines Dateningenieurs\n- Wichtige Aufgaben eines Dateningenieurs\n- Daten Personen\n- Datenermittlung\n- AWS-Datendienste\nModul 2: AWS-Tools und -Services f\u00fcr das Data Engineering\n\n\n\n- Orchestrierung und Automatisierung\n- Sicherheit im Bereich Datenverarbeitung\n- \u00dcberwachung\n- Kontinuierliche Integration und kontinuierliche Bereitstellung\n- Infrastruktur als Code\n- AWS Serverless-Anwendungsmodell\n- \u00dcberlegungen zum Netzwerk\n- Kostenoptimierungstools\nModul 3: Entwurf und Implementierung von Data Lakes\n\n\n\n- Einf\u00fchrung in Data Lakes\n- Datenspeicher\n- Daten in einen Data Lake einlesen\n- Katalogdaten\n- Daten transformieren\n- Serverdaten f\u00fcr den Verbrauch\n\nPraktisches Labor: Einrichten eines Data Lake auf AWS\n\nModul 4: Optimierung und Sicherung einer Data-Lake-L\u00f6sung\n\n\n\n- Formate f\u00fcr offene Tabellen\n- Sicherheit mit AWS Lake Formation\n- Festlegen von Berechtigungen mit Lake Formation\n- Sicherheit und Governance\n- Fehlerbehebung\n\nPraktisches Labor: Automatisierung der Erstellung von Data Lakes mit AWS Lake Formation Blueprints\n\nTag 2\n\n\nModul 5: Architektur und Gestaltungsprinzipien von Data Warehouses\n\n\n\n- Einf\u00fchrung in Data Warehouses\n- Amazon Redshift \u2013 \u00dcbersicht\n- Daten in Redshift einlesen\n- Datenverarbeitung\n- Daten f\u00fcr den Verbrauch bereitstellen\n\nPraktisches Labor: Einrichten eines Data Warehouse mit Amazon Redshift Serverless\n\nModul 6: Techniken zur Leistungsoptimierung f\u00fcr Data Warehouses\n\n\n\n- \u00dcberwachungs- und Optimierungsoptionen\n- Datenoptimierung in Amazon Redshift\n- Abfrageoptimierung in Amazon Redshift\n- Orchestrierungsoptionen\nModul 7: Sicherheit und Zugriffskontrolle f\u00fcr Data Warehouses\n\n\n\n- Authentifizierung und Zugriffskontrolle in Amazon Redshift\n- Datensicherheit in Amazon Redshift\n- Auditierung und Compliance in Amazon Redshift\n\nPraktisches Labor: Verwaltung der Zugriffskontrolle in Redshift\n\nModul 8: Entwerfen von Batch-Datenpipelines\n\n\n\n- Einf\u00fchrung in Batch-Datenpipelines\n- Entwurf einer Batch-Datenpipeline\n- AWS-Dienste f\u00fcr die Stapelverarbeitung von Daten\nModul 9: Implementierung von Strategien f\u00fcr die Batch-Datenpipeline\n\n\n\n- Elemente einer Batch-Datenpipeline\n- Verarbeitung und Umwandlung von Daten\n- Integration und Katalogisierung Ihrer Daten\n- Daten f\u00fcr den Verbrauch bereitstellen\n\nPraktisches Labor: Ein Tag im Leben eines Dateningenieurs\n\nTag drei\n\nModul 10: Optimierung, Orchestrierung und Sicherung von Batch-Datenpipelines\n\n\n\n- Optimierung der Batch-Datenpipeline\n- Orchestrierung der Batch-Datenpipeline\n- Sicherung der Batch-Datenpipeline\n\nPraktisches Labor: Orchestrierung der Datenverarbeitung in Spark mithilfe von AWS Step Functions\n\nModul 11: Architekturmuster f\u00fcr Streaming-Daten\n\n\n\n- Einf\u00fchrung in Streaming-Datenpipelines\n- Daten aus Stream-Quellen erfassen\n- Streaming-Datenaufnahmedienste\n- Speichern von Streaming-Daten\n- Verarbeitung von Streaming-Daten\n- Analyse von Streaming-Daten mit AWS-Services\n\nPraktisches Labor: Streaming-Analysen mit Amazon Managed Service f\u00fcr Apache Flink\n\nModul 12: Optimierung und Sicherung von Streaming-L\u00f6sungen\n\n\n\n- Optimierung einer Streaming-Datenl\u00f6sung\n- Sichern einer Streaming-Datenpipeline\n- Compliance-\u00dcberlegungen\n\nPraktisches Labor: Zugriffskontrolle mit Amazon Managed Streaming f\u00fcr Apache Kafka","comments_plain":"Dieser Text wurde automatisiert \u00fcbersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.","summary_plain":"Data Engineering auf AWS ist ein dreit\u00e4giger Kurs f\u00fcr Fortgeschrittene, der sich an Fachleute richtet, die sich intensiv mit Data-Engineering-Praktiken und -L\u00f6sungen auf AWS befassen m\u00f6chten. Durch eine ausgewogene Kombination aus Theorie, praktischen \u00dcbungen und Aktivit\u00e4ten lernen die Teilnehmer, Data-Engineering-L\u00f6sungen mit AWS-Services zu entwerfen, zu erstellen, zu optimieren und zu sichern. Von grundlegenden Konzepten bis hin zur praktischen Implementierung von Data Lakes, Data Warehouses sowie Batch- und Streaming-Datenpipelines vermittelt dieser Kurs Datenfachleuten die erforderlichen F\u00e4higkeiten, um moderne Datenl\u00f6sungen in grossem Massstab zu entwerfen und zu verwalten.","version":"1.0","duration":{"unit":"d","value":3,"formatted":"3 Tage"},"pricelist":{"List Price":{"US":{"country":"US","currency":"USD","taxrate":null,"price":2025},"CA":{"country":"CA","currency":"CAD","taxrate":null,"price":2795},"GB":{"country":"GB","currency":"GBP","taxrate":20,"price":2655},"FR":{"country":"FR","currency":"EUR","taxrate":19.6,"price":2550},"DE":{"country":"DE","currency":"EUR","taxrate":19,"price":1995},"CH":{"country":"CH","currency":"CHF","taxrate":8.1,"price":1995},"AT":{"country":"AT","currency":"EUR","taxrate":20,"price":1995},"SE":{"country":"SE","currency":"EUR","taxrate":25,"price":1995},"SI":{"country":"SI","currency":"EUR","taxrate":20,"price":1995},"NL":{"country":"NL","currency":"EUR","taxrate":21,"price":1995},"IT":{"country":"IT","currency":"EUR","taxrate":20,"price":1650},"EG":{"country":"EG","currency":"USD","taxrate":14,"price":1750}}},"lastchanged":"2026-04-17T10:32:34+02:00","parenturl":"https:\/\/portal.flane.ch\/swisscom\/json-courses","nexturl_course_schedule":"https:\/\/portal.flane.ch\/swisscom\/json-course-schedule\/36493","source_lang":"de","source":"https:\/\/portal.flane.ch\/swisscom\/json-course\/amazon-deaws"}}