<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="25495" language="de" source="https://portal.flane.ch/swisscom/xml-course/google-sdpf" lastchanged="2025-09-30T15:14:28+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Serverless Data Processing with Dataflow</title><productcode>SDPF</productcode><vendorcode>GO</vendorcode><vendorname>Google</vendorname><fullproductcode>GO-SDPF</fullproductcode><version>1.0</version><objective>&lt;ul&gt;
&lt;li&gt;Zeigen Sie, wie Apache Beam und Dataflow zusammenarbeiten, um die Datenverarbeitungsanforderungen Ihres Unternehmens zu erf&amp;uuml;llen.&lt;/li&gt;&lt;li&gt;Fassen Sie die Vorteile des Beam Portability Frameworks zusammen und aktivieren Sie es f&amp;uuml;r Ihre Dataflow-Pipelines.&lt;/li&gt;&lt;li&gt;Aktivieren Sie Shuffle und Streaming Engine f&amp;uuml;r Batch- bzw. Streaming-Pipelines, um maximale Leistung zu erzielen.&lt;/li&gt;&lt;li&gt;Erm&amp;ouml;glichen Sie eine flexible Ressourcenplanung f&amp;uuml;r eine kosteneffizientere Leistung.&lt;/li&gt;&lt;li&gt;W&amp;auml;hlen Sie die richtige Kombination von IAM-Berechtigungen f&amp;uuml;r Ihren Dataflow-Auftrag.&lt;/li&gt;&lt;li&gt;Umsetzung bew&amp;auml;hrter Verfahren f&amp;uuml;r eine sichere Datenverarbeitungsumgebung.&lt;/li&gt;&lt;li&gt;W&amp;auml;hlen Sie die E/A Ihrer Wahl f&amp;uuml;r Ihre Dataflow-Pipeline aus und stimmen Sie sie ab.&lt;/li&gt;&lt;li&gt;Verwenden Sie Schemata, um Ihren Beam-Code zu vereinfachen und die Leistung Ihrer Pipeline zu verbessern.&lt;/li&gt;&lt;li&gt;Entwickeln Sie eine Beam-Pipeline mit SQL und DataFrames.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berwachung, Fehlerbehebung, Tests und CI/CD f&amp;uuml;r Dataflow-Pipelines.&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;p&gt;Um diesen Kurs optimal nutzen zu k&amp;ouml;nnen, sollten die Teilnehmer die folgenden Kurse absolviert haben:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Building Batch Data Pipelines&lt;/li&gt;&lt;li&gt;Building Resilient Streaming Analytics Systems&lt;/li&gt;&lt;/ul&gt;</essentials><audience>&lt;ul&gt;
&lt;li&gt;Dateningenieure.&lt;/li&gt;&lt;li&gt;Datenanalysten und Datenwissenschaftler, die ihre F&amp;auml;higkeiten im Bereich Data Engineering ausbauen m&amp;ouml;chten&lt;/li&gt;&lt;/ul&gt;</audience><outline>&lt;h5&gt;Modul 1: Einf&amp;uuml;hrung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Stellen Sie die Kursziele vor.&lt;/li&gt;&lt;li&gt;Zeigen Sie, wie Apache Beam und Dataflow zusammenarbeiten, um die Datenverarbeitungsanforderungen Ihres Unternehmens zu erf&amp;uuml;llen.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 2: &amp;Uuml;bertragbarkeit von Strahlen&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Fassen Sie die Vorteile des Beam Portability Framework zusammen.&lt;/li&gt;&lt;li&gt;Passen Sie die Datenverarbeitungsumgebung Ihrer Pipeline mithilfe benutzerdefinierter Container an.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fung der Anwendungsf&amp;auml;lle f&amp;uuml;r sprach&amp;uuml;bergreifende Transformationen.&lt;/li&gt;&lt;li&gt;Aktivieren Sie das Portability Framework f&amp;uuml;r Ihre Dataflow-Pipelines.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 3: Trennung von Datenverarbeitung und Speicherung mit Dataflow&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Aktivieren Sie Shuffle und Streaming Engine f&amp;uuml;r Batch- bzw. Streaming-Pipelines, um maximale Leistung zu erzielen.&lt;/li&gt;&lt;li&gt;Erm&amp;ouml;glichen Sie eine flexible Ressourcenplanung f&amp;uuml;r eine kosteneffizientere Leistung.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 4: IAM, Kontingente und Berechtigungen&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;W&amp;auml;hlen Sie die richtige Kombination von IAM-Berechtigungen f&amp;uuml;r Ihren Dataflow-Auftrag.&lt;/li&gt;&lt;li&gt;Ermitteln Sie Ihren Kapazit&amp;auml;tsbedarf, indem Sie die entsprechenden Quoten f&amp;uuml;r Ihre Dataflow-Jobs &amp;uuml;berpr&amp;uuml;fen.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 5: Sicherheit&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;W&amp;auml;hlen Sie Ihre zonale Datenverarbeitungsstrategie mit Dataflow, je nach Ihren Anforderungen an die Datenlokalisierung.&lt;/li&gt;&lt;li&gt;Umsetzung bew&amp;auml;hrter Verfahren f&amp;uuml;r eine sichere Datenverarbeitungsumgebung.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 6: Wiederholung von Strahlenkonzepten&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fung der wichtigsten Konzepte von Apache Beam (Pipeline, PCollections, PTransforms, Runner, Lesen/Schreiben, Utility PTransforms, Side Inputs), Bundles und DoFn Lifecycle.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 7: Fenster, Wasserzeichen, Ausl&amp;ouml;ser&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Implementieren Sie eine Logik zur Verarbeitung Ihrer versp&amp;auml;teten Daten.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie die verschiedenen Arten von Ausl&amp;ouml;sern.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fung der wichtigsten Streaming-Konzepte (unbeschr&amp;auml;nkte PCollections, Fenster).&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 8: Quellen und Senken&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Schreiben Sie die E/A Ihrer Wahl f&amp;uuml;r Ihre Dataflow-Pipeline.&lt;/li&gt;&lt;li&gt;Stimmen Sie Ihre Quelle/Senke-Transformation f&amp;uuml;r maximale Leistung ab.&lt;/li&gt;&lt;li&gt;Benutzerdefinierte Quellen und Senken mit SDF erstellen.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 9: Schemata&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung von Schemata, die Entwicklern eine M&amp;ouml;glichkeit bieten, strukturierte Daten in ihren Beam-Pipelines auszudr&amp;uuml;cken.&lt;/li&gt;&lt;li&gt;Verwenden Sie Schemata, um Ihren Beam-Code zu vereinfachen und die Leistung Ihrer Pipeline zu verbessern.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 10: Zustand und Zeitgeber&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Ermittlung von Anwendungsf&amp;auml;llen f&amp;uuml;r die Implementierung von Status- und Zeitgeber-APIs.&lt;/li&gt;&lt;li&gt;W&amp;auml;hlen Sie den richtigen Typ von Status und Zeitgebern f&amp;uuml;r Ihre Pipeline.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 11: Bew&amp;auml;hrte Praktiken&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Implementierung bew&amp;auml;hrter Verfahren f&amp;uuml;r Dataflow-Pipelines.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 12: Datenfluss-SQL und DataFrames&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Entwickeln Sie eine Beam-Pipeline mit SQL und DataFrames.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 13: Beam Notebooks&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Prototyping Ihrer Pipeline in Python mit Beam-Notebooks.&lt;/li&gt;&lt;li&gt;Verwenden Sie Beam-Magie, um das Verhalten der Quellenaufzeichnung in Ihrem Notebook zu steuern.&lt;/li&gt;&lt;li&gt;Starten Sie einen Auftrag in Dataflow von einem Notebook aus.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 14: &amp;Uuml;berwachung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Navigieren Sie durch die Benutzeroberfl&amp;auml;che der Dataflow-Auftragsdetails.&lt;/li&gt;&lt;li&gt;Interpretieren Sie Job-Metrics-Diagramme, um Regressionen in der Pipeline zu diagnostizieren.&lt;/li&gt;&lt;li&gt;Setzen Sie Alarme f&amp;uuml;r Dataflow-Auftr&amp;auml;ge mit Cloud Monitoring.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 15: Protokollierung und Fehlerberichterstattung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Verwenden Sie die Dataflow-Protokolle und Diagnose-Widgets, um Probleme in der Pipeline zu beheben.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 16: Fehlersuche und Fehlerbehebung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Verwenden Sie einen strukturierten Ansatz zum Debuggen Ihrer Dataflow-Pipelines.&lt;/li&gt;&lt;li&gt;Untersuchen Sie die h&amp;auml;ufigsten Ursachen f&amp;uuml;r Rohrleitungsausf&amp;auml;lle.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 17: Leistung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Verstehen Sie Leistungs&amp;uuml;berlegungen f&amp;uuml;r Pipelines.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berlegen Sie, wie sich die Form Ihrer Daten auf die Leistung der Pipeline auswirken kann.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 18: Testen und CI/CD&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Testans&amp;auml;tze f&amp;uuml;r Ihre Dataflow-Pipeline.&lt;/li&gt;&lt;li&gt;Pr&amp;uuml;fen Sie die verf&amp;uuml;gbaren Frameworks und Funktionen, um Ihren CI/CD-Workflow f&amp;uuml;r Dataflow-Pipelines zu optimieren.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 19: Verl&amp;auml;sslichkeit&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Implementieren Sie Best Practices f&amp;uuml;r die Zuverl&amp;auml;ssigkeit Ihrer Dataflow-Pipelines.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 20: Flex-Vorlagen&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Verwendung von Flex-Vorlagen zur Standardisierung und Wiederverwendung von Dataflow-Pipeline-Code.&lt;/li&gt;&lt;/ul&gt;&lt;h5&gt;Modul 21: Zusammenfassung&lt;/h5&gt;&lt;ul&gt;
&lt;li&gt;Zusammenfassung.&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/google-sdpf&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>- Zeigen Sie, wie Apache Beam und Dataflow zusammenarbeiten, um die Datenverarbeitungsanforderungen Ihres Unternehmens zu erfüllen.
- Fassen Sie die Vorteile des Beam Portability Frameworks zusammen und aktivieren Sie es für Ihre Dataflow-Pipelines.
- Aktivieren Sie Shuffle und Streaming Engine für Batch- bzw. Streaming-Pipelines, um maximale Leistung zu erzielen.
- Ermöglichen Sie eine flexible Ressourcenplanung für eine kosteneffizientere Leistung.
- Wählen Sie die richtige Kombination von IAM-Berechtigungen für Ihren Dataflow-Auftrag.
- Umsetzung bewährter Verfahren für eine sichere Datenverarbeitungsumgebung.
- Wählen Sie die E/A Ihrer Wahl für Ihre Dataflow-Pipeline aus und stimmen Sie sie ab.
- Verwenden Sie Schemata, um Ihren Beam-Code zu vereinfachen und die Leistung Ihrer Pipeline zu verbessern.
- Entwickeln Sie eine Beam-Pipeline mit SQL und DataFrames.
- Überwachung, Fehlerbehebung, Tests und CI/CD für Dataflow-Pipelines.</objective_plain><essentials_plain>Um diesen Kurs optimal nutzen zu können, sollten die Teilnehmer die folgenden Kurse absolviert haben:


- Building Batch Data Pipelines
- Building Resilient Streaming Analytics Systems</essentials_plain><audience_plain>- Dateningenieure.
- Datenanalysten und Datenwissenschaftler, die ihre Fähigkeiten im Bereich Data Engineering ausbauen möchten</audience_plain><outline_plain>Modul 1: Einführung


- Stellen Sie die Kursziele vor.
- Zeigen Sie, wie Apache Beam und Dataflow zusammenarbeiten, um die Datenverarbeitungsanforderungen Ihres Unternehmens zu erfüllen.
Modul 2: Übertragbarkeit von Strahlen


- Fassen Sie die Vorteile des Beam Portability Framework zusammen.
- Passen Sie die Datenverarbeitungsumgebung Ihrer Pipeline mithilfe benutzerdefinierter Container an.
- Überprüfung der Anwendungsfälle für sprachübergreifende Transformationen.
- Aktivieren Sie das Portability Framework für Ihre Dataflow-Pipelines.
Modul 3: Trennung von Datenverarbeitung und Speicherung mit Dataflow


- Aktivieren Sie Shuffle und Streaming Engine für Batch- bzw. Streaming-Pipelines, um maximale Leistung zu erzielen.
- Ermöglichen Sie eine flexible Ressourcenplanung für eine kosteneffizientere Leistung.
Modul 4: IAM, Kontingente und Berechtigungen


- Wählen Sie die richtige Kombination von IAM-Berechtigungen für Ihren Dataflow-Auftrag.
- Ermitteln Sie Ihren Kapazitätsbedarf, indem Sie die entsprechenden Quoten für Ihre Dataflow-Jobs überprüfen.
Modul 5: Sicherheit


- Wählen Sie Ihre zonale Datenverarbeitungsstrategie mit Dataflow, je nach Ihren Anforderungen an die Datenlokalisierung.
- Umsetzung bewährter Verfahren für eine sichere Datenverarbeitungsumgebung.
Modul 6: Wiederholung von Strahlenkonzepten


- Überprüfung der wichtigsten Konzepte von Apache Beam (Pipeline, PCollections, PTransforms, Runner, Lesen/Schreiben, Utility PTransforms, Side Inputs), Bundles und DoFn Lifecycle.
Modul 7: Fenster, Wasserzeichen, Auslöser


- Implementieren Sie eine Logik zur Verarbeitung Ihrer verspäteten Daten.
- Überprüfen Sie die verschiedenen Arten von Auslösern.
- Überprüfung der wichtigsten Streaming-Konzepte (unbeschränkte PCollections, Fenster).
Modul 8: Quellen und Senken


- Schreiben Sie die E/A Ihrer Wahl für Ihre Dataflow-Pipeline.
- Stimmen Sie Ihre Quelle/Senke-Transformation für maximale Leistung ab.
- Benutzerdefinierte Quellen und Senken mit SDF erstellen.
Modul 9: Schemata


- Einführung von Schemata, die Entwicklern eine Möglichkeit bieten, strukturierte Daten in ihren Beam-Pipelines auszudrücken.
- Verwenden Sie Schemata, um Ihren Beam-Code zu vereinfachen und die Leistung Ihrer Pipeline zu verbessern.
Modul 10: Zustand und Zeitgeber


- Ermittlung von Anwendungsfällen für die Implementierung von Status- und Zeitgeber-APIs.
- Wählen Sie den richtigen Typ von Status und Zeitgebern für Ihre Pipeline.
Modul 11: Bewährte Praktiken


- Implementierung bewährter Verfahren für Dataflow-Pipelines.
Modul 12: Datenfluss-SQL und DataFrames


- Entwickeln Sie eine Beam-Pipeline mit SQL und DataFrames.
Modul 13: Beam Notebooks


- Prototyping Ihrer Pipeline in Python mit Beam-Notebooks.
- Verwenden Sie Beam-Magie, um das Verhalten der Quellenaufzeichnung in Ihrem Notebook zu steuern.
- Starten Sie einen Auftrag in Dataflow von einem Notebook aus.
Modul 14: Überwachung


- Navigieren Sie durch die Benutzeroberfläche der Dataflow-Auftragsdetails.
- Interpretieren Sie Job-Metrics-Diagramme, um Regressionen in der Pipeline zu diagnostizieren.
- Setzen Sie Alarme für Dataflow-Aufträge mit Cloud Monitoring.
Modul 15: Protokollierung und Fehlerberichterstattung


- Verwenden Sie die Dataflow-Protokolle und Diagnose-Widgets, um Probleme in der Pipeline zu beheben.
Modul 16: Fehlersuche und Fehlerbehebung


- Verwenden Sie einen strukturierten Ansatz zum Debuggen Ihrer Dataflow-Pipelines.
- Untersuchen Sie die häufigsten Ursachen für Rohrleitungsausfälle.
Modul 17: Leistung


- Verstehen Sie Leistungsüberlegungen für Pipelines.
- Überlegen Sie, wie sich die Form Ihrer Daten auf die Leistung der Pipeline auswirken kann.
Modul 18: Testen und CI/CD


- Testansätze für Ihre Dataflow-Pipeline.
- Prüfen Sie die verfügbaren Frameworks und Funktionen, um Ihren CI/CD-Workflow für Dataflow-Pipelines zu optimieren.
Modul 19: Verlässlichkeit


- Implementieren Sie Best Practices für die Zuverlässigkeit Ihrer Dataflow-Pipelines.
Modul 20: Flex-Vorlagen


- Verwendung von Flex-Vorlagen zur Standardisierung und Wiederverwendung von Dataflow-Pipeline-Code.
Modul 21: Zusammenfassung


- Zusammenfassung.</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="3">3 Tage</duration><pricelist><price country="DE" currency="EUR">1950.00</price><price country="US" currency="USD">1995.00</price><price country="CH" currency="CHF">2220.00</price><price country="AT" currency="EUR">1950.00</price><price country="IT" currency="EUR">1950.00</price><price country="GB" currency="GBP">1980.00</price><price country="IL" currency="ILS">6770.00</price><price country="BE" currency="EUR">2095.00</price><price country="NL" currency="EUR">2095.00</price><price country="GR" currency="EUR">2050.00</price><price country="MK" currency="EUR">2050.00</price><price country="HU" currency="EUR">2050.00</price><price country="SI" currency="EUR">1950.00</price><price country="CA" currency="CAD">2755.00</price><price country="FR" currency="EUR">2450.00</price></pricelist><miles/></course>