<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="18642" language="de" source="https://portal.flane.ch/swisscom/xml-course/google-degcp" lastchanged="2025-11-18T18:18:14+01:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Data Engineering on Google Cloud Platform</title><productcode>DEGCP</productcode><vendorcode>GO</vendorcode><vendorname>Google</vendorname><fullproductcode>GO-DEGCP</fullproductcode><version>3.0</version><objective>&lt;ul&gt;
&lt;li&gt;Entwurf und Aufbau von Datenverarbeitungssystemen in der Google Cloud.&lt;/li&gt;&lt;li&gt;Verarbeiten Sie Batch- und Streaming-Daten durch die Implementierung automatisch skalierender Datenpipelines auf Dataflow.&lt;/li&gt;&lt;li&gt;Gewinnen Sie mit BigQuery Erkenntnisse aus extrem grossen Datens&amp;auml;tzen.&lt;/li&gt;&lt;li&gt;Nutzen Sie unstrukturierte Daten mit Spark und ML-APIs auf Dataproc.&lt;/li&gt;&lt;li&gt;Erm&amp;ouml;glichen Sie sofortige Einblicke aus Streaming-Daten.&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;ul&gt;
&lt;li&gt;Fr&amp;uuml;here Erfahrungen mit Google Cloud unter Verwendung von Cloud Shell und Zugriff auf Produkte &amp;uuml;ber die Google Cloud-Konsole.&lt;/li&gt;&lt;li&gt;Grundkenntnisse in einer g&amp;auml;ngigen Abfragesprache wie SQL.&lt;/li&gt;&lt;li&gt;Erfahrung mit Datenmodellierung und ETL-Aktivit&amp;auml;ten (Extrahieren, Transformieren, Laden).&lt;/li&gt;&lt;li&gt;Erfahrung in der Entwicklung von Anwendungen in einer g&amp;auml;ngigen Programmiersprache wie Python&lt;/li&gt;&lt;/ul&gt;</essentials><audience>&lt;ul&gt;
&lt;li&gt;Daten-Ingenieure&lt;/li&gt;&lt;li&gt;Datenbank-Administratoren&lt;/li&gt;&lt;li&gt;Systemadministratoren&lt;/li&gt;&lt;/ul&gt;</audience><outline>&lt;h4&gt;Modul 01 - Aufgaben und Komponenten der Datentechnik&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Rolle des Dateningenieurs&lt;/li&gt;&lt;li&gt;Datenquellen versus Datensynchronisation&lt;/li&gt;&lt;li&gt;Datenformate&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r Speicherl&amp;ouml;sungen in der Google Cloud&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r die Verwaltung von Metadaten in der Google Cloud&lt;/li&gt;&lt;li&gt;Gemeinsame Nutzung von Datens&amp;auml;tzen &amp;uuml;ber Analytics Hub&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die Rolle eines Dateningenieurs.&lt;/li&gt;&lt;li&gt;die Unterschiede zwischen einer Datenquelle und einer Datensenke zu verstehen.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie die verschiedenen Arten von Datenformaten.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie die Optionen f&amp;uuml;r Speicherl&amp;ouml;sungen in der Google Cloud.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber die M&amp;ouml;glichkeiten der Metadatenverwaltung in Google Cloud.&lt;/li&gt;&lt;li&gt;Verstehen Sie, wie Sie mit Analytics Hub problemlos Datens&amp;auml;tze gemeinsam nutzen k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Verstehen, wie man Daten mit der Google Cloud-Konsole und/oder der gcloud CLI in BigQuery l&amp;auml;dt.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Laden von Daten in BigQuery&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 02 - Datenreplikation und -migration&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Replikations- und Migrationsarchitektur&lt;/li&gt;&lt;li&gt;Das gcloud-Befehlszeilenwerkzeug&lt;/li&gt;&lt;li&gt;Verschieben von Datens&amp;auml;tzen&lt;/li&gt;&lt;li&gt;Datastream&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die grundlegende Datenreplikations- und Migrationsarchitektur der Google Cloud.&lt;/li&gt;&lt;li&gt;die Optionen und Anwendungsf&amp;auml;lle f&amp;uuml;r das gcloud-Befehlszeilentool zu verstehen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle f&amp;uuml;r den Speicher&amp;uuml;bertragungsdienst.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle f&amp;uuml;r die Transfer Appliance.&lt;/li&gt;&lt;li&gt;Verstehen Sie die Funktionen und den Einsatz von Datastream.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lab: Datastream: PostgreSQL Replikation auf BigQuery&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 03 - Das Muster der Pipeline f&amp;uuml;r das Extrahieren und Laden von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur extrahieren und laden&lt;/li&gt;&lt;li&gt;Das bq Kommandozeilenwerkzeug&lt;/li&gt;&lt;li&gt;BigQuery-Daten&amp;uuml;bertragungsdienst&lt;/li&gt;&lt;li&gt;BigLake&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Grundlinienextrakt- und Lastarchitekturdiagramm.&lt;/li&gt;&lt;li&gt;die Optionen des bq Kommandozeilenwerkzeugs zu verstehen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle f&amp;uuml;r den BigQuery Data Transfer Service.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle f&amp;uuml;r BigLake als Nicht-Extract-Load-Muster.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Labor: BigLake: Qwik Start&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 04 - Das Muster der Pipeline f&amp;uuml;r das Extrahieren, Laden und Transformieren von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur zum Extrahieren, Laden und Umwandeln (ELT)&lt;/li&gt;&lt;li&gt;SQL-Skripterstellung und Zeitplanung mit BigQuery&lt;/li&gt;&lt;li&gt;Datenformular&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Grundschema der Extraktions-, Lade- und Transformationsarchitektur.&lt;/li&gt;&lt;li&gt;Verstehen Sie eine g&amp;auml;ngige ELT-Pipeline in der Google Cloud.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber die SQL-Skripterstellung und die Planungsfunktionen von BigQuery.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle von Dataform.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Erstellen und Ausf&amp;uuml;hren eines SQL-Workflows in Dataform&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 05 - Das Muster der Pipeline f&amp;uuml;r das Extrahieren, Transformieren und Laden von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur des Extrahierens, Transformierens und Ladens (ETL)&lt;/li&gt;&lt;li&gt;Google Cloud GUI-Tools f&amp;uuml;r ETL-Datenpipelines&lt;/li&gt;&lt;li&gt;Batch-Datenverarbeitung mit Dataproc&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r die Verarbeitung von Streaming-Daten&lt;/li&gt;&lt;li&gt;Bigtable und Datenpipelines&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Grundschema der Extraktions-, Transformations- und Ladearchitektur.&lt;/li&gt;&lt;li&gt;Lernen Sie die GUI-Tools in Google Cloud kennen, die f&amp;uuml;r ETL-Datenpipelines verwendet werden.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Batch-Datenverarbeitung mit Dataproc.&lt;/li&gt;&lt;li&gt;Lernen Sie, Dataproc Serverless for Spark f&amp;uuml;r ETL zu verwenden.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die M&amp;ouml;glichkeiten der Streaming-Datenverarbeitung.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie, welche Rolle Bigtable in Datenpipelines spielt.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Dataproc Serverless f&amp;uuml;r Spark verwenden, um BigQuery zu laden&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Erstellen einer Streaming-Datenpipeline f&amp;uuml;r ein Echtzeit-Dashboard mit Dataflow&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 06 - Automatisierungstechniken&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Automatisierungsmuster und Optionen f&amp;uuml;r Pipelines&lt;/li&gt;&lt;li&gt;Cloud Scheduler und Arbeitsabl&amp;auml;ufe&lt;/li&gt;&lt;li&gt;Cloud-Komponist&lt;/li&gt;&lt;li&gt;Cloud Run-Funktionen&lt;/li&gt;&lt;li&gt;Eventarc&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die Automatisierungsmuster und -optionen, die f&amp;uuml;r Pipelines verf&amp;uuml;gbar sind.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber Cloud Scheduler und Workflows.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber Cloud Composer.&lt;/li&gt;&lt;li&gt;Lernen Sie die Funktionen von Cloud Run kennen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle der Automatisierung von Eventarc.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Verwenden von Cloud Run Functions zum Laden von BigQuery&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 07 - Einf&amp;uuml;hrung in die Datentechnik&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Rolle des Dateningenieurs&lt;/li&gt;&lt;li&gt;Herausforderungen der Datentechnik&lt;/li&gt;&lt;li&gt;Einf&amp;uuml;hrung in BigQuery&lt;/li&gt;&lt;li&gt;Data Lakes und Data Warehouses&lt;/li&gt;&lt;li&gt;Transaktionsdatenbanken versus Data Warehouses&lt;/li&gt;&lt;li&gt;Effiziente Partnerschaft mit anderen Datenteams&lt;/li&gt;&lt;li&gt;Verwaltung von Datenzugang und Governance&lt;/li&gt;&lt;li&gt;Aufbau von produktionsreifen Pipelines&lt;/li&gt;&lt;li&gt;Google Cloud Kundenfallstudie&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Er&amp;ouml;rtern Sie die Herausforderungen der Datentechnik und wie der Aufbau von Datenpipelines in der Cloud dazu beitr&amp;auml;gt, diese zu bew&amp;auml;ltigen.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen und verstehen Sie den Zweck eines Data Lake im Vergleich zu einem Data Warehouse und wann Sie welches einsetzen sollten.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: BigQuery f&amp;uuml;r die Analyse verwenden&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 08 - Aufbau eines Data Lake&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Data Lakes&lt;/li&gt;&lt;li&gt;Datenspeicherung und ETL-Optionen in der Google Cloud&lt;/li&gt;&lt;li&gt;Aufbau eines Data Lake mit Cloud Storage&lt;/li&gt;&lt;li&gt;Sicherer Cloud-Speicher&lt;/li&gt;&lt;li&gt;Alle Arten von Datentypen speichern&lt;/li&gt;&lt;li&gt;Cloud SQL als Ihr OLTP-System&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Diskutieren Sie, warum Cloud Storage eine gute Option f&amp;uuml;r den Aufbau eines Data Lake in der Google Cloud ist.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie, wie Sie Cloud SQL f&amp;uuml;r einen relationalen Datensee verwenden k&amp;ouml;nnen.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Laden von Taxidaten in Cloud SQL&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 09 - Aufbau eines Data Warehouse&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Das moderne Data Warehouse&lt;/li&gt;&lt;li&gt;Einf&amp;uuml;hrung in BigQuery&lt;/li&gt;&lt;li&gt;Erste Schritte mit BigQuery&lt;/li&gt;&lt;li&gt;Laden von Daten in BigQuery&lt;/li&gt;&lt;li&gt;Erkundung von Schemata&lt;/li&gt;&lt;li&gt;Entwurf des Schemas&lt;/li&gt;&lt;li&gt;Verschachtelte und wiederholte Felder&lt;/li&gt;&lt;li&gt;Optimierung mit Partitionierung und Clustering&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Er&amp;ouml;rterung der Anforderungen an ein modernes Lager.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie, warum BigQuery die skalierbare Data-Warehousing-L&amp;ouml;sung in der Google Cloud ist.&lt;/li&gt;&lt;li&gt;Besprechung der Kernkonzepte von BigQuery und &amp;Uuml;berpr&amp;uuml;fung der Optionen zum Laden von Daten in BigQuery.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Arbeiten mit JSON- und Array-Daten in BigQuery&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Partitionierte Tabellen in BigQuery&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 10 - Einf&amp;uuml;hrung in die Erstellung von Batch-Datenpipelines&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;EL, ELT, ETL&lt;/li&gt;&lt;li&gt;&amp;Uuml;berlegungen zur Qualit&amp;auml;t&lt;/li&gt;&lt;li&gt;M&amp;ouml;glichkeiten der Ausf&amp;uuml;hrung von Operationen in BigQuery&lt;/li&gt;&lt;li&gt;Unzul&amp;auml;nglichkeiten&lt;/li&gt;&lt;li&gt;ETL zur L&amp;ouml;sung von Datenqualit&amp;auml;tsproblemen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie verschiedene Methoden zum Laden von Daten in Ihre Data Lakes und Warehouses: EL, ELT und ETL.&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 11 - Ausf&amp;uuml;hren von Spark auf Dataproc&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Das Hadoop-&amp;Ouml;kosystem&lt;/li&gt;&lt;li&gt;Hadoop auf Dataproc ausf&amp;uuml;hren&lt;/li&gt;&lt;li&gt;Cloud-Speicher anstelle von HDFS&lt;/li&gt;&lt;li&gt;Optimieren Sie Dataproc&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie das Hadoop-&amp;Ouml;kosystem.&lt;/li&gt;&lt;li&gt;Diskutieren Sie, wie Sie Ihre bestehenden Hadoop-Workloads mit Dataproc in die Cloud verlagern k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie, wann Sie Cloud-Speicher anstelle von HDFS-Speicher verwenden w&amp;uuml;rden.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie, wie Sie Dataproc-Auftr&amp;auml;ge optimieren k&amp;ouml;nnen.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Ausf&amp;uuml;hren von Apache Spark-Auftr&amp;auml;gen auf Dataproc&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 12 - Serverlose Datenverarbeitung mit Dataflow&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in den Datenfluss&lt;/li&gt;&lt;li&gt;Gr&amp;uuml;nde, warum Kunden Dataflow sch&amp;auml;tzen&lt;/li&gt;&lt;li&gt;Datenfluss-Pipelines&lt;/li&gt;&lt;li&gt;Aggregieren mit GroupByKey und Kombinieren&lt;/li&gt;&lt;li&gt;Seitliche Eing&amp;auml;nge und Fenster&lt;/li&gt;&lt;li&gt;Datenfluss-Vorlagen&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Identifizieren Sie die Funktionen, die Kunden an Dataflow sch&amp;auml;tzen.&lt;/li&gt;&lt;li&gt;Diskutieren Sie die Kernkonzepte von Dataflow.&lt;/li&gt;&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie die Verwendung von Dataflow-Vorlagen und SQL.&lt;/li&gt;&lt;li&gt;Schreiben Sie eine einfache Dataflow-Pipeline und f&amp;uuml;hren Sie sie sowohl lokal als auch in der Cloud aus.&lt;/li&gt;&lt;li&gt;Identifizieren von Map- und Reduce-Operationen, Ausf&amp;uuml;hren der Pipeline und Verwenden von Befehlszeilenparametern.&lt;/li&gt;&lt;li&gt;Lesen Sie Daten aus BigQuery in Dataflow und verwenden Sie die Ausgabe einer Pipeline als Nebeneingang f&amp;uuml;r eine andere Pipeline.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lab: A Simple Dataflow Pipeline (Python/Java)&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: MapReduce in Beam (Python/Java)&lt;/li&gt;&lt;li&gt;Lab: Side Inputs (Python/Java)&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 13 - Verwalten von Datenpipelines mit Cloud Data Fusion und Cloud Composer&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Visuelle Erstellung von Batch-Datenpipelines mit Cloud Data Fusion&lt;ul&gt;
&lt;li&gt;Komponenten&lt;/li&gt;&lt;li&gt;UI-&amp;Uuml;bersicht&lt;/li&gt;&lt;li&gt;Aufbau einer Pipeline&lt;/li&gt;&lt;li&gt;Daten mit Wrangler erforschen&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;li&gt;Orchestrierung der Arbeit zwischen Google Cloud-Diensten mit Cloud Composer&lt;ul&gt;
&lt;li&gt;Apache Airflow-Umgebung&lt;/li&gt;&lt;li&gt;DAGs und Operatoren&lt;/li&gt;&lt;li&gt;Workflow-Planung&lt;/li&gt;&lt;li&gt;&amp;Uuml;berwachung und Protokollierung&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Besprechen Sie, wie Sie Ihre Datenpipelines mit Cloud Data Fusion und Cloud Composer verwalten k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Fassen Sie zusammen, wie Cloud Data Fusion es Datenanalysten und ETL-Entwicklern erm&amp;ouml;glicht, Daten zu verarbeiten und Pipelines auf visuelle Art und Weise zu erstellen.&lt;/li&gt;&lt;li&gt;Beschreiben Sie, wie Cloud Composer bei der Orchestrierung der Arbeit &amp;uuml;ber mehrere Google Cloud-Dienste hinweg helfen kann.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Aufbau und Ausf&amp;uuml;hrung eines Pipeline-Graphen in der Datenfusion&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Eine Einf&amp;uuml;hrung in Cloud Composer&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 14 - Einf&amp;uuml;hrung in die Verarbeitung von Streaming-Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verarbeitung von Streaming-Daten&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die Streaming-Datenverarbeitung.&lt;/li&gt;&lt;li&gt;Identifizieren Sie die Google Cloud-Produkte und -Tools, die bei der Bew&amp;auml;ltigung von Streaming-Daten-Herausforderungen helfen k&amp;ouml;nnen.&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 15 - Serverloses Messaging mit Pub/Sub&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung in Pub/Sub&lt;/li&gt;&lt;li&gt;Pub/Sub push versus pull&lt;/li&gt;&lt;li&gt;Ver&amp;ouml;ffentlichung mit Pub/Sub-Code&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Beschreiben Sie den Pub/Sub-Dienst.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie, wie Pub/Sub funktioniert.&lt;/li&gt;&lt;li&gt;Simulation von Echtzeit-Sensordatenstr&amp;ouml;men mit Pub/Sub.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Streaming-Daten in Pub/Sub ver&amp;ouml;ffentlichen&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 16 - Datenfluss-Streaming-Funktionen&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Herausforderungen bei der Datenverarbeitung&lt;/li&gt;&lt;li&gt;Datenfluss-Fensterung&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Beschreiben Sie den Dataflow-Dienst.&lt;/li&gt;&lt;li&gt;Aufbau einer Stream-Verarbeitungspipeline f&amp;uuml;r Live-Verkehrsdaten.&lt;/li&gt;&lt;li&gt;Demonstration des Umgangs mit versp&amp;auml;teten Daten unter Verwendung von Wasserzeichen, Triggern und Akkumulation.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Streaming-Daten-Pipelines&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 17 - BigQuery- und Bigtable-Streaming-Funktionen mit hohem Durchsatz&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Streaming in BigQuery und Visualisierung der Ergebnisse&lt;/li&gt;&lt;li&gt;Streaming mit hohem Durchsatz mit Bigtable&lt;/li&gt;&lt;li&gt;Optimierung der Bigtable-Leistung&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Beschreiben Sie, wie Sie mit BigQuery und Dashboards Ad-hoc-Analysen f&amp;uuml;r Streaming-Daten durchf&amp;uuml;hren k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Diskutieren Sie Bigtable als L&amp;ouml;sung mit niedriger Latenzzeit.&lt;/li&gt;&lt;li&gt;Beschreiben Sie, wie Sie eine Architektur f&amp;uuml;r Bigtable erstellen und wie Sie Daten in Bigtable einlesen k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Hervorhebung der Leistungs&amp;uuml;berlegungen f&amp;uuml;r die betreffenden Dienste.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Labor: Streaming-Analytik und Dashboards&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Personalisierte E-Mail-Inhalte mit BigQuery Continuous Queries und Gemini generieren&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Streaming Data Pipelines in Bigtable&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 18 - Erweiterte BigQuery-Funktionen und -Leistung&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Analytische Fensterfunktionen&lt;/li&gt;&lt;li&gt;GIS-Funktionen&lt;/li&gt;&lt;li&gt;&amp;Uuml;berlegungen zur Leistung&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie einige der erweiterten Analysefunktionen von BigQuery.&lt;/li&gt;&lt;li&gt;Er&amp;ouml;rterung von M&amp;ouml;glichkeiten zur Verbesserung der Abfrageleistung.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Optimieren Ihrer BigQuery-Abfragen f&amp;uuml;r die Leistung&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/google-degcp&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>- Entwurf und Aufbau von Datenverarbeitungssystemen in der Google Cloud.
- Verarbeiten Sie Batch- und Streaming-Daten durch die Implementierung automatisch skalierender Datenpipelines auf Dataflow.
- Gewinnen Sie mit BigQuery Erkenntnisse aus extrem grossen Datensätzen.
- Nutzen Sie unstrukturierte Daten mit Spark und ML-APIs auf Dataproc.
- Ermöglichen Sie sofortige Einblicke aus Streaming-Daten.</objective_plain><essentials_plain>- Frühere Erfahrungen mit Google Cloud unter Verwendung von Cloud Shell und Zugriff auf Produkte über die Google Cloud-Konsole.
- Grundkenntnisse in einer gängigen Abfragesprache wie SQL.
- Erfahrung mit Datenmodellierung und ETL-Aktivitäten (Extrahieren, Transformieren, Laden).
- Erfahrung in der Entwicklung von Anwendungen in einer gängigen Programmiersprache wie Python</essentials_plain><audience_plain>- Daten-Ingenieure
- Datenbank-Administratoren
- Systemadministratoren</audience_plain><outline_plain>Modul 01 - Aufgaben und Komponenten der Datentechnik


Themen:



- Die Rolle des Dateningenieurs
- Datenquellen versus Datensynchronisation
- Datenformate
- Optionen für Speicherlösungen in der Google Cloud
- Optionen für die Verwaltung von Metadaten in der Google Cloud
- Gemeinsame Nutzung von Datensätzen über Analytics Hub
Zielsetzungen:



- Erklären Sie die Rolle eines Dateningenieurs.
- die Unterschiede zwischen einer Datenquelle und einer Datensenke zu verstehen.
- Erklären Sie die verschiedenen Arten von Datenformaten.
- Erklären Sie die Optionen für Speicherlösungen in der Google Cloud.
- Erfahren Sie mehr über die Möglichkeiten der Metadatenverwaltung in Google Cloud.
- Verstehen Sie, wie Sie mit Analytics Hub problemlos Datensätze gemeinsam nutzen können.
- Verstehen, wie man Daten mit der Google Cloud-Konsole und/oder der gcloud CLI in BigQuery lädt.
Aktivitäten:



- Übung: Laden von Daten in BigQuery
Modul 02 - Datenreplikation und -migration


Themen:



- Replikations- und Migrationsarchitektur
- Das gcloud-Befehlszeilenwerkzeug
- Verschieben von Datensätzen
- Datastream
Zielsetzungen:



- Erklären Sie die grundlegende Datenreplikations- und Migrationsarchitektur der Google Cloud.
- die Optionen und Anwendungsfälle für das gcloud-Befehlszeilentool zu verstehen.
- Erläutern Sie die Funktionalität und die Anwendungsfälle für den Speicherübertragungsdienst.
- Erläutern Sie die Funktionen und Anwendungsfälle für die Transfer Appliance.
- Verstehen Sie die Funktionen und den Einsatz von Datastream.
Aktivitäten:



- Lab: Datastream: PostgreSQL Replikation auf BigQuery
Modul 03 - Das Muster der Pipeline für das Extrahieren und Laden von Daten


Themen:



- Architektur extrahieren und laden
- Das bq Kommandozeilenwerkzeug
- BigQuery-Datenübertragungsdienst
- BigLake
Zielsetzungen:



- Erläutern Sie das Grundlinienextrakt- und Lastarchitekturdiagramm.
- die Optionen des bq Kommandozeilenwerkzeugs zu verstehen.
- Erläutern Sie die Funktionen und Anwendungsfälle für den BigQuery Data Transfer Service.
- Erläutern Sie die Funktionalität und die Anwendungsfälle für BigLake als Nicht-Extract-Load-Muster.
Aktivitäten:



- Labor: BigLake: Qwik Start
Modul 04 - Das Muster der Pipeline für das Extrahieren, Laden und Transformieren von Daten


Themen:



- Architektur zum Extrahieren, Laden und Umwandeln (ELT)
- SQL-Skripterstellung und Zeitplanung mit BigQuery
- Datenformular
Zielsetzungen:



- Erläutern Sie das Grundschema der Extraktions-, Lade- und Transformationsarchitektur.
- Verstehen Sie eine gängige ELT-Pipeline in der Google Cloud.
- Erfahren Sie mehr über die SQL-Skripterstellung und die Planungsfunktionen von BigQuery.
- Erläutern Sie die Funktionen und Anwendungsfälle von Dataform.
Aktivitäten:



- Übung: Erstellen und Ausführen eines SQL-Workflows in Dataform
Modul 05 - Das Muster der Pipeline für das Extrahieren, Transformieren und Laden von Daten


Themen:



- Architektur des Extrahierens, Transformierens und Ladens (ETL)
- Google Cloud GUI-Tools für ETL-Datenpipelines
- Batch-Datenverarbeitung mit Dataproc
- Optionen für die Verarbeitung von Streaming-Daten
- Bigtable und Datenpipelines
Zielsetzungen:



- Erläutern Sie das Grundschema der Extraktions-, Transformations- und Ladearchitektur.
- Lernen Sie die GUI-Tools in Google Cloud kennen, die für ETL-Datenpipelines verwendet werden.
- Erläutern Sie die Batch-Datenverarbeitung mit Dataproc.
- Lernen Sie, Dataproc Serverless for Spark für ETL zu verwenden.
- Erläutern Sie die Möglichkeiten der Streaming-Datenverarbeitung.
- Erklären Sie, welche Rolle Bigtable in Datenpipelines spielt.
Aktivitäten:



- Übung: Dataproc Serverless für Spark verwenden, um BigQuery zu laden
- Übung: Erstellen einer Streaming-Datenpipeline für ein Echtzeit-Dashboard mit Dataflow
Modul 06 - Automatisierungstechniken


Themen:



- Automatisierungsmuster und Optionen für Pipelines
- Cloud Scheduler und Arbeitsabläufe
- Cloud-Komponist
- Cloud Run-Funktionen
- Eventarc
Zielsetzungen:



- Erklären Sie die Automatisierungsmuster und -optionen, die für Pipelines verfügbar sind.
- Erfahren Sie mehr über Cloud Scheduler und Workflows.
- Erfahren Sie mehr über Cloud Composer.
- Lernen Sie die Funktionen von Cloud Run kennen.
- Erläutern Sie die Funktionalität und die Anwendungsfälle der Automatisierung von Eventarc.
Aktivitäten:



- Übung: Verwenden von Cloud Run Functions zum Laden von BigQuery
Modul 07 - Einführung in die Datentechnik


Themen:



- Die Rolle des Dateningenieurs
- Herausforderungen der Datentechnik
- Einführung in BigQuery
- Data Lakes und Data Warehouses
- Transaktionsdatenbanken versus Data Warehouses
- Effiziente Partnerschaft mit anderen Datenteams
- Verwaltung von Datenzugang und Governance
- Aufbau von produktionsreifen Pipelines
- Google Cloud Kundenfallstudie
Zielsetzungen:



- Erörtern Sie die Herausforderungen der Datentechnik und wie der Aufbau von Datenpipelines in der Cloud dazu beiträgt, diese zu bewältigen.
- Überprüfen und verstehen Sie den Zweck eines Data Lake im Vergleich zu einem Data Warehouse und wann Sie welches einsetzen sollten.
Aktivitäten:



- Übung: BigQuery für die Analyse verwenden
Modul 08 - Aufbau eines Data Lake


Themen:



- Einführung in Data Lakes
- Datenspeicherung und ETL-Optionen in der Google Cloud
- Aufbau eines Data Lake mit Cloud Storage
- Sicherer Cloud-Speicher
- Alle Arten von Datentypen speichern
- Cloud SQL als Ihr OLTP-System
Zielsetzungen:



- Diskutieren Sie, warum Cloud Storage eine gute Option für den Aufbau eines Data Lake in der Google Cloud ist.
- Erläutern Sie, wie Sie Cloud SQL für einen relationalen Datensee verwenden können.
Aktivitäten:



- Übung: Laden von Taxidaten in Cloud SQL
Modul 09 - Aufbau eines Data Warehouse


Themen:



- Das moderne Data Warehouse
- Einführung in BigQuery
- Erste Schritte mit BigQuery
- Laden von Daten in BigQuery
- Erkundung von Schemata
- Entwurf des Schemas
- Verschachtelte und wiederholte Felder
- Optimierung mit Partitionierung und Clustering
Zielsetzungen:



- Erörterung der Anforderungen an ein modernes Lager.
- Erklären Sie, warum BigQuery die skalierbare Data-Warehousing-Lösung in der Google Cloud ist.
- Besprechung der Kernkonzepte von BigQuery und Überprüfung der Optionen zum Laden von Daten in BigQuery.
Aktivitäten:



- Übung: Arbeiten mit JSON- und Array-Daten in BigQuery
- Übung: Partitionierte Tabellen in BigQuery
Modul 10 - Einführung in die Erstellung von Batch-Datenpipelines


Themen:



- EL, ELT, ETL
- Überlegungen zur Qualität
- Möglichkeiten der Ausführung von Operationen in BigQuery
- Unzulänglichkeiten
- ETL zur Lösung von Datenqualitätsproblemen
Zielsetzungen:



- Überprüfen Sie verschiedene Methoden zum Laden von Daten in Ihre Data Lakes und Warehouses: EL, ELT und ETL.
Modul 11 - Ausführen von Spark auf Dataproc


Themen:



- Das Hadoop-Ökosystem
- Hadoop auf Dataproc ausführen
- Cloud-Speicher anstelle von HDFS
- Optimieren Sie Dataproc
Zielsetzungen:



- Überprüfen Sie das Hadoop-Ökosystem.
- Diskutieren Sie, wie Sie Ihre bestehenden Hadoop-Workloads mit Dataproc in die Cloud verlagern können.
- Erläutern Sie, wann Sie Cloud-Speicher anstelle von HDFS-Speicher verwenden würden.
- Erläutern Sie, wie Sie Dataproc-Aufträge optimieren können.
Aktivitäten:



- Übung: Ausführen von Apache Spark-Aufträgen auf Dataproc
Modul 12 - Serverlose Datenverarbeitung mit Dataflow


Themen:



- Einführung in den Datenfluss
- Gründe, warum Kunden Dataflow schätzen
- Datenfluss-Pipelines
- Aggregieren mit GroupByKey und Kombinieren
- Seitliche Eingänge und Fenster
- Datenfluss-Vorlagen
Zielsetzungen:



- Identifizieren Sie die Funktionen, die Kunden an Dataflow schätzen.
- Diskutieren Sie die Kernkonzepte von Dataflow.
- Überprüfen Sie die Verwendung von Dataflow-Vorlagen und SQL.
- Schreiben Sie eine einfache Dataflow-Pipeline und führen Sie sie sowohl lokal als auch in der Cloud aus.
- Identifizieren von Map- und Reduce-Operationen, Ausführen der Pipeline und Verwenden von Befehlszeilenparametern.
- Lesen Sie Daten aus BigQuery in Dataflow und verwenden Sie die Ausgabe einer Pipeline als Nebeneingang für eine andere Pipeline.
Aktivitäten:



- Lab: A Simple Dataflow Pipeline (Python/Java)
- Übung: MapReduce in Beam (Python/Java)
- Lab: Side Inputs (Python/Java)
Modul 13 - Verwalten von Datenpipelines mit Cloud Data Fusion und Cloud Composer


Themen:



- Visuelle Erstellung von Batch-Datenpipelines mit Cloud Data Fusion
- Komponenten
- UI-Übersicht
- Aufbau einer Pipeline
- Daten mit Wrangler erforschen
- Orchestrierung der Arbeit zwischen Google Cloud-Diensten mit Cloud Composer
- Apache Airflow-Umgebung
- DAGs und Operatoren
- Workflow-Planung
- Überwachung und Protokollierung
Zielsetzungen:



- Besprechen Sie, wie Sie Ihre Datenpipelines mit Cloud Data Fusion und Cloud Composer verwalten können.
- Fassen Sie zusammen, wie Cloud Data Fusion es Datenanalysten und ETL-Entwicklern ermöglicht, Daten zu verarbeiten und Pipelines auf visuelle Art und Weise zu erstellen.
- Beschreiben Sie, wie Cloud Composer bei der Orchestrierung der Arbeit über mehrere Google Cloud-Dienste hinweg helfen kann.
Aktivitäten:



- Übung: Aufbau und Ausführung eines Pipeline-Graphen in der Datenfusion
- Übung: Eine Einführung in Cloud Composer
Modul 14 - Einführung in die Verarbeitung von Streaming-Daten


Themen:



- Verarbeitung von Streaming-Daten
Zielsetzungen:



- Erklären Sie die Streaming-Datenverarbeitung.
- Identifizieren Sie die Google Cloud-Produkte und -Tools, die bei der Bewältigung von Streaming-Daten-Herausforderungen helfen können.
Modul 15 - Serverloses Messaging mit Pub/Sub


Themen:



- Einführung in Pub/Sub
- Pub/Sub push versus pull
- Veröffentlichung mit Pub/Sub-Code
Zielsetzungen:



- Beschreiben Sie den Pub/Sub-Dienst.
- Erklären Sie, wie Pub/Sub funktioniert.
- Simulation von Echtzeit-Sensordatenströmen mit Pub/Sub.
Aktivitäten:



- Übung: Streaming-Daten in Pub/Sub veröffentlichen
Modul 16 - Datenfluss-Streaming-Funktionen


Themen:



- Herausforderungen bei der Datenverarbeitung
- Datenfluss-Fensterung
Zielsetzungen:



- Beschreiben Sie den Dataflow-Dienst.
- Aufbau einer Stream-Verarbeitungspipeline für Live-Verkehrsdaten.
- Demonstration des Umgangs mit verspäteten Daten unter Verwendung von Wasserzeichen, Triggern und Akkumulation.
Aktivitäten:



- Übung: Streaming-Daten-Pipelines
Modul 17 - BigQuery- und Bigtable-Streaming-Funktionen mit hohem Durchsatz


Themen:



- Streaming in BigQuery und Visualisierung der Ergebnisse
- Streaming mit hohem Durchsatz mit Bigtable
- Optimierung der Bigtable-Leistung
Zielsetzungen:



- Beschreiben Sie, wie Sie mit BigQuery und Dashboards Ad-hoc-Analysen für Streaming-Daten durchführen können.
- Diskutieren Sie Bigtable als Lösung mit niedriger Latenzzeit.
- Beschreiben Sie, wie Sie eine Architektur für Bigtable erstellen und wie Sie Daten in Bigtable einlesen können.
- Hervorhebung der Leistungsüberlegungen für die betreffenden Dienste.
Aktivitäten:



- Labor: Streaming-Analytik und Dashboards
- Übung: Personalisierte E-Mail-Inhalte mit BigQuery Continuous Queries und Gemini generieren
- Übung: Streaming Data Pipelines in Bigtable
Modul 18 - Erweiterte BigQuery-Funktionen und -Leistung


Themen:



- Analytische Fensterfunktionen
- GIS-Funktionen
- Überlegungen zur Leistung
Zielsetzungen:



- Überprüfen Sie einige der erweiterten Analysefunktionen von BigQuery.
- Erörterung von Möglichkeiten zur Verbesserung der Abfrageleistung.
Aktivitäten:



- Übung: Optimieren Ihrer BigQuery-Abfragen für die Leistung</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="4">4 Tage</duration><pricelist><price country="IT" currency="EUR">2600.00</price><price country="DE" currency="EUR">2600.00</price><price country="NL" currency="EUR">2695.00</price><price country="BE" currency="EUR">2695.00</price><price country="AT" currency="EUR">2600.00</price><price country="US" currency="USD">2495.00</price><price country="ES" currency="EUR">1950.00</price><price country="SG" currency="SGD">3450.00</price><price country="SE" currency="EUR">2600.00</price><price country="AE" currency="USD">2600.00</price><price country="CH" currency="CHF">3380.00</price><price country="IN" currency="USD">1500.00</price><price country="RU" currency="RUB">221000.00</price><price country="IL" currency="ILS">9020.00</price><price country="GR" currency="EUR">1950.00</price><price country="MK" currency="EUR">1950.00</price><price country="HU" currency="EUR">1950.00</price><price country="SI" currency="EUR">2600.00</price><price country="GB" currency="GBP">2640.00</price><price country="CA" currency="CAD">3445.00</price><price country="FR" currency="EUR">2990.00</price></pricelist><miles/></course>