<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="35303" language="de" source="https://portal.flane.ch/swisscom/xml-course/google-ideg" lastchanged="2026-03-30T20:05:43+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Introduction to Data Engineering on Google Cloud</title><productcode>IDEG</productcode><vendorcode>GO</vendorcode><vendorname>Google</vendorname><fullproductcode>GO-IDEG</fullproductcode><version>1.0</version><objective>&lt;ul&gt;
&lt;li&gt;Verstehen Sie die Rolle eines Dateningenieurs.&lt;/li&gt;&lt;li&gt;Identifizierung von Data-Engineering-Aufgaben und Kernkomponenten, die in Google Cloud verwendet werden.&lt;/li&gt;&lt;li&gt;Verstehen Sie, wie man Datenpipelines mit unterschiedlichen Mustern in Google Cloud erstellt und einsetzt.&lt;/li&gt;&lt;li&gt;Identifizieren und nutzen Sie verschiedene Automatisierungstechniken in Google Cloud.&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;ul&gt;
&lt;li&gt;Grundlegende Erfahrung mit Google Cloud unter Verwendung von Cloud Shell und Zugriff auf Produkte &amp;uuml;ber die Google Cloud-Konsole.&lt;/li&gt;&lt;li&gt;Grundkenntnisse in einer g&amp;auml;ngigen Abfragesprache wie SQL.&lt;/li&gt;&lt;li&gt;Erfahrung mit Datenmodellierung und ETL-Aktivit&amp;auml;ten (Extrahieren, Transformieren, Laden).&lt;/li&gt;&lt;li&gt;Erfahrung in der Entwicklung von Anwendungen mit einer g&amp;auml;ngigen Programmiersprache wie Python.&lt;/li&gt;&lt;/ul&gt;</essentials><audience>&lt;ul&gt;
&lt;li&gt;Daten-Ingenieure&lt;/li&gt;&lt;li&gt;Datenbank-Administratoren&lt;/li&gt;&lt;li&gt;Systemadministratoren&lt;/li&gt;&lt;/ul&gt;</audience><outline>&lt;h4&gt;Modul 1 - Data-Engineering-Aufgaben und -Komponenten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Rolle des Dateningenieurs&lt;/li&gt;&lt;li&gt;Datenquellen versus Datensenken&lt;/li&gt;&lt;li&gt;Datenformate&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r Speicherl&amp;ouml;sungen in der Google Cloud&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r die Verwaltung von Metadaten in der Google Cloud&lt;/li&gt;&lt;li&gt;Gemeinsame Nutzung von Datens&amp;auml;tzen mit Analytics Hub&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die Rolle eines Dateningenieurs.&lt;/li&gt;&lt;li&gt;die Unterschiede zwischen einer Datenquelle und einer Datensenke zu verstehen.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie die verschiedenen Arten von Datenformaten.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie die Optionen f&amp;uuml;r Speicherl&amp;ouml;sungen in der Google Cloud.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber die M&amp;ouml;glichkeiten der Metadatenverwaltung in Google Cloud.&lt;/li&gt;&lt;li&gt;Verstehen Sie, wie Sie mit Analytics Hub problemlos Datens&amp;auml;tze gemeinsam nutzen k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Verstehen, wie man Daten mit der Google Cloud-Konsole oder der gcloud CLI in BigQuery l&amp;auml;dt.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Laden von Daten in BigQuery&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 2 - Datenreplikation und -migration&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Replikations- und Migrationsarchitektur&lt;/li&gt;&lt;li&gt;Das gcloud-Befehlszeilenwerkzeug&lt;/li&gt;&lt;li&gt;Verschieben von Datens&amp;auml;tzen&lt;/li&gt;&lt;li&gt;Datastream&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die grundlegende Datenreplikations- und Migrationsarchitektur der Google Cloud.&lt;/li&gt;&lt;li&gt;die Optionen und Anwendungsf&amp;auml;lle f&amp;uuml;r das gcloud-Befehlszeilentool zu verstehen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle des Speicher&amp;uuml;bertragungsdienstes.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle der Transfer Appliance.&lt;/li&gt;&lt;li&gt;Verstehen Sie die Funktionen und den Einsatz von Datastream.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Labor: Datastream: PostgreSQL-Replikation zu BigQuery (optional f&amp;uuml;r ILT)&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 3 - Das Pipeline-Muster zum Extrahieren und Laden von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur extrahieren und laden&lt;/li&gt;&lt;li&gt;Das bq-Befehlszeilenwerkzeug&lt;/li&gt;&lt;li&gt;BigQuery-Daten&amp;uuml;bertragungsdienst&lt;/li&gt;&lt;li&gt;BigLake&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Diagramm der Grundlinienextraktion und -lastarchitektur.&lt;/li&gt;&lt;li&gt;die Optionen des Befehlszeilenprogramms bq verstehen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle f&amp;uuml;r den BigQuery Data Transfer Service.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle f&amp;uuml;r BigLake als Nicht-Extract-Load-Muster.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Labor: BigLake: Qwik Start&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 4 - Das Pipeline-Muster zum Extrahieren, Laden und Transformieren von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur zum Extrahieren, Laden und Umwandeln (ELT)&lt;/li&gt;&lt;li&gt;SQL-Skripterstellung und Zeitplanung mit BigQuery&lt;/li&gt;&lt;li&gt;Datenformular&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Grundschema der Extraktions-, Lade- und Transformationsarchitektur.&lt;/li&gt;&lt;li&gt;Verstehen Sie eine g&amp;auml;ngige ELT-Pipeline in der Google Cloud.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber die SQL-Skripterstellung und die Planungsfunktionen von BigQuery.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionen und Anwendungsf&amp;auml;lle von Dataform.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Erstellen und Ausf&amp;uuml;hren eines SQL-Workflows in Dataform&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 5 - Das Pipeline-Muster zum Extrahieren, Transformieren und Laden von Daten&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Architektur des Extrahierens, Transformierens und Ladens (ETL)&lt;/li&gt;&lt;li&gt;Google Cloud GUI-Tools f&amp;uuml;r ETL-Datenpipelines&lt;/li&gt;&lt;li&gt;Batch-Datenverarbeitung mit Dataproc&lt;/li&gt;&lt;li&gt;Optionen f&amp;uuml;r die Verarbeitung von Streaming-Daten&lt;/li&gt;&lt;li&gt;Bigtable und Datenpipelines&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erl&amp;auml;utern Sie das Grundschema der Extraktions-, Transformations- und Ladearchitektur.&lt;/li&gt;&lt;li&gt;Lernen Sie die GUI-Tools von Google Cloud kennen, die f&amp;uuml;r ETL-Datenpipelines verwendet werden.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Batch-Datenverarbeitung mit Dataproc.&lt;/li&gt;&lt;li&gt;Erfahren Sie, wie Sie Dataproc Serverless for Spark f&amp;uuml;r ETL verwenden k&amp;ouml;nnen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die M&amp;ouml;glichkeiten der Streaming-Datenverarbeitung.&lt;/li&gt;&lt;li&gt;Erkl&amp;auml;ren Sie, welche Rolle Bigtable in Datenpipelines spielt.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Verwenden von Dataproc Serverless for Spark zum Laden von BigQuery (optional f&amp;uuml;r ILT)&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Erstellen einer Streaming-Datenpipeline f&amp;uuml;r ein Echtzeit-Dashboard mit Dataflow&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 6 - Automation Techniques&lt;/h4&gt;&lt;p&gt;
&lt;strong&gt;Themen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Automatisierungsmuster und Optionen f&amp;uuml;r Pipelines&lt;/li&gt;&lt;li&gt;Cloud Scheduler und Arbeitsabl&amp;auml;ufe&lt;/li&gt;&lt;li&gt;Cloud-Komponist&lt;/li&gt;&lt;li&gt;Cloud Run-Funktionen&lt;/li&gt;&lt;li&gt;Eventarc&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zielsetzungen:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erkl&amp;auml;ren Sie die Automatisierungsmuster und -optionen, die f&amp;uuml;r Pipelines verf&amp;uuml;gbar sind.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber Cloud Scheduler und Workflows.&lt;/li&gt;&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber Cloud Composer.&lt;/li&gt;&lt;li&gt;Lernen Sie die Funktionen von Cloud Run kennen.&lt;/li&gt;&lt;li&gt;Erl&amp;auml;utern Sie die Funktionalit&amp;auml;t und die Anwendungsf&amp;auml;lle der Automatisierung von Eventarc.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Aktivit&amp;auml;ten:&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;bung: Verwenden von Cloud Run Functions zum Laden von BigQuery (optional f&amp;uuml;r ILT)&lt;/li&gt;&lt;li&gt;Quiz&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/google-ideg&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>- Verstehen Sie die Rolle eines Dateningenieurs.
- Identifizierung von Data-Engineering-Aufgaben und Kernkomponenten, die in Google Cloud verwendet werden.
- Verstehen Sie, wie man Datenpipelines mit unterschiedlichen Mustern in Google Cloud erstellt und einsetzt.
- Identifizieren und nutzen Sie verschiedene Automatisierungstechniken in Google Cloud.</objective_plain><essentials_plain>- Grundlegende Erfahrung mit Google Cloud unter Verwendung von Cloud Shell und Zugriff auf Produkte über die Google Cloud-Konsole.
- Grundkenntnisse in einer gängigen Abfragesprache wie SQL.
- Erfahrung mit Datenmodellierung und ETL-Aktivitäten (Extrahieren, Transformieren, Laden).
- Erfahrung in der Entwicklung von Anwendungen mit einer gängigen Programmiersprache wie Python.</essentials_plain><audience_plain>- Daten-Ingenieure
- Datenbank-Administratoren
- Systemadministratoren</audience_plain><outline_plain>Modul 1 - Data-Engineering-Aufgaben und -Komponenten


Themen:



- Die Rolle des Dateningenieurs
- Datenquellen versus Datensenken
- Datenformate
- Optionen für Speicherlösungen in der Google Cloud
- Optionen für die Verwaltung von Metadaten in der Google Cloud
- Gemeinsame Nutzung von Datensätzen mit Analytics Hub
Zielsetzungen:



- Erklären Sie die Rolle eines Dateningenieurs.
- die Unterschiede zwischen einer Datenquelle und einer Datensenke zu verstehen.
- Erklären Sie die verschiedenen Arten von Datenformaten.
- Erklären Sie die Optionen für Speicherlösungen in der Google Cloud.
- Erfahren Sie mehr über die Möglichkeiten der Metadatenverwaltung in Google Cloud.
- Verstehen Sie, wie Sie mit Analytics Hub problemlos Datensätze gemeinsam nutzen können.
- Verstehen, wie man Daten mit der Google Cloud-Konsole oder der gcloud CLI in BigQuery lädt.
Aktivitäten:



- Übung: Laden von Daten in BigQuery
- Quiz
Modul 2 - Datenreplikation und -migration


Themen:



- Replikations- und Migrationsarchitektur
- Das gcloud-Befehlszeilenwerkzeug
- Verschieben von Datensätzen
- Datastream
Zielsetzungen:



- Erklären Sie die grundlegende Datenreplikations- und Migrationsarchitektur der Google Cloud.
- die Optionen und Anwendungsfälle für das gcloud-Befehlszeilentool zu verstehen.
- Erläutern Sie die Funktionalität und die Anwendungsfälle des Speicherübertragungsdienstes.
- Erläutern Sie die Funktionen und Anwendungsfälle der Transfer Appliance.
- Verstehen Sie die Funktionen und den Einsatz von Datastream.
Aktivitäten:



- Labor: Datastream: PostgreSQL-Replikation zu BigQuery (optional für ILT)
- Quiz
Modul 3 - Das Pipeline-Muster zum Extrahieren und Laden von Daten


Themen:



- Architektur extrahieren und laden
- Das bq-Befehlszeilenwerkzeug
- BigQuery-Datenübertragungsdienst
- BigLake
Zielsetzungen:



- Erläutern Sie das Diagramm der Grundlinienextraktion und -lastarchitektur.
- die Optionen des Befehlszeilenprogramms bq verstehen.
- Erläutern Sie die Funktionen und Anwendungsfälle für den BigQuery Data Transfer Service.
- Erläutern Sie die Funktionalität und die Anwendungsfälle für BigLake als Nicht-Extract-Load-Muster.
Aktivitäten:



- Labor: BigLake: Qwik Start
- Quiz
Modul 4 - Das Pipeline-Muster zum Extrahieren, Laden und Transformieren von Daten


Themen:



- Architektur zum Extrahieren, Laden und Umwandeln (ELT)
- SQL-Skripterstellung und Zeitplanung mit BigQuery
- Datenformular
Zielsetzungen:



- Erläutern Sie das Grundschema der Extraktions-, Lade- und Transformationsarchitektur.
- Verstehen Sie eine gängige ELT-Pipeline in der Google Cloud.
- Erfahren Sie mehr über die SQL-Skripterstellung und die Planungsfunktionen von BigQuery.
- Erläutern Sie die Funktionen und Anwendungsfälle von Dataform.
Aktivitäten:



- Übung: Erstellen und Ausführen eines SQL-Workflows in Dataform
- Quiz
Modul 5 - Das Pipeline-Muster zum Extrahieren, Transformieren und Laden von Daten


Themen:



- Architektur des Extrahierens, Transformierens und Ladens (ETL)
- Google Cloud GUI-Tools für ETL-Datenpipelines
- Batch-Datenverarbeitung mit Dataproc
- Optionen für die Verarbeitung von Streaming-Daten
- Bigtable und Datenpipelines
Zielsetzungen:



- Erläutern Sie das Grundschema der Extraktions-, Transformations- und Ladearchitektur.
- Lernen Sie die GUI-Tools von Google Cloud kennen, die für ETL-Datenpipelines verwendet werden.
- Erläutern Sie die Batch-Datenverarbeitung mit Dataproc.
- Erfahren Sie, wie Sie Dataproc Serverless for Spark für ETL verwenden können.
- Erläutern Sie die Möglichkeiten der Streaming-Datenverarbeitung.
- Erklären Sie, welche Rolle Bigtable in Datenpipelines spielt.
Aktivitäten:



- Übung: Verwenden von Dataproc Serverless for Spark zum Laden von BigQuery (optional für ILT)
- Übung: Erstellen einer Streaming-Datenpipeline für ein Echtzeit-Dashboard mit Dataflow
- Quiz
Modul 6 - Automation Techniques


Themen:



- Automatisierungsmuster und Optionen für Pipelines
- Cloud Scheduler und Arbeitsabläufe
- Cloud-Komponist
- Cloud Run-Funktionen
- Eventarc
Zielsetzungen:



- Erklären Sie die Automatisierungsmuster und -optionen, die für Pipelines verfügbar sind.
- Erfahren Sie mehr über Cloud Scheduler und Workflows.
- Erfahren Sie mehr über Cloud Composer.
- Lernen Sie die Funktionen von Cloud Run kennen.
- Erläutern Sie die Funktionalität und die Anwendungsfälle der Automatisierung von Eventarc.
Aktivitäten:



- Übung: Verwenden von Cloud Run Functions zum Laden von BigQuery (optional für ILT)
- Quiz</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="1">1 Tag</duration><pricelist><price country="US" currency="USD">595.00</price><price country="GB" currency="GBP">660.00</price><price country="IT" currency="EUR">650.00</price><price country="CA" currency="CAD">820.00</price><price country="DE" currency="EUR">950.00</price><price country="AT" currency="EUR">950.00</price><price country="SE" currency="EUR">950.00</price><price country="FR" currency="EUR">790.00</price><price country="CH" currency="CHF">950.00</price></pricelist><miles/></course>