<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="34005" language="de" source="https://portal.flane.ch/swisscom/xml-course/microsoft-dp-3011" lastchanged="2025-12-23T16:01:12+01:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Implement a Data Analytics Solution with Azure Databricks</title><productcode>DP-3011</productcode><vendorcode>MS</vendorcode><vendorname>Microsoft</vendorname><fullproductcode>MS-DP-3011</fullproductcode><version>A</version><essentials>&lt;p&gt;Bevor Sie mit diesem Lernpfad beginnen, sollten Sie sich bereits mit den Grundlagen von Python und SQL vertraut machen. Dazu geh&amp;ouml;rt die M&amp;ouml;glichkeit, einfache Python-Skripts zu schreiben und mit allgemeinen Datenstrukturen zu arbeiten sowie SQL-Abfragen zum Filtern, Verkn&amp;uuml;pfen und Aggregieren von Daten zu schreiben. Ein grundlegendes Verst&amp;auml;ndnis g&amp;auml;ngiger Dateiformate wie CSV, JSON oder Parkett hilft auch beim Arbeiten mit Datasets.&lt;/p&gt;
&lt;p&gt;Dar&amp;uuml;ber hinaus ist die Vertrautheit mit dem Azure-Portal und den Kerndiensten wie Azure Storage wichtig, zusammen mit einem allgemeinen Bewusstsein f&amp;uuml;r Datenkonzepte wie Batch- und Streamingverarbeitung und strukturierte und unstrukturierte Daten. Obwohl nicht zwingend erforderlich, kann vorherige Erfahrung mit Big Data-Frameworks wie Spark und der Arbeit mit Jupyter-Notizb&amp;uuml;chern den &amp;Uuml;bergang zu Databricks erleichtern.&lt;/p&gt;</essentials><audience>&lt;p&gt;Dieser Kurs richtet sich an Datenprofis, die ihre F&amp;auml;higkeiten beim Erstellen und Verwalten von Datenl&amp;ouml;sungen auf Azure Databricks st&amp;auml;rken m&amp;ouml;chten. Es ist gut geeignet, wenn Sie Dateningenieur, Datenanalyst oder Entwickler mit einer fr&amp;uuml;heren Erfahrung in Python, SQL und grundlegenden Cloudkonzepten sind und sie &amp;uuml;ber eine kleine Analyse in skalierbare, produktionsf&amp;auml;hige Datenverarbeitung hinausgehen m&amp;ouml;chten. Ganz gleich, ob Ihr Ziel darin besteht, Analyseworkflows zu modernisieren, Pipelines zu optimieren oder Daten im grossen Massstab besser zu verwalten und zu steuern, dieser Lernpfad bietet Ihnen die praktischen F&amp;auml;higkeiten, um erfolgreich zu sein.&lt;/p&gt;</audience><contents>&lt;ul&gt;
&lt;li&gt;Erkunden von Azure Databricks&lt;/li&gt;&lt;li&gt;Durchf&amp;uuml;hren einer Datenanalyse mit Azure Databricks&lt;/li&gt;&lt;li&gt;Verwenden von Apache Spark in Azure Databricks&lt;/li&gt;&lt;li&gt;Verwalten von Daten mit Delta Lake&lt;/li&gt;&lt;li&gt;Erstellen von Lakeflow Declarative Pipelines&lt;/li&gt;&lt;li&gt;Bereitstellen von Workloads mit Lakeflow Jobs&lt;/li&gt;&lt;/ul&gt;</contents><essentials_plain>Bevor Sie mit diesem Lernpfad beginnen, sollten Sie sich bereits mit den Grundlagen von Python und SQL vertraut machen. Dazu gehört die Möglichkeit, einfache Python-Skripts zu schreiben und mit allgemeinen Datenstrukturen zu arbeiten sowie SQL-Abfragen zum Filtern, Verknüpfen und Aggregieren von Daten zu schreiben. Ein grundlegendes Verständnis gängiger Dateiformate wie CSV, JSON oder Parkett hilft auch beim Arbeiten mit Datasets.

Darüber hinaus ist die Vertrautheit mit dem Azure-Portal und den Kerndiensten wie Azure Storage wichtig, zusammen mit einem allgemeinen Bewusstsein für Datenkonzepte wie Batch- und Streamingverarbeitung und strukturierte und unstrukturierte Daten. Obwohl nicht zwingend erforderlich, kann vorherige Erfahrung mit Big Data-Frameworks wie Spark und der Arbeit mit Jupyter-Notizbüchern den Übergang zu Databricks erleichtern.</essentials_plain><audience_plain>Dieser Kurs richtet sich an Datenprofis, die ihre Fähigkeiten beim Erstellen und Verwalten von Datenlösungen auf Azure Databricks stärken möchten. Es ist gut geeignet, wenn Sie Dateningenieur, Datenanalyst oder Entwickler mit einer früheren Erfahrung in Python, SQL und grundlegenden Cloudkonzepten sind und sie über eine kleine Analyse in skalierbare, produktionsfähige Datenverarbeitung hinausgehen möchten. Ganz gleich, ob Ihr Ziel darin besteht, Analyseworkflows zu modernisieren, Pipelines zu optimieren oder Daten im grossen Massstab besser zu verwalten und zu steuern, dieser Lernpfad bietet Ihnen die praktischen Fähigkeiten, um erfolgreich zu sein.</audience_plain><contents_plain>- Erkunden von Azure Databricks
- Durchführen einer Datenanalyse mit Azure Databricks
- Verwenden von Apache Spark in Azure Databricks
- Verwalten von Daten mit Delta Lake
- Erstellen von Lakeflow Declarative Pipelines
- Bereitstellen von Workloads mit Lakeflow Jobs</contents_plain><duration unit="d" days="1">1 Tag</duration><pricelist><price country="PL" currency="PLN">1400.00</price><price country="IT" currency="EUR">490.00</price><price country="DE" currency="EUR">690.00</price><price country="AT" currency="EUR">690.00</price><price country="SE" currency="EUR">690.00</price><price country="US" currency="USD">675.00</price><price country="CA" currency="CAD">675.00</price><price country="GB" currency="GBP">940.00</price><price country="NL" currency="EUR">695.00</price><price country="CH" currency="CHF">420.00</price><price country="SI" currency="EUR">690.00</price><price country="FR" currency="EUR">950.00</price></pricelist><miles/></course>