{"course":{"productid":34005,"modality":1,"active":true,"language":"de","title":"Implement a Data Analytics Solution with Azure Databricks","productcode":"DP-3011","vendorcode":"MS","vendorname":"Microsoft","fullproductcode":"MS-DP-3011","courseware":{"has_ekit":true,"has_printkit":false,"language":""},"url":"https:\/\/portal.flane.ch\/course\/microsoft-dp-3011","essentials":"<p>Bevor Sie mit diesem Lernpfad beginnen, sollten Sie sich bereits mit den Grundlagen von Python und SQL vertraut machen. Dazu geh&ouml;rt die M&ouml;glichkeit, einfache Python-Skripts zu schreiben und mit allgemeinen Datenstrukturen zu arbeiten sowie SQL-Abfragen zum Filtern, Verkn&uuml;pfen und Aggregieren von Daten zu schreiben. Ein grundlegendes Verst&auml;ndnis g&auml;ngiger Dateiformate wie CSV, JSON oder Parkett hilft auch beim Arbeiten mit Datasets.<\/p>\n<p>Dar&uuml;ber hinaus ist die Vertrautheit mit dem Azure-Portal und den Kerndiensten wie Azure Storage wichtig, zusammen mit einem allgemeinen Bewusstsein f&uuml;r Datenkonzepte wie Batch- und Streamingverarbeitung und strukturierte und unstrukturierte Daten. Obwohl nicht zwingend erforderlich, kann vorherige Erfahrung mit Big Data-Frameworks wie Spark und der Arbeit mit Jupyter-Notizb&uuml;chern den &Uuml;bergang zu Databricks erleichtern.<\/p>","audience":"<p>Dieser Kurs richtet sich an Datenprofis, die ihre F&auml;higkeiten beim Erstellen und Verwalten von Datenl&ouml;sungen auf Azure Databricks st&auml;rken m&ouml;chten. Es ist gut geeignet, wenn Sie Dateningenieur, Datenanalyst oder Entwickler mit einer fr&uuml;heren Erfahrung in Python, SQL und grundlegenden Cloudkonzepten sind und sie &uuml;ber eine kleine Analyse in skalierbare, produktionsf&auml;hige Datenverarbeitung hinausgehen m&ouml;chten. Ganz gleich, ob Ihr Ziel darin besteht, Analyseworkflows zu modernisieren, Pipelines zu optimieren oder Daten im grossen Massstab besser zu verwalten und zu steuern, dieser Lernpfad bietet Ihnen die praktischen F&auml;higkeiten, um erfolgreich zu sein.<\/p>","contents":"<ul>\n<li>Erkunden von Azure Databricks<\/li><li>Durchf&uuml;hren einer Datenanalyse mit Azure Databricks<\/li><li>Verwenden von Apache Spark in Azure Databricks<\/li><li>Verwalten von Daten mit Delta Lake<\/li><li>Erstellen von Lakeflow Declarative Pipelines<\/li><li>Bereitstellen von Workloads mit Lakeflow Jobs<\/li><\/ul>","summary":"<p>In diesem Kurs wird erl&auml;utert, wie Sie Databricks und Apache Spark auf Azure verwenden, um Datenprojekte von der Erkundung bis zur Produktion zu nutzen. Sie lernen, wie Sie mit Spark DataFrames, Spark SQL und PySpark gross angelegte Datens&auml;tze einlesen, transformieren und analysieren und gleichzeitig Vertrauen in die Verwaltung verteilter Datenverarbeitungsprozesse gewinnen. Dabei sammeln Sie praktische Erfahrung mit dem Databricks-Arbeitsbereich, indem Sie in Clustern navigieren sowie Delta-Tabellen erstellen und optimieren. Ausserdem werden Sie sich mit den Datentechnikpraktiken vertraut machen, einschliesslich des Entwerfens von ETL-Pipelines, der Behandlung der Schemaentwicklung und der Erzwingung der Datenqualit&auml;t. Der Kurs verlagert den Schwerpunkt dann auf die Orchestrierung und zeigt Ihnen, wie Sie Workloads mit Lakeflow Jobs und Pipelines automatisieren und verwalten k&ouml;nnen. Um die Dinge abzurunden, erkunden Sie Governance- und Sicherheitsfunktionen wie Unity Catalog und Purview-Integration, um sicherzustellen, dass Sie mit Daten in einer sicheren, gut verwalteten und produktionsf&auml;higen Umgebung arbeiten k&ouml;nnen.<\/p>","essentials_plain":"Bevor Sie mit diesem Lernpfad beginnen, sollten Sie sich bereits mit den Grundlagen von Python und SQL vertraut machen. Dazu geh\u00f6rt die M\u00f6glichkeit, einfache Python-Skripts zu schreiben und mit allgemeinen Datenstrukturen zu arbeiten sowie SQL-Abfragen zum Filtern, Verkn\u00fcpfen und Aggregieren von Daten zu schreiben. Ein grundlegendes Verst\u00e4ndnis g\u00e4ngiger Dateiformate wie CSV, JSON oder Parkett hilft auch beim Arbeiten mit Datasets.\n\nDar\u00fcber hinaus ist die Vertrautheit mit dem Azure-Portal und den Kerndiensten wie Azure Storage wichtig, zusammen mit einem allgemeinen Bewusstsein f\u00fcr Datenkonzepte wie Batch- und Streamingverarbeitung und strukturierte und unstrukturierte Daten. Obwohl nicht zwingend erforderlich, kann vorherige Erfahrung mit Big Data-Frameworks wie Spark und der Arbeit mit Jupyter-Notizb\u00fcchern den \u00dcbergang zu Databricks erleichtern.","audience_plain":"Dieser Kurs richtet sich an Datenprofis, die ihre F\u00e4higkeiten beim Erstellen und Verwalten von Datenl\u00f6sungen auf Azure Databricks st\u00e4rken m\u00f6chten. Es ist gut geeignet, wenn Sie Dateningenieur, Datenanalyst oder Entwickler mit einer fr\u00fcheren Erfahrung in Python, SQL und grundlegenden Cloudkonzepten sind und sie \u00fcber eine kleine Analyse in skalierbare, produktionsf\u00e4hige Datenverarbeitung hinausgehen m\u00f6chten. Ganz gleich, ob Ihr Ziel darin besteht, Analyseworkflows zu modernisieren, Pipelines zu optimieren oder Daten im grossen Massstab besser zu verwalten und zu steuern, dieser Lernpfad bietet Ihnen die praktischen F\u00e4higkeiten, um erfolgreich zu sein.","contents_plain":"- Erkunden von Azure Databricks\n- Durchf\u00fchren einer Datenanalyse mit Azure Databricks\n- Verwenden von Apache Spark in Azure Databricks\n- Verwalten von Daten mit Delta Lake\n- Erstellen von Lakeflow Declarative Pipelines\n- Bereitstellen von Workloads mit Lakeflow Jobs","summary_plain":"In diesem Kurs wird erl\u00e4utert, wie Sie Databricks und Apache Spark auf Azure verwenden, um Datenprojekte von der Erkundung bis zur Produktion zu nutzen. Sie lernen, wie Sie mit Spark DataFrames, Spark SQL und PySpark gross angelegte Datens\u00e4tze einlesen, transformieren und analysieren und gleichzeitig Vertrauen in die Verwaltung verteilter Datenverarbeitungsprozesse gewinnen. Dabei sammeln Sie praktische Erfahrung mit dem Databricks-Arbeitsbereich, indem Sie in Clustern navigieren sowie Delta-Tabellen erstellen und optimieren. Ausserdem werden Sie sich mit den Datentechnikpraktiken vertraut machen, einschliesslich des Entwerfens von ETL-Pipelines, der Behandlung der Schemaentwicklung und der Erzwingung der Datenqualit\u00e4t. Der Kurs verlagert den Schwerpunkt dann auf die Orchestrierung und zeigt Ihnen, wie Sie Workloads mit Lakeflow Jobs und Pipelines automatisieren und verwalten k\u00f6nnen. Um die Dinge abzurunden, erkunden Sie Governance- und Sicherheitsfunktionen wie Unity Catalog und Purview-Integration, um sicherzustellen, dass Sie mit Daten in einer sicheren, gut verwalteten und produktionsf\u00e4higen Umgebung arbeiten k\u00f6nnen.","skill_level":"Intermediate","version":"A","duration":{"unit":"d","value":1,"formatted":"1 Tag"},"pricelist":{"List Price":{"PL":{"country":"PL","currency":"PLN","taxrate":23,"price":1400},"IT":{"country":"IT","currency":"EUR","taxrate":20,"price":490},"DE":{"country":"DE","currency":"EUR","taxrate":19,"price":690},"AT":{"country":"AT","currency":"EUR","taxrate":20,"price":690},"SE":{"country":"SE","currency":"EUR","taxrate":25,"price":690},"US":{"country":"US","currency":"USD","taxrate":null,"price":675},"CA":{"country":"CA","currency":"CAD","taxrate":null,"price":675},"GB":{"country":"GB","currency":"GBP","taxrate":20,"price":940},"NL":{"country":"NL","currency":"EUR","taxrate":21,"price":695},"CH":{"country":"CH","currency":"CHF","taxrate":8.1,"price":420},"SI":{"country":"SI","currency":"EUR","taxrate":20,"price":690},"FR":{"country":"FR","currency":"EUR","taxrate":19.6,"price":950}}},"lastchanged":"2025-12-23T16:01:12+01:00","parenturl":"https:\/\/portal.flane.ch\/swisscom\/json-courses","nexturl_course_schedule":"https:\/\/portal.flane.ch\/swisscom\/json-course-schedule\/34005","source_lang":"de","source":"https:\/\/portal.flane.ch\/swisscom\/json-course\/microsoft-dp-3011"}}