<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="33331" language="de" source="https://portal.flane.ch/swisscom/xml-course/google-irap" lastchanged="2025-07-29T12:18:23+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Introduction to Responsible AI in Practice</title><productcode>IRAP</productcode><vendorcode>GO</vendorcode><vendorname>Google</vendorname><fullproductcode>GO-IRAP</fullproductcode><version>1.0</version><objective>&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berblick &amp;uuml;ber die Grunds&amp;auml;tze und Praktiken von Responsible AI&lt;/li&gt;&lt;li&gt;Implementierung von Verfahren zur &amp;Uuml;berpr&amp;uuml;fung auf unlautere Verzerrungen in Modellen des maschinellen Lernens&lt;/li&gt;&lt;li&gt;Erforschung von Techniken zur Interpretation des Verhaltens von Modellen des maschinellen Lernens in einer f&amp;uuml;r den Menschen verst&amp;auml;ndlichen Weise&lt;/li&gt;&lt;li&gt;Schaffung von Prozessen, die den Schutz sensibler Daten in Anwendungen f&amp;uuml;r maschinelles Lernen gew&amp;auml;hrleisten&lt;/li&gt;&lt;li&gt;Verstehen von Techniken zur Gew&amp;auml;hrleistung der Sicherheit generativer KI-gest&amp;uuml;tzter Anwendungen&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;p&gt;Um diesen Kurs optimal nutzen zu k&amp;ouml;nnen, sollten die Teilnehmer folgende Voraussetzungen erf&amp;uuml;llen
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens&lt;/li&gt;&lt;li&gt;Vertrautheit mit grundlegenden Konzepten der generativen KI auf Google Cloud in Vertex AI&lt;/li&gt;&lt;/ul&gt;</essentials><audience>&lt;p&gt;Praktiker des maschinellen Lernens und Entwickler von KI-Anwendungen, die generative KI auf verantwortungsvolle Weise nutzen m&amp;ouml;chten.&lt;/p&gt;</audience><outline>&lt;h4&gt;Modul 1 - KI-Prinzipien und verantwortungsvolle KI&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;Die KI-Grunds&amp;auml;tze von Google&lt;/li&gt;&lt;li&gt;Verantwortungsvolle AI-Praktiken&lt;/li&gt;&lt;li&gt;Allgemeine bew&amp;auml;hrte Praktiken&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 2 - Fairness in der KI&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berblick &amp;uuml;ber Fairness in der KI&lt;/li&gt;&lt;li&gt;Beispiele f&amp;uuml;r Instrumente zur Untersuchung der Fairness von Datens&amp;auml;tzen und Modellen&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: TensorFlow-Datenvalidierung und TensorFlow-Modellanalyse zur Sicherstellung der Fairness verwenden&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 3 - Interpretierbarkeit von AI&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berblick &amp;uuml;ber die Interpretierbarkeit in der KI&lt;/li&gt;&lt;li&gt;Auswahl der Metrik&lt;/li&gt;&lt;li&gt;Taxonomie der Erkl&amp;auml;rbarkeit in ML-Modellen&lt;/li&gt;&lt;li&gt;Beispiele f&amp;uuml;r Instrumente zur Untersuchung der Interpretierbarkeit&lt;/li&gt;&lt;li&gt;&amp;Uuml;bung: Werkzeug zum Erlernen der Interpretierbarkeit von Textzusammenfassungen&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 4 - Datenschutz in ML&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berblick in Datenschutz in ML&lt;/li&gt;&lt;li&gt;Sicherheit der Daten&lt;/li&gt;&lt;li&gt;Modell Sicherheit&lt;/li&gt;&lt;li&gt;Sicherheit f&amp;uuml;r generative KI in der Google Cloud&lt;/li&gt;&lt;/ul&gt;&lt;h4&gt;Modul 5 - AI-Sicherheit&lt;/h4&gt;&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berblick &amp;uuml;ber die AI-Sicherheit&lt;/li&gt;&lt;li&gt;Widerspr&amp;uuml;chliche Tests&lt;/li&gt;&lt;li&gt;Sicherheit im Gen AI Studio&lt;/li&gt;&lt;li&gt;Labor: Verantwortungsvolle KI mit Gen AI Studio&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/google-irap&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>- Überblick über die Grundsätze und Praktiken von Responsible AI
- Implementierung von Verfahren zur Überprüfung auf unlautere Verzerrungen in Modellen des maschinellen Lernens
- Erforschung von Techniken zur Interpretation des Verhaltens von Modellen des maschinellen Lernens in einer für den Menschen verständlichen Weise
- Schaffung von Prozessen, die den Schutz sensibler Daten in Anwendungen für maschinelles Lernen gewährleisten
- Verstehen von Techniken zur Gewährleistung der Sicherheit generativer KI-gestützter Anwendungen</objective_plain><essentials_plain>Um diesen Kurs optimal nutzen zu können, sollten die Teilnehmer folgende Voraussetzungen erfüllen



- Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens
- Vertrautheit mit grundlegenden Konzepten der generativen KI auf Google Cloud in Vertex AI</essentials_plain><audience_plain>Praktiker des maschinellen Lernens und Entwickler von KI-Anwendungen, die generative KI auf verantwortungsvolle Weise nutzen möchten.</audience_plain><outline_plain>Modul 1 - KI-Prinzipien und verantwortungsvolle KI


- Die KI-Grundsätze von Google
- Verantwortungsvolle AI-Praktiken
- Allgemeine bewährte Praktiken
Modul 2 - Fairness in der KI


- Überblick über Fairness in der KI
- Beispiele für Instrumente zur Untersuchung der Fairness von Datensätzen und Modellen
- Übung: TensorFlow-Datenvalidierung und TensorFlow-Modellanalyse zur Sicherstellung der Fairness verwenden
Modul 3 - Interpretierbarkeit von AI


- Überblick über die Interpretierbarkeit in der KI
- Auswahl der Metrik
- Taxonomie der Erklärbarkeit in ML-Modellen
- Beispiele für Instrumente zur Untersuchung der Interpretierbarkeit
- Übung: Werkzeug zum Erlernen der Interpretierbarkeit von Textzusammenfassungen
Modul 4 - Datenschutz in ML


- Überblick in Datenschutz in ML
- Sicherheit der Daten
- Modell Sicherheit
- Sicherheit für generative KI in der Google Cloud
Modul 5 - AI-Sicherheit


- Überblick über die AI-Sicherheit
- Widersprüchliche Tests
- Sicherheit im Gen AI Studio
- Labor: Verantwortungsvolle KI mit Gen AI Studio</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="1">1 Tag</duration><pricelist><price country="SI" currency="EUR">650.00</price><price country="NL" currency="EUR">695.00</price><price country="BE" currency="EUR">695.00</price><price country="CH" currency="CHF">850.00</price><price country="AT" currency="EUR">950.00</price><price country="SE" currency="EUR">950.00</price><price country="DE" currency="EUR">950.00</price><price country="FR" currency="EUR">790.00</price></pricelist><miles/></course>