<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="34496" language="de" source="https://portal.flane.ch/swisscom/xml-course/nvidia-dphtdlm" lastchanged="2025-07-29T12:18:27+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Data Parallelism: How to Train Deep Learning Models on Multiple GPUs</title><productcode>DPHTDLM</productcode><vendorcode>NV</vendorcode><vendorname>Nvidia</vendorname><fullproductcode>NV-DPHTDLM</fullproductcode><version>1.0</version><objective>&lt;p&gt;Durch die Teilnahme an diesem Workshop werden Sie:
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgef&amp;uuml;hrt wird&lt;/li&gt;&lt;li&gt;Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu k&amp;ouml;nnen&lt;/li&gt;&lt;li&gt;Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel&lt;/li&gt;&lt;li&gt;Algorithmische &amp;Uuml;berlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;p&gt;Erfahrung mit Deep Learning Training mit Python&lt;/p&gt;</essentials><outline>&lt;p&gt;&lt;strong&gt;Einf&amp;uuml;hrung&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Treffen Sie den Ausbilder.&lt;/li&gt;&lt;li&gt;Erstellen Sie ein Konto unter courses.nvidia.com/join&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Stochastischer Gradientenabstieg und die Auswirkungen der Chargengr&amp;ouml;sse&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lernen Sie die Bedeutung des stochastischen Gradientenabstiegs beim Training auf mehreren GPUs kennen&lt;/li&gt;&lt;li&gt;Verstehen Sie die Probleme der sequentiellen Single-Thread-Datenverarbeitung und die Theorie der Beschleunigung von Anwendungen durch parallele Verarbeitung.&lt;/li&gt;&lt;li&gt;Verstehen der Verlustfunktion, des Gradientenabstiegs und des stochastischen Gradientenabstiegs (SGD).&lt;/li&gt;&lt;li&gt;Verstehen der Auswirkungen der Stapelgr&amp;ouml;sse auf die Genauigkeit und die Trainingszeit im Hinblick auf die Verwendung auf Multi-GPU-Systemen.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Training auf mehreren GPUs mit PyTorch Distributed Data Parallel (DDP)&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lernen Sie, wie man mit PyTorch Distributed Data Parallel ein GPU-Training auf mehrere GPUs &amp;uuml;bertr&amp;auml;gt.&lt;/li&gt;&lt;li&gt;Verstehen, wie DDP das Training zwischen mehreren GPUs koordiniert.&lt;/li&gt;&lt;li&gt;Refaktorieren Sie Trainingsprogramme f&amp;uuml;r eine einzelne GPU, damit sie mit DDP auf mehreren GPUs laufen.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Beibehaltung der Modellgenauigkeit bei Skalierung auf mehrere GPUs&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verstehen und Anwenden wichtiger algorithmischer &amp;Uuml;berlegungen, um die Genauigkeit beim Training auf mehreren GPUs zu erhalten&lt;/li&gt;&lt;li&gt;Verstehen, warum die Genauigkeit bei der Parallelisierung des Trainings auf mehreren GPUs abnehmen kann.&lt;/li&gt;&lt;li&gt;Erlernen und Verstehen von Techniken zur Aufrechterhaltung der Genauigkeit bei der Skalierung des Trainings auf mehrere GPUs.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Workshop Bewertung&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Nutzen Sie, was Sie w&amp;auml;hrend des Workshops gelernt haben: f&amp;uuml;llen Sie die Workshop-Bewertung aus, um ein Kompetenzzertifikat zu erhalten&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Abschlussbericht&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Besprechung der wichtigsten Erkenntnisse und abschliessende Fragen.&lt;/li&gt;&lt;li&gt;Nehmen Sie an der Workshop-Umfrage teil.&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/nvidia-dphtdlm&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>Durch die Teilnahme an diesem Workshop werden Sie:



- Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgeführt wird
- Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu können
- Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel
- Algorithmische Überlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden</objective_plain><essentials_plain>Erfahrung mit Deep Learning Training mit Python</essentials_plain><outline_plain>Einführung



- Treffen Sie den Ausbilder.
- Erstellen Sie ein Konto unter courses.nvidia.com/join
Stochastischer Gradientenabstieg und die Auswirkungen der Chargengrösse



- Lernen Sie die Bedeutung des stochastischen Gradientenabstiegs beim Training auf mehreren GPUs kennen
- Verstehen Sie die Probleme der sequentiellen Single-Thread-Datenverarbeitung und die Theorie der Beschleunigung von Anwendungen durch parallele Verarbeitung.
- Verstehen der Verlustfunktion, des Gradientenabstiegs und des stochastischen Gradientenabstiegs (SGD).
- Verstehen der Auswirkungen der Stapelgrösse auf die Genauigkeit und die Trainingszeit im Hinblick auf die Verwendung auf Multi-GPU-Systemen.
Training auf mehreren GPUs mit PyTorch Distributed Data Parallel (DDP)



- Lernen Sie, wie man mit PyTorch Distributed Data Parallel ein GPU-Training auf mehrere GPUs überträgt.
- Verstehen, wie DDP das Training zwischen mehreren GPUs koordiniert.
- Refaktorieren Sie Trainingsprogramme für eine einzelne GPU, damit sie mit DDP auf mehreren GPUs laufen.
Beibehaltung der Modellgenauigkeit bei Skalierung auf mehrere GPUs



- Verstehen und Anwenden wichtiger algorithmischer Überlegungen, um die Genauigkeit beim Training auf mehreren GPUs zu erhalten
- Verstehen, warum die Genauigkeit bei der Parallelisierung des Trainings auf mehreren GPUs abnehmen kann.
- Erlernen und Verstehen von Techniken zur Aufrechterhaltung der Genauigkeit bei der Skalierung des Trainings auf mehrere GPUs.
Workshop Bewertung



- Nutzen Sie, was Sie während des Workshops gelernt haben: füllen Sie die Workshop-Bewertung aus, um ein Kompetenzzertifikat zu erhalten
Abschlussbericht



- Besprechung der wichtigsten Erkenntnisse und abschliessende Fragen.
- Nehmen Sie an der Workshop-Umfrage teil.</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="1">1 Tag</duration><pricelist><price country="US" currency="USD">500.00</price><price country="DE" currency="EUR">500.00</price><price country="AT" currency="EUR">500.00</price><price country="SE" currency="EUR">500.00</price><price country="SI" currency="EUR">500.00</price><price country="GB" currency="GBP">420.00</price><price country="IT" currency="EUR">500.00</price><price country="CA" currency="CAD">690.00</price></pricelist><miles/></course>