{"course":{"productid":34496,"modality":6,"active":true,"language":"de","title":"Data Parallelism: How to Train Deep Learning Models on Multiple GPUs","productcode":"DPHTDLM","vendorcode":"NV","vendorname":"Nvidia","fullproductcode":"NV-DPHTDLM","courseware":{"has_ekit":false,"has_printkit":true,"language":""},"url":"https:\/\/portal.flane.ch\/course\/nvidia-dphtdlm","objective":"<p>Durch die Teilnahme an diesem Workshop werden Sie:\n<\/p>\n<ul>\n<li>Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgef&uuml;hrt wird<\/li><li>Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu k&ouml;nnen<\/li><li>Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel<\/li><li>Algorithmische &Uuml;berlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden<\/li><\/ul>","essentials":"<p>Erfahrung mit Deep Learning Training mit Python<\/p>","outline":"<p><strong>Einf&uuml;hrung<\/strong>\n<\/p>\n<ul>\n<li>Treffen Sie den Ausbilder.<\/li><li>Erstellen Sie ein Konto unter courses.nvidia.com\/join<\/li><\/ul><p><strong>Stochastischer Gradientenabstieg und die Auswirkungen der Chargengr&ouml;sse<\/strong>\n<\/p>\n<ul>\n<li>Lernen Sie die Bedeutung des stochastischen Gradientenabstiegs beim Training auf mehreren GPUs kennen<\/li><li>Verstehen Sie die Probleme der sequentiellen Single-Thread-Datenverarbeitung und die Theorie der Beschleunigung von Anwendungen durch parallele Verarbeitung.<\/li><li>Verstehen der Verlustfunktion, des Gradientenabstiegs und des stochastischen Gradientenabstiegs (SGD).<\/li><li>Verstehen der Auswirkungen der Stapelgr&ouml;sse auf die Genauigkeit und die Trainingszeit im Hinblick auf die Verwendung auf Multi-GPU-Systemen.<\/li><\/ul><p><strong>Training auf mehreren GPUs mit PyTorch Distributed Data Parallel (DDP)<\/strong>\n<\/p>\n<ul>\n<li>Lernen Sie, wie man mit PyTorch Distributed Data Parallel ein GPU-Training auf mehrere GPUs &uuml;bertr&auml;gt.<\/li><li>Verstehen, wie DDP das Training zwischen mehreren GPUs koordiniert.<\/li><li>Refaktorieren Sie Trainingsprogramme f&uuml;r eine einzelne GPU, damit sie mit DDP auf mehreren GPUs laufen.<\/li><\/ul><p><strong>Beibehaltung der Modellgenauigkeit bei Skalierung auf mehrere GPUs<\/strong>\n<\/p>\n<ul>\n<li>Verstehen und Anwenden wichtiger algorithmischer &Uuml;berlegungen, um die Genauigkeit beim Training auf mehreren GPUs zu erhalten<\/li><li>Verstehen, warum die Genauigkeit bei der Parallelisierung des Trainings auf mehreren GPUs abnehmen kann.<\/li><li>Erlernen und Verstehen von Techniken zur Aufrechterhaltung der Genauigkeit bei der Skalierung des Trainings auf mehrere GPUs.<\/li><\/ul><p><strong>Workshop Bewertung<\/strong>\n<\/p>\n<ul>\n<li>Nutzen Sie, was Sie w&auml;hrend des Workshops gelernt haben: f&uuml;llen Sie die Workshop-Bewertung aus, um ein Kompetenzzertifikat zu erhalten<\/li><\/ul><p><strong>Abschlussbericht<\/strong>\n<\/p>\n<ul>\n<li>Besprechung der wichtigsten Erkenntnisse und abschliessende Fragen.<\/li><li>Nehmen Sie an der Workshop-Umfrage teil.<\/li><\/ul>","comments":"<p><em>Dieser Text wurde automatisiert &uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte <span class=\"cms-link-marked\"><a class=\"fl-href-prod\" href=\"\/swisscom\/en\/course\/nvidia-dphtdlm\"><svg role=\"img\" aria-hidden=\"true\" focusable=\"false\" data-nosnippet class=\"cms-linkmark\"><use xlink:href=\"\/css\/img\/icnset-linkmarks.svg#linkmark\"><\/use><\/svg>hier<\/a><\/span>.<\/em><\/p>","summary":"<p>In diesem Workshop lernen Sie Techniken f&uuml;r datenparalleles Deep-Learning-Training auf mehreren GPUs kennen, um die Trainingszeit f&uuml;r datenintensive Anwendungen zu verk&uuml;rzen. Sie arbeiten mit Deep-Learning-Tools, -Frameworks und -Workflows f&uuml;r das Training neuronaler Netze und lernen, wie Sie die Trainingszeit f&uuml;r Modelle durch die Verteilung von Daten auf mehrere GPUs verk&uuml;rzen und gleichzeitig die Genauigkeit des Trainings auf einer einzigen GPU beibehalten k&ouml;nnen.<\/p>\n<p><em>Bitte beachten Sie, dass eine einmal best&auml;tigte Buchung nicht mehr r&uuml;ckerstattet werden kann. Das bedeutet, dass Sie Ihren Platz f&uuml;r eine Veranstaltung nach der Best&auml;tigung nicht mehr stornieren k&ouml;nnen und keine R&uuml;ckerstattung erfolgt, unabh&auml;ngig von der Teilnahme an der Veranstaltung.<\/em><\/p>","objective_plain":"Durch die Teilnahme an diesem Workshop werden Sie:\n\n\n\n- Verstehen, wie datenparalleles Deep Learning-Training mit mehreren GPUs durchgef\u00fchrt wird\n- Maximaler Durchsatz beim Training, um mehrere GPUs optimal nutzen zu k\u00f6nnen\n- Verteilen Sie das Training auf mehrere GPUs mit Pytorch Distributed Data Parallel\n- Algorithmische \u00dcberlegungen zur Multi-GPU-Trainingsleistung und -genauigkeit verstehen und anwenden","essentials_plain":"Erfahrung mit Deep Learning Training mit Python","outline_plain":"Einf\u00fchrung\n\n\n\n- Treffen Sie den Ausbilder.\n- Erstellen Sie ein Konto unter courses.nvidia.com\/join\nStochastischer Gradientenabstieg und die Auswirkungen der Chargengr\u00f6sse\n\n\n\n- Lernen Sie die Bedeutung des stochastischen Gradientenabstiegs beim Training auf mehreren GPUs kennen\n- Verstehen Sie die Probleme der sequentiellen Single-Thread-Datenverarbeitung und die Theorie der Beschleunigung von Anwendungen durch parallele Verarbeitung.\n- Verstehen der Verlustfunktion, des Gradientenabstiegs und des stochastischen Gradientenabstiegs (SGD).\n- Verstehen der Auswirkungen der Stapelgr\u00f6sse auf die Genauigkeit und die Trainingszeit im Hinblick auf die Verwendung auf Multi-GPU-Systemen.\nTraining auf mehreren GPUs mit PyTorch Distributed Data Parallel (DDP)\n\n\n\n- Lernen Sie, wie man mit PyTorch Distributed Data Parallel ein GPU-Training auf mehrere GPUs \u00fcbertr\u00e4gt.\n- Verstehen, wie DDP das Training zwischen mehreren GPUs koordiniert.\n- Refaktorieren Sie Trainingsprogramme f\u00fcr eine einzelne GPU, damit sie mit DDP auf mehreren GPUs laufen.\nBeibehaltung der Modellgenauigkeit bei Skalierung auf mehrere GPUs\n\n\n\n- Verstehen und Anwenden wichtiger algorithmischer \u00dcberlegungen, um die Genauigkeit beim Training auf mehreren GPUs zu erhalten\n- Verstehen, warum die Genauigkeit bei der Parallelisierung des Trainings auf mehreren GPUs abnehmen kann.\n- Erlernen und Verstehen von Techniken zur Aufrechterhaltung der Genauigkeit bei der Skalierung des Trainings auf mehrere GPUs.\nWorkshop Bewertung\n\n\n\n- Nutzen Sie, was Sie w\u00e4hrend des Workshops gelernt haben: f\u00fcllen Sie die Workshop-Bewertung aus, um ein Kompetenzzertifikat zu erhalten\nAbschlussbericht\n\n\n\n- Besprechung der wichtigsten Erkenntnisse und abschliessende Fragen.\n- Nehmen Sie an der Workshop-Umfrage teil.","comments_plain":"Dieser Text wurde automatisiert \u00fcbersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.","summary_plain":"In diesem Workshop lernen Sie Techniken f\u00fcr datenparalleles Deep-Learning-Training auf mehreren GPUs kennen, um die Trainingszeit f\u00fcr datenintensive Anwendungen zu verk\u00fcrzen. Sie arbeiten mit Deep-Learning-Tools, -Frameworks und -Workflows f\u00fcr das Training neuronaler Netze und lernen, wie Sie die Trainingszeit f\u00fcr Modelle durch die Verteilung von Daten auf mehrere GPUs verk\u00fcrzen und gleichzeitig die Genauigkeit des Trainings auf einer einzigen GPU beibehalten k\u00f6nnen.\n\nBitte beachten Sie, dass eine einmal best\u00e4tigte Buchung nicht mehr r\u00fcckerstattet werden kann. Das bedeutet, dass Sie Ihren Platz f\u00fcr eine Veranstaltung nach der Best\u00e4tigung nicht mehr stornieren k\u00f6nnen und keine R\u00fcckerstattung erfolgt, unabh\u00e4ngig von der Teilnahme an der Veranstaltung.","skill_level":"Beginner","version":"1.0","duration":{"unit":"d","value":1,"formatted":"1 Tag"},"pricelist":{"List Price":{"US":{"country":"US","currency":"USD","taxrate":null,"price":500},"DE":{"country":"DE","currency":"EUR","taxrate":19,"price":500},"AT":{"country":"AT","currency":"EUR","taxrate":20,"price":500},"SE":{"country":"SE","currency":"EUR","taxrate":25,"price":500},"SI":{"country":"SI","currency":"EUR","taxrate":20,"price":500},"GB":{"country":"GB","currency":"GBP","taxrate":20,"price":420},"IT":{"country":"IT","currency":"EUR","taxrate":20,"price":500},"CA":{"country":"CA","currency":"CAD","taxrate":null,"price":690}}},"lastchanged":"2025-07-29T12:18:27+02:00","parenturl":"https:\/\/portal.flane.ch\/swisscom\/json-courses","nexturl_course_schedule":"https:\/\/portal.flane.ch\/swisscom\/json-course-schedule\/34496","source_lang":"de","source":"https:\/\/portal.flane.ch\/swisscom\/json-course\/nvidia-dphtdlm"}}