<?xml version="1.0" encoding="utf-8" ?>
<!DOCTYPE FL_Course SYSTEM "https://www.flane.de/dtd/fl_course095.dtd"><?xml-stylesheet type="text/xsl" href="https://portal.flane.ch/css/xml-course.xsl"?><course productid="34499" language="de" source="https://portal.flane.ch/swisscom/xml-course/nvidia-radllm" lastchanged="2025-07-29T12:18:27+02:00" parent="https://portal.flane.ch/swisscom/xml-courses"><title>Rapid Application Development Using Large Language Models</title><productcode>RADLLM</productcode><vendorcode>NV</vendorcode><vendorname>Nvidia</vendorname><fullproductcode>NV-RADLLM</fullproductcode><version>1.0</version><objective>&lt;p&gt;Durch die Teilnahme an diesem Workshop werden Sie lernen, wie man:
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Finden Sie das HuggingFace-Modell-Repository und die zugeh&amp;ouml;rige Transformers-API, ziehen Sie es ein und experimentieren Sie damit.&lt;/li&gt;&lt;li&gt;Verwendung von Kodiermodellen f&amp;uuml;r Aufgaben wie semantische Analyse, Einbettung, Fragebeantwortung und Zero-Shot-Klassifizierung&lt;/li&gt;&lt;li&gt;Verwendung von Decodermodellen zur Erzeugung von Sequenzen wie Code, unbegrenzten Antworten und Gespr&amp;auml;chen&lt;/li&gt;&lt;li&gt;Verwenden Sie Techniken zur Verwaltung und Zusammensetzung des Zustands, um LLMs f&amp;uuml;r sichere, effektive und genaue Gespr&amp;auml;che anzuleiten.&lt;/li&gt;&lt;/ul&gt;</objective><essentials>&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrende Deep Learning-Kenntnisse, wobei Kenntnisse in PyTorch und Transfer Learning bevorzugt werden. Die Inhalte der DLI-Kurse Getting Started with Deep Learning oder Fundamentals of Deep Learning oder &amp;auml;hnliche Erfahrungen sind ausreichend.&lt;/li&gt;&lt;li&gt;Fortgeschrittene Python-Kenntnisse, einschliesslich objektorientierter Programmierung und Bibliotheken. Der Inhalt des Python-Tutorials (w3schools.com) oder &amp;auml;hnliche Erfahrungen sind ausreichend.&lt;/li&gt;&lt;/ul&gt;</essentials><outline>&lt;p&gt;&lt;strong&gt;Einf&amp;uuml;hrung&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Treffen Sie den Ausbilder.&lt;/li&gt;&lt;li&gt;Erstellen Sie ein Konto unter courses.nvidia.com/join&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Vom Deep Learning zu grossen Sprachmodellen&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lernen Sie, wie grosse Sprachmodelle aufgebaut sind und wie man sie benutzt:&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fen Sie das Deep Learning und die klassenbasierte Argumentation und sehen Sie, wie die Sprachmodellierung daraus hervorgeht.&lt;/li&gt;&lt;li&gt;Diskutieren Sie Transformator-Architekturen, -Schnittstellen und -Intuitionen sowie deren Skalierung und Ver&amp;auml;nderung, um moderne LLM-L&amp;ouml;sungen zu entwickeln.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Spezialisierte Encoder-Modelle&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lernen Sie, wie Sie die verschiedenen Aufgabenspezifikationen betrachten k&amp;ouml;nnen:&lt;ul&gt;
&lt;li&gt;Entdecken Sie die modernsten HuggingFace-Drehgebermodelle.&lt;/li&gt;&lt;li&gt;Verwenden Sie bereits abgestimmte Modelle f&amp;uuml;r interessante Aufgaben wie Token-Klassifizierung, Sequenzklassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Encoder-Decoder-Modelle f&amp;uuml;r Seq2Seq&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber die Vorhersage von LLMs zur Vorhersage unbegrenzter Sequenzen:&lt;ul&gt;
&lt;li&gt;Einf&amp;uuml;hrung einer Decoderkomponente f&amp;uuml;r die autoregressive Texterzeugung.&lt;/li&gt;&lt;li&gt;Diskutieren Sie Cross-Attention f&amp;uuml;r Sequenz-als-Kontext-Formulierungen.&lt;/li&gt;&lt;li&gt;Er&amp;ouml;rterung allgemeiner Ans&amp;auml;tze f&amp;uuml;r Multi-Tasking, Zero-Shot Reasoning.&lt;/li&gt;&lt;li&gt;Einf&amp;uuml;hrung in die multimodale Formulierung von Sequenzen und Untersuchung einiger Beispiele.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Decodermodelle f&amp;uuml;r die Texterzeugung&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Erfahren Sie mehr &amp;uuml;ber reine Decodermodelle im GPT-Stil und wie sie spezifiziert und verwendet werden k&amp;ouml;nnen:&lt;ul&gt;
&lt;li&gt;Untersuchen Sie, wann ein reiner Decoder sinnvoll ist, und sprechen Sie &amp;uuml;ber Probleme bei der Bildung.&lt;/li&gt;&lt;li&gt;Diskutieren Sie die Gr&amp;ouml;sse des Modells, spezielle Einsatztechniken und &amp;Uuml;berlegungen.&lt;/li&gt;&lt;li&gt;Ziehen Sie einige grosse Textgenerierungsmodelle heran, um zu sehen, wie sie funktionieren.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Zustandsabh&amp;auml;ngige LLMs&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lernen Sie, wie man Sprachmodelle durch Kontextinjektion &amp;uuml;ber stochastische Papageien erhebt:&lt;ul&gt;
&lt;li&gt;Zeigen Sie moderne LLM-Kompositionstechniken f&amp;uuml;r Geschichte und Zustandsverwaltung.&lt;/li&gt;&lt;li&gt;Er&amp;ouml;rterung der abrufgest&amp;uuml;tzten Generierung (RAG) f&amp;uuml;r den Zugriff auf die externe Umgebung.&lt;/li&gt;&lt;/ul&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;strong&gt;Bewertung und Fragen und Antworten&lt;/strong&gt;
&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&amp;Uuml;berpr&amp;uuml;fung der wichtigsten Erkenntnisse.&lt;/li&gt;&lt;li&gt;Nehmen Sie an einer codebasierten Pr&amp;uuml;fung teil, um ein Zertifikat zu erwerben.&lt;/li&gt;&lt;/ul&gt;</outline><comments>&lt;p&gt;&lt;em&gt;Dieser Text wurde automatisiert &amp;uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte &lt;span class=&quot;cms-link-marked&quot;&gt;&lt;a class=&quot;fl-href-prod&quot; href=&quot;/swisscom/en/course/nvidia-radllm&quot;&gt;&lt;svg role=&quot;img&quot; aria-hidden=&quot;true&quot; focusable=&quot;false&quot; data-nosnippet class=&quot;cms-linkmark&quot;&gt;&lt;use xlink:href=&quot;/css/img/icnset-linkmarks.svg#linkmark&quot;&gt;&lt;/use&gt;&lt;/svg&gt;hier&lt;/a&gt;&lt;/span&gt;.&lt;/em&gt;&lt;/p&gt;</comments><objective_plain>Durch die Teilnahme an diesem Workshop werden Sie lernen, wie man:



- Finden Sie das HuggingFace-Modell-Repository und die zugehörige Transformers-API, ziehen Sie es ein und experimentieren Sie damit.
- Verwendung von Kodiermodellen für Aufgaben wie semantische Analyse, Einbettung, Fragebeantwortung und Zero-Shot-Klassifizierung
- Verwendung von Decodermodellen zur Erzeugung von Sequenzen wie Code, unbegrenzten Antworten und Gesprächen
- Verwenden Sie Techniken zur Verwaltung und Zusammensetzung des Zustands, um LLMs für sichere, effektive und genaue Gespräche anzuleiten.</objective_plain><essentials_plain>- Einführende Deep Learning-Kenntnisse, wobei Kenntnisse in PyTorch und Transfer Learning bevorzugt werden. Die Inhalte der DLI-Kurse Getting Started with Deep Learning oder Fundamentals of Deep Learning oder ähnliche Erfahrungen sind ausreichend.
- Fortgeschrittene Python-Kenntnisse, einschliesslich objektorientierter Programmierung und Bibliotheken. Der Inhalt des Python-Tutorials (w3schools.com) oder ähnliche Erfahrungen sind ausreichend.</essentials_plain><outline_plain>Einführung



- Treffen Sie den Ausbilder.
- Erstellen Sie ein Konto unter courses.nvidia.com/join
Vom Deep Learning zu grossen Sprachmodellen



- Lernen Sie, wie grosse Sprachmodelle aufgebaut sind und wie man sie benutzt:
- Überprüfen Sie das Deep Learning und die klassenbasierte Argumentation und sehen Sie, wie die Sprachmodellierung daraus hervorgeht.
- Diskutieren Sie Transformator-Architekturen, -Schnittstellen und -Intuitionen sowie deren Skalierung und Veränderung, um moderne LLM-Lösungen zu entwickeln.
Spezialisierte Encoder-Modelle



- Lernen Sie, wie Sie die verschiedenen Aufgabenspezifikationen betrachten können:
- Entdecken Sie die modernsten HuggingFace-Drehgebermodelle.
- Verwenden Sie bereits abgestimmte Modelle für interessante Aufgaben wie Token-Klassifizierung, Sequenzklassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.
Encoder-Decoder-Modelle für Seq2Seq



- Erfahren Sie mehr über die Vorhersage von LLMs zur Vorhersage unbegrenzter Sequenzen:
- Einführung einer Decoderkomponente für die autoregressive Texterzeugung.
- Diskutieren Sie Cross-Attention für Sequenz-als-Kontext-Formulierungen.
- Erörterung allgemeiner Ansätze für Multi-Tasking, Zero-Shot Reasoning.
- Einführung in die multimodale Formulierung von Sequenzen und Untersuchung einiger Beispiele.
Decodermodelle für die Texterzeugung



- Erfahren Sie mehr über reine Decodermodelle im GPT-Stil und wie sie spezifiziert und verwendet werden können:
- Untersuchen Sie, wann ein reiner Decoder sinnvoll ist, und sprechen Sie über Probleme bei der Bildung.
- Diskutieren Sie die Grösse des Modells, spezielle Einsatztechniken und Überlegungen.
- Ziehen Sie einige grosse Textgenerierungsmodelle heran, um zu sehen, wie sie funktionieren.
Zustandsabhängige LLMs



- Lernen Sie, wie man Sprachmodelle durch Kontextinjektion über stochastische Papageien erhebt:
- Zeigen Sie moderne LLM-Kompositionstechniken für Geschichte und Zustandsverwaltung.
- Erörterung der abrufgestützten Generierung (RAG) für den Zugriff auf die externe Umgebung.
Bewertung und Fragen und Antworten



- Überprüfung der wichtigsten Erkenntnisse.
- Nehmen Sie an einer codebasierten Prüfung teil, um ein Zertifikat zu erwerben.</outline_plain><comments_plain>Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.</comments_plain><duration unit="d" days="1">1 Tag</duration><pricelist><price country="US" currency="USD">500.00</price><price country="DE" currency="EUR">500.00</price><price country="AT" currency="EUR">500.00</price><price country="SE" currency="EUR">500.00</price><price country="SI" currency="EUR">500.00</price><price country="GB" currency="GBP">420.00</price><price country="IT" currency="EUR">995.00</price><price country="CA" currency="CAD">690.00</price></pricelist><miles/></course>