{"course":{"productid":34499,"modality":6,"active":true,"language":"de","title":"Rapid Application Development Using Large Language Models","productcode":"RADLLM","vendorcode":"NV","vendorname":"Nvidia","fullproductcode":"NV-RADLLM","courseware":{"has_ekit":false,"has_printkit":true,"language":""},"url":"https:\/\/portal.flane.ch\/course\/nvidia-radllm","objective":"<p>Durch die Teilnahme an diesem Workshop werden Sie lernen, wie man:\n<\/p>\n<ul>\n<li>Finden Sie das HuggingFace-Modell-Repository und die zugeh&ouml;rige Transformers-API, ziehen Sie es ein und experimentieren Sie damit.<\/li><li>Verwendung von Kodiermodellen f&uuml;r Aufgaben wie semantische Analyse, Einbettung, Fragebeantwortung und Zero-Shot-Klassifizierung<\/li><li>Verwendung von Decodermodellen zur Erzeugung von Sequenzen wie Code, unbegrenzten Antworten und Gespr&auml;chen<\/li><li>Verwenden Sie Techniken zur Verwaltung und Zusammensetzung des Zustands, um LLMs f&uuml;r sichere, effektive und genaue Gespr&auml;che anzuleiten.<\/li><\/ul>","essentials":"<ul>\n<li>Einf&uuml;hrende Deep Learning-Kenntnisse, wobei Kenntnisse in PyTorch und Transfer Learning bevorzugt werden. Die Inhalte der DLI-Kurse Getting Started with Deep Learning oder Fundamentals of Deep Learning oder &auml;hnliche Erfahrungen sind ausreichend.<\/li><li>Fortgeschrittene Python-Kenntnisse, einschliesslich objektorientierter Programmierung und Bibliotheken. Der Inhalt des Python-Tutorials (w3schools.com) oder &auml;hnliche Erfahrungen sind ausreichend.<\/li><\/ul>","outline":"<p><strong>Einf&uuml;hrung<\/strong>\n<\/p>\n<ul>\n<li>Treffen Sie den Ausbilder.<\/li><li>Erstellen Sie ein Konto unter courses.nvidia.com\/join<\/li><\/ul><p><strong>Vom Deep Learning zu grossen Sprachmodellen<\/strong>\n<\/p>\n<ul>\n<li>Lernen Sie, wie grosse Sprachmodelle aufgebaut sind und wie man sie benutzt:<ul>\n<li>&Uuml;berpr&uuml;fen Sie das Deep Learning und die klassenbasierte Argumentation und sehen Sie, wie die Sprachmodellierung daraus hervorgeht.<\/li><li>Diskutieren Sie Transformator-Architekturen, -Schnittstellen und -Intuitionen sowie deren Skalierung und Ver&auml;nderung, um moderne LLM-L&ouml;sungen zu entwickeln.<\/li><\/ul><\/li><\/ul><p><strong>Spezialisierte Encoder-Modelle<\/strong>\n<\/p>\n<ul>\n<li>Lernen Sie, wie Sie die verschiedenen Aufgabenspezifikationen betrachten k&ouml;nnen:<ul>\n<li>Entdecken Sie die modernsten HuggingFace-Drehgebermodelle.<\/li><li>Verwenden Sie bereits abgestimmte Modelle f&uuml;r interessante Aufgaben wie Token-Klassifizierung, Sequenzklassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.<\/li><\/ul><\/li><\/ul><p><strong>Encoder-Decoder-Modelle f&uuml;r Seq2Seq<\/strong>\n<\/p>\n<ul>\n<li>Erfahren Sie mehr &uuml;ber die Vorhersage von LLMs zur Vorhersage unbegrenzter Sequenzen:<ul>\n<li>Einf&uuml;hrung einer Decoderkomponente f&uuml;r die autoregressive Texterzeugung.<\/li><li>Diskutieren Sie Cross-Attention f&uuml;r Sequenz-als-Kontext-Formulierungen.<\/li><li>Er&ouml;rterung allgemeiner Ans&auml;tze f&uuml;r Multi-Tasking, Zero-Shot Reasoning.<\/li><li>Einf&uuml;hrung in die multimodale Formulierung von Sequenzen und Untersuchung einiger Beispiele.<\/li><\/ul><\/li><\/ul><p><strong>Decodermodelle f&uuml;r die Texterzeugung<\/strong>\n<\/p>\n<ul>\n<li>Erfahren Sie mehr &uuml;ber reine Decodermodelle im GPT-Stil und wie sie spezifiziert und verwendet werden k&ouml;nnen:<ul>\n<li>Untersuchen Sie, wann ein reiner Decoder sinnvoll ist, und sprechen Sie &uuml;ber Probleme bei der Bildung.<\/li><li>Diskutieren Sie die Gr&ouml;sse des Modells, spezielle Einsatztechniken und &Uuml;berlegungen.<\/li><li>Ziehen Sie einige grosse Textgenerierungsmodelle heran, um zu sehen, wie sie funktionieren.<\/li><\/ul><\/li><\/ul><p><strong>Zustandsabh&auml;ngige LLMs<\/strong>\n<\/p>\n<ul>\n<li>Lernen Sie, wie man Sprachmodelle durch Kontextinjektion &uuml;ber stochastische Papageien erhebt:<ul>\n<li>Zeigen Sie moderne LLM-Kompositionstechniken f&uuml;r Geschichte und Zustandsverwaltung.<\/li><li>Er&ouml;rterung der abrufgest&uuml;tzten Generierung (RAG) f&uuml;r den Zugriff auf die externe Umgebung.<\/li><\/ul><\/li><\/ul><p><strong>Bewertung und Fragen und Antworten<\/strong>\n<\/p>\n<ul>\n<li>&Uuml;berpr&uuml;fung der wichtigsten Erkenntnisse.<\/li><li>Nehmen Sie an einer codebasierten Pr&uuml;fung teil, um ein Zertifikat zu erwerben.<\/li><\/ul>","comments":"<p><em>Dieser Text wurde automatisiert &uuml;bersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte <span class=\"cms-link-marked\"><a class=\"fl-href-prod\" href=\"\/swisscom\/en\/course\/nvidia-radllm\"><svg role=\"img\" aria-hidden=\"true\" focusable=\"false\" data-nosnippet class=\"cms-linkmark\"><use xlink:href=\"\/css\/img\/icnset-linkmarks.svg#linkmark\"><\/use><\/svg>hier<\/a><\/span>.<\/em><\/p>","summary":"<p>J&uuml;ngste Fortschritte sowohl bei den Techniken als auch bei der Zug&auml;nglichkeit von grossen Sprachmodellen (Large Language Models, LLMs) haben Unternehmen ungeahnte M&ouml;glichkeiten er&ouml;ffnet, ihre Abl&auml;ufe zu rationalisieren, Kosten zu senken und die Produktivit&auml;t in grossem Umfang zu steigern. Unternehmen k&ouml;nnen LLM-gest&uuml;tzte Anwendungen auch nutzen, um innovative und verbesserte Dienstleistungen f&uuml;r Kunden anzubieten oder Kundenbeziehungen zu st&auml;rken. So k&ouml;nnten Unternehmen beispielsweise Kundensupport &uuml;ber virtuelle KI-Assistenten anbieten oder Apps zur Stimmungsanalyse nutzen, um wertvolle Erkenntnisse &uuml;ber Kunden zu gewinnen.<\/p>\n<p>In diesem Kurs werden Sie ein starkes Verst&auml;ndnis und praktisches Wissen &uuml;ber die Entwicklung von LLM-Anwendungen erlangen, indem Sie das Open-Source-&Ouml;kosystem erforschen, einschliesslich vorgebildeter LLMs, die Ihnen helfen k&ouml;nnen, schnell mit der Entwicklung LLM-basierter Anwendungen zu beginnen.<\/p>\n<p><em>Bitte beachten Sie, dass eine einmal best&auml;tigte Buchung nicht mehr r&uuml;ckerstattet werden kann. Das bedeutet, dass Sie Ihren Platz f&uuml;r eine Veranstaltung nach der Best&auml;tigung nicht mehr stornieren k&ouml;nnen und keine R&uuml;ckerstattung erfolgt, unabh&auml;ngig von der Teilnahme an der Veranstaltung.<\/em><\/p>","objective_plain":"Durch die Teilnahme an diesem Workshop werden Sie lernen, wie man:\n\n\n\n- Finden Sie das HuggingFace-Modell-Repository und die zugeh\u00f6rige Transformers-API, ziehen Sie es ein und experimentieren Sie damit.\n- Verwendung von Kodiermodellen f\u00fcr Aufgaben wie semantische Analyse, Einbettung, Fragebeantwortung und Zero-Shot-Klassifizierung\n- Verwendung von Decodermodellen zur Erzeugung von Sequenzen wie Code, unbegrenzten Antworten und Gespr\u00e4chen\n- Verwenden Sie Techniken zur Verwaltung und Zusammensetzung des Zustands, um LLMs f\u00fcr sichere, effektive und genaue Gespr\u00e4che anzuleiten.","essentials_plain":"- Einf\u00fchrende Deep Learning-Kenntnisse, wobei Kenntnisse in PyTorch und Transfer Learning bevorzugt werden. Die Inhalte der DLI-Kurse Getting Started with Deep Learning oder Fundamentals of Deep Learning oder \u00e4hnliche Erfahrungen sind ausreichend.\n- Fortgeschrittene Python-Kenntnisse, einschliesslich objektorientierter Programmierung und Bibliotheken. Der Inhalt des Python-Tutorials (w3schools.com) oder \u00e4hnliche Erfahrungen sind ausreichend.","outline_plain":"Einf\u00fchrung\n\n\n\n- Treffen Sie den Ausbilder.\n- Erstellen Sie ein Konto unter courses.nvidia.com\/join\nVom Deep Learning zu grossen Sprachmodellen\n\n\n\n- Lernen Sie, wie grosse Sprachmodelle aufgebaut sind und wie man sie benutzt:\n- \u00dcberpr\u00fcfen Sie das Deep Learning und die klassenbasierte Argumentation und sehen Sie, wie die Sprachmodellierung daraus hervorgeht.\n- Diskutieren Sie Transformator-Architekturen, -Schnittstellen und -Intuitionen sowie deren Skalierung und Ver\u00e4nderung, um moderne LLM-L\u00f6sungen zu entwickeln.\nSpezialisierte Encoder-Modelle\n\n\n\n- Lernen Sie, wie Sie die verschiedenen Aufgabenspezifikationen betrachten k\u00f6nnen:\n- Entdecken Sie die modernsten HuggingFace-Drehgebermodelle.\n- Verwenden Sie bereits abgestimmte Modelle f\u00fcr interessante Aufgaben wie Token-Klassifizierung, Sequenzklassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.\nEncoder-Decoder-Modelle f\u00fcr Seq2Seq\n\n\n\n- Erfahren Sie mehr \u00fcber die Vorhersage von LLMs zur Vorhersage unbegrenzter Sequenzen:\n- Einf\u00fchrung einer Decoderkomponente f\u00fcr die autoregressive Texterzeugung.\n- Diskutieren Sie Cross-Attention f\u00fcr Sequenz-als-Kontext-Formulierungen.\n- Er\u00f6rterung allgemeiner Ans\u00e4tze f\u00fcr Multi-Tasking, Zero-Shot Reasoning.\n- Einf\u00fchrung in die multimodale Formulierung von Sequenzen und Untersuchung einiger Beispiele.\nDecodermodelle f\u00fcr die Texterzeugung\n\n\n\n- Erfahren Sie mehr \u00fcber reine Decodermodelle im GPT-Stil und wie sie spezifiziert und verwendet werden k\u00f6nnen:\n- Untersuchen Sie, wann ein reiner Decoder sinnvoll ist, und sprechen Sie \u00fcber Probleme bei der Bildung.\n- Diskutieren Sie die Gr\u00f6sse des Modells, spezielle Einsatztechniken und \u00dcberlegungen.\n- Ziehen Sie einige grosse Textgenerierungsmodelle heran, um zu sehen, wie sie funktionieren.\nZustandsabh\u00e4ngige LLMs\n\n\n\n- Lernen Sie, wie man Sprachmodelle durch Kontextinjektion \u00fcber stochastische Papageien erhebt:\n- Zeigen Sie moderne LLM-Kompositionstechniken f\u00fcr Geschichte und Zustandsverwaltung.\n- Er\u00f6rterung der abrufgest\u00fctzten Generierung (RAG) f\u00fcr den Zugriff auf die externe Umgebung.\nBewertung und Fragen und Antworten\n\n\n\n- \u00dcberpr\u00fcfung der wichtigsten Erkenntnisse.\n- Nehmen Sie an einer codebasierten Pr\u00fcfung teil, um ein Zertifikat zu erwerben.","comments_plain":"Dieser Text wurde automatisiert \u00fcbersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.","summary_plain":"J\u00fcngste Fortschritte sowohl bei den Techniken als auch bei der Zug\u00e4nglichkeit von grossen Sprachmodellen (Large Language Models, LLMs) haben Unternehmen ungeahnte M\u00f6glichkeiten er\u00f6ffnet, ihre Abl\u00e4ufe zu rationalisieren, Kosten zu senken und die Produktivit\u00e4t in grossem Umfang zu steigern. Unternehmen k\u00f6nnen LLM-gest\u00fctzte Anwendungen auch nutzen, um innovative und verbesserte Dienstleistungen f\u00fcr Kunden anzubieten oder Kundenbeziehungen zu st\u00e4rken. So k\u00f6nnten Unternehmen beispielsweise Kundensupport \u00fcber virtuelle KI-Assistenten anbieten oder Apps zur Stimmungsanalyse nutzen, um wertvolle Erkenntnisse \u00fcber Kunden zu gewinnen.\n\nIn diesem Kurs werden Sie ein starkes Verst\u00e4ndnis und praktisches Wissen \u00fcber die Entwicklung von LLM-Anwendungen erlangen, indem Sie das Open-Source-\u00d6kosystem erforschen, einschliesslich vorgebildeter LLMs, die Ihnen helfen k\u00f6nnen, schnell mit der Entwicklung LLM-basierter Anwendungen zu beginnen.\n\nBitte beachten Sie, dass eine einmal best\u00e4tigte Buchung nicht mehr r\u00fcckerstattet werden kann. Das bedeutet, dass Sie Ihren Platz f\u00fcr eine Veranstaltung nach der Best\u00e4tigung nicht mehr stornieren k\u00f6nnen und keine R\u00fcckerstattung erfolgt, unabh\u00e4ngig von der Teilnahme an der Veranstaltung.","skill_level":"Beginner","version":"1.0","duration":{"unit":"d","value":1,"formatted":"1 Tag"},"pricelist":{"List Price":{"US":{"country":"US","currency":"USD","taxrate":null,"price":500},"DE":{"country":"DE","currency":"EUR","taxrate":19,"price":500},"AT":{"country":"AT","currency":"EUR","taxrate":20,"price":500},"SE":{"country":"SE","currency":"EUR","taxrate":25,"price":500},"SI":{"country":"SI","currency":"EUR","taxrate":20,"price":500},"GB":{"country":"GB","currency":"GBP","taxrate":20,"price":420},"IT":{"country":"IT","currency":"EUR","taxrate":20,"price":995},"CA":{"country":"CA","currency":"CAD","taxrate":null,"price":690}}},"lastchanged":"2025-07-29T12:18:27+02:00","parenturl":"https:\/\/portal.flane.ch\/swisscom\/json-courses","nexturl_course_schedule":"https:\/\/portal.flane.ch\/swisscom\/json-course-schedule\/34499","source_lang":"de","source":"https:\/\/portal.flane.ch\/swisscom\/json-course\/nvidia-radllm"}}