In dieser Veranstaltung erhalten Sie einen Einblick in die Nutzung von Sprachmodellen (LLM) wie ChatGPT. Anhand konkreter Beispiele aus dem IT-Umfeld zeigen wir Ihnen die grundlegenden Funktionsweisen, typische Einsatzmöglichkeiten und erste Schritte zur Anwendung.
Themen im Überblick
- Grundlagen: Wie funktionieren Sprachmodelle und welche Anbieter gibt es?
- Prompt Engineering: Lernen Sie, wie durch gezielte Anweisungen (Prompts) die Leistung eines Sprachmodells optimiert werden kann. Wir zeigen einfache Strategien zur Formulierung klarer Aufgabenstellungen, den Umgang mit Kontext sowie verschiedene Ansätze wie Zero-Shot- und Multi-Shot-Techniken.
- Modellanpassung: Möglichkeiten, Sprachmodelle auf spezifische Aufgaben auszurichten, z. B. durch Dokumentenabfragen mit Retrieval Augmented Generation (RAG) oder die Integration von Fachwissen.
Teil 1 – LLM Grundlagen
- Machine Learning als Basis
- Verständnis von Sprache
- Wie entsteht ChatGPT?
- Welche Anbieter gibt es?
- Nutzung von ChatGPT und Co.
Teil 2 – Prompt Engineering
- Was ist in einem Prompt?
- Kontext effektiv nutzen
- Multi-Shot vs. Zero-Shot Prompting
- Chain-of-Thought Prompting
- Integration von Modulen
Teil 3 – Beispiele zur Modellanpassung
- Automatisiertes Auslesen von Support Tickets mit Function Calling
- Dokumenten- und Datenbankintegration durch Retrieval Augmented Generation (RAG)
- Fine-Tuning für spezialisiertes Wissen
Anmeldung
Die Dauer dieses Webinars beträgt ca. 2 h. Das Webinar ist kostenfrei.
Hinweis: Das Webinar am 27.11.2025 ist leider vollständig ausgebucht. Wir planen gerade weitere Termine für 2026 und werden diese demnächst hier veröffentlichen. Ein Tipp: Abonnieren Sie unseren Newsletter oder folgen Sie uns auf LinkedIn – dann werden Sie automatisch über die neuen Termine informiert.
Donnerstag 27.11.2025
14:00 – 16:00 Uhr
Leider ausgebucht.