In der praxisnahen Weiterbildung über Python - LLMs und RAG-Pipelines in der Praxis lernen Sie, wie Sie aktuelle Sprachmodelle effizient für Ihre Projekte nutzen können. Dabei geht es nicht nur um die Anwendung von LLMs (Large Language Models) in Kombination mit externen Datenquellen, sondern auch darum, hochwertige Antworten durch präzises Prompt Design zu optimieren. Diese Fähigkeiten sind entscheidend, um den vollen Nutzen generativer künstlicher Intelligenz auszuschöpfen.
Der Kurs richtet sich insbesondere an Entwickler und IT-Spezialisten, die ihre Kenntnisse in der Nutzung von Tools wie LangChain, FAISS und LlamaIndex vertiefen möchten. Sie lernen, wie Sie skalierbare und modular aufgebaute NLP-Pipelines entwickeln, die unmittelbar auf Ihre Produktionsanforderungen zugeschnitten sind. Dies ermöglicht es Ihnen, innovative KI-Lösungen für Ihre spezifischen Anwendungsfälle zu schaffen und die Effizienz Ihrer Systeme erheblich zu steigern.
Durch den praxisnahen Ansatz erleben Sie, wie Retrieval-Augmented Generation (RAG) mit den Modell- und Wissenskomponenten getrennt und im Kontext Ihrer Datenlandschaft genutzt werden kann. Die Integration von Vektorsuchen und die Aufbereitung von Embeddings eröffnen Ihnen neue Wege in der semantischen Datennutzung. Dieses Seminar bietet Ihnen nicht nur die theoretischen Grundlagen, sondern auch praktische Erfahrung in der Entwicklung eigener RAG-Pipelines.
Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Architektur und Grundlagen moderner LLMs
- Überblick über Transformer-Modelle
- Unterschiede zu klassischen NLP-Verfahren
- Rolle von Kontext und Tokenisierung
Prompt Design und Modellsteuerung
- Struktur effektiver Prompts
- Few-/Zero-Shot-Techniken
- System-Prompts für mehr Kontrolle
Grundlagen von Retrieval-Augmented Generation (RAG)
- Trennung von Modell- und Wissenskomponente
- Nutzen für domänenspezifische Anwendungen
Vektorsuche und Embedding-Verwaltung
- Embedding-Erstellung mit Hugging Face
- Ähnlichkeitssuche mit FAISS und ChromaDB
- semantische Datenabfragen
LangChain und LlamaIndex im Einsatz
- Aufbau modularer NLP-Pipelines
- Integration externer Quellen
- Dokumentensuche
- Tool-Ketten
Eigene RAG-Pipeline entwickeln
- Datenvorbereitung
- Query-Antwort-System mit LangChain
- API-Anbindung für produktionsnahe Lösungen
Ideal für technisch versierte Teilnehmende, die Sprachmodelle über RAG-Architekturen produktiv nutzen und mit bestehenden Datenquellen verknüpfen möchten.
Gute Python-Kenntnisse und Erfahrung mit Datenverarbeitung oder API-Nutzung. Kenntnisse in NLP oder Machine Learning sind hilfreich, aber nicht zwingend erforderlich.
Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.

Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.
Mehr über PC-COLLEGE Training GmbH