In diesem kompakten Kurs erfahren Sie, wie Sie LLM-Entwicklung und Deployment effektiv umsetzen können. Von den Grundlagen des Prompt Designs bis hin zu fortschrittlichen RAG-Pipelines und dem Einsatz von Docker für das Deployment – Sie erhalten einen vollständigen Überblick über die Technologien und Methoden. Der Kurs ist durch seinen hohen Praxisbezug besonders wertvoll für alle, die moderne LLM-Anwendungen erstellen und betreiben möchten. Durch unsere praxisnahen Übungen gewinnen Sie die Fähigkeit, Ihre eigenen effektiven Prompts zu entwickeln und diese in reale Projekte zu integrieren.
Dieser Kurs richtet sich vorrangig an Entwickler und IT-Fachleute, die ihre Kenntnisse im Bereich der Sprachmodell-Technologien vertiefen möchten. Der Schwerpunkt auf praktische Anwendungen gewährleistet, dass Sie nach Abschluss der Schulung sicher im Umgang mit Tools wie LangChain, FAISS und FastAPI sind, und Sie werden in der Lage sein, die Sicherheit, Skalierbarkeit und Überwachung Ihrer Anwendungen zu optimieren. Ein besonderes Highlight ist die Implementierung von Sicherheitsmaßnahmen und Governance-Prinzipien, die Ihnen helfen, Ihre Projekte unter Einhaltung aktueller Datenschutzstandards zu betreiben.
Profitieren Sie von den praxisnahen Projekten, die Ihnen ermöglichen, das Gelernte direkt anzuwenden und eine produktionsreife Anwendung mit RAG, Logging und Monitoring zu entwickeln. Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Grundlagen & Architektur moderner LLMs
- Überblick Transformer, Kontext, Tokenisierung
- Prompt Design (Zero-/Few-Shot, System Prompts)
- Unterschiede zu klassischen NLP-Verfahren
- Hands-on: effektive Prompts entwickeln
Retrieval-Augmented Generation (RAG) Essentials
- Rolle von Embeddings und Vektorsuche
- Praktische Arbeit mit FAISS, ChromaDB
- Integration externer Quellen über LangChain / LlamaIndex
- Aufbau einer einfachen RAG-Pipeline
Erweiterte RAG-Pipelines in der Praxis
- Datenvorbereitung & semantische Abfragen
- Tool-Ketten in LangChain
- Query-Antwort-System mit API-Anbindung
- Best Practices: Trennung von Modell- und Wissenskomponente
LLMOps – Deployment & Infrastruktur
- Deployment-Strategien: Hosted vs. On-Premise
- Containerisierung (Docker), Frameworks (FastAPI, BentoML)
- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
- Prompt- & Model-Management
LLMOps – Governance, Security & Skalierung
- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
- Kostenkontrolle: Token-Tracking, Caching, Request-Management
- CI/CD für LLM-Anwendungen
Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
Alle mit technischem Hintergrund, die an der Entwicklung, Integration oder dem Betrieb von LLM-basierten Anwendungen beteiligt sind – z. B. in IT, AI, DevOps oder Produktentwicklung.
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.

Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.
Mehr über PC-COLLEGE Training GmbH