LLM-Entwicklung und Deployment - Kompaktkurs

Vor Ort
Online
StandorteLippstadt, Karlsruhe, Mannheim, Freiburg im Breisgau, Berlin, Stuttgart, Hamburg, Hannover, Leipzig, Frankfurt am Main, München, Dresden, Köln, Düsseldorf, Regenstauf, Nürnberg, Dortmund, Essen, Siegen, Wienhausen, Kassel, Koblenz, Saarbrücken, Bremen, Münster, Erfurt, Online, Krefeld, Jena
Dauer5 Tage
SpracheDeutsch
Kurstermine 154 Startdaten
Preis ab 3.082,10 € inkl. MwSt.

Beschreibung

In diesem kompakten Kurs erfahren Sie, wie Sie LLM-Entwicklung und Deployment effektiv umsetzen können. Von den Grundlagen des Prompt Designs bis hin zu fortschrittlichen RAG-Pipelines und dem Einsatz von Docker für das Deployment – Sie erhalten einen vollständigen Überblick über die Technologien und Methoden. Der Kurs ist durch seinen hohen Praxisbezug besonders wertvoll für alle, die moderne LLM-Anwendungen erstellen und betreiben möchten. Durch unsere praxisnahen Übungen gewinnen Sie die Fähigkeit, Ihre eigenen effektiven Prompts zu entwickeln und diese in reale Projekte zu integrieren.

Dieser Kurs richtet sich vorrangig an Entwickler und IT-Fachleute, die ihre Kenntnisse im Bereich der Sprachmodell-Technologien vertiefen möchten. Der Schwerpunkt auf praktische Anwendungen gewährleistet, dass Sie nach Abschluss der Schulung sicher im Umgang mit Tools wie LangChain, FAISS und FastAPI sind, und Sie werden in der Lage sein, die Sicherheit, Skalierbarkeit und Überwachung Ihrer Anwendungen zu optimieren. Ein besonderes Highlight ist die Implementierung von Sicherheitsmaßnahmen und Governance-Prinzipien, die Ihnen helfen, Ihre Projekte unter Einhaltung aktueller Datenschutzstandards zu betreiben.

Profitieren Sie von den praxisnahen Projekten, die Ihnen ermöglichen, das Gelernte direkt anzuwenden und eine produktionsreife Anwendung mit RAG, Logging und Monitoring zu entwickeln. Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.

Inhalte

Grundlagen & Architektur moderner LLMs

- Überblick Transformer, Kontext, Tokenisierung

- Prompt Design (Zero-/Few-Shot, System Prompts)

- Unterschiede zu klassischen NLP-Verfahren

- Hands-on: effektive Prompts entwickeln

Retrieval-Augmented Generation (RAG) Essentials

- Rolle von Embeddings und Vektorsuche

- Praktische Arbeit mit FAISS, ChromaDB

- Integration externer Quellen über LangChain / LlamaIndex

- Aufbau einer einfachen RAG-Pipeline

Erweiterte RAG-Pipelines in der Praxis

- Datenvorbereitung & semantische Abfragen

- Tool-Ketten in LangChain

- Query-Antwort-System mit API-Anbindung

- Best Practices: Trennung von Modell- und Wissenskomponente

LLMOps – Deployment & Infrastruktur

- Deployment-Strategien: Hosted vs. On-Premise

- Containerisierung (Docker), Frameworks (FastAPI, BentoML)

- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)

- Prompt- & Model-Management

LLMOps – Governance, Security & Skalierung

- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)

- Kostenkontrolle: Token-Tracking, Caching, Request-Management

- CI/CD für LLM-Anwendungen

Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails

Zielgruppe

Alle mit technischem Hintergrund, die an der Entwicklung, Integration oder dem Betrieb von LLM-basierten Anwendungen beteiligt sind – z. B. in IT, AI, DevOps oder Produktentwicklung.

Voraussetzungen

Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.

Weitere Infos

Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.

Kostenlose Beratung
Sichere Anfrage
Geprüfter Anbieter

Über den Anbieter

PC-COLLEGE Training GmbH

Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.

Mehr über PC-COLLEGE Training GmbH