Beschreibung
Diese praxisorientierte dreitägige Praxisworkshop KI-Tools mit Python: Prompting, Fine-Tuning und RAG bietet eine umfassende Einführung in die effektive Anwendung von Large Language Models (LLMs) in Python. Teilnehmende erfahren, wie sie durch gezielte Nutzung von Prompting, Fine-Tuning und Retrieval-Augmented Generation (RAG) die Potenziale der Künstlichen Intelligenz für ihr Unternehmen nutzbar machen können. Ein wesentlicher Trend ist die Kombination mehrerer Tools durch Agenten-Workflows, die in eigens dafür konzipierten Python-Codebeispielen zur Anwendung kommen.
Insbesondere richtet sich der Workshop an Fachkräfte, die ihre KI-Kenntnisse ausbauen und direkt in der Praxis umsetzen möchten. Die Schulung bietet Ihnen die Möglichkeit, durch direkte Anwendungen Entscheidungsfähigkeit im Bereich KI zu erlangen. Workshops und Übungsaufgaben erlauben es, erlernte Konzepte sofort auf reale Anwendungsfälle zu übertragen.
Von den Grundlagen zu fortgeschrittenen Techniken – der Kurs führt Sie durch alle relevanten Aspekte führender Python-Frameworks wie OpenAI oder Hugging Face bis hin zur Integration komplexerer Methodiken wie RAG. Teilnehmende lernen nicht nur die technischen Feinheiten, sondern auch praxisnahe Übungen, die Sicherheit im richtigen Einsatz der Tools gewährleisten. Dadurch profitieren Ihre Projekte von erhöhtem Effizienz und Genauigkeit bei der KI-Anwendung.
Abgeschlossen wird der Kurs mit einem Projekt, in dem ein prototypischer LLM-Workflow entwickelt wird. Dieses Projekt verdeutlicht, wie das erworbene Wissen in einem praktischen Use-Case angewendet werden kann. Sichern Sie sich jetzt Ihren Platz und entwickeln Sie Ihr Know-how gezielt weiter.
Inhalte
Tag 1: Grundlagen und schneller Einstieg
- Überblick: LLM-Workflows und Python-Ökosystem (OpenAI, Hugging Face, LangChain, PydanticAI)
- Prompting-Techniken und Briefing-Files in Python
- Rollen, Regeln und Stilvorgaben programmatisch testen
- Übungen: Prompts in Python-Skripten umsetzen und vergleichen
- Grenzen von Prompting in realen Projekten
Tag 2: Modelle anpassen mit Fine-Tuning
- Fine-Tuning-Konzepte: klassisch vs. LoRA/PEFT
- Anforderungen: Datenformate (JSONL), Tools, Kosten
- Python-Beispiele mit Hugging Face Transformers und PEFT
- Übungen: Mini-Fine-Tuning mit kleinem Datensatz
- Bewertung mit Python-Scorecards (Genauigkeit, Kohärenz, Bias, Sprachfluss)
Tag 3: Wissensintegration mit RAG
- Architektur von RAG und Python-Tools (LangChain, LlamaIndex, Chroma/FAISS)
- Tokens und Embeddings verstehen
- Typische Anwendungsfälle und Stärken von RAG
- Übungen: Aufbau einer Mini-RAG-Pipeline in Python mit Dokumentenabfrage
- Best Practices: Kombination aus RAG und Fine-Tuning
- Infrastruktur: Python-Anbindung via API vs. Self-Hosting-Lösungen
- Agenten-Workflows: Konzepte und Vorteile (z. B. PydanticAI)
- Übungen: Einfache Agenten, die mehrere Tools orchestrieren
Abschlussprojekt
- Entwicklung eines prototypischen LLM-Workflows in Python für einen Praxis-Use-Case
Zielgruppe
Python-Entwickler und Data Scientists, die LLMs in Projekten nutzen möchten
IT-Consultants und Architekten, die Workflows für Teams aufbauen
KI-Interessierte, die LLM-Know-how praktisch weitergeben wollen
Voraussetzungen
Grundkenntnisse in Python sind von Vorteil
Zertifikate
Friendly Bytes Zertifikat
Weitere Infos
Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.
Über den Anbieter

Friendly Bytes
Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.
Mehr über Friendly Bytes