Beschreibung
KI-Grundlagen und LLM-Verständnis
Du lernst, wie Large Language Models statistisch funktionieren, wie sie Tokens nutzen und welche Einschränkungen sie haben. Prompt Engineering wird im Kontext moderner KI‑Systeme eingeordnet – du verstehst n‑Shots, Parameter‑Tuning, Templates und eingebundene Kontextinformationen wie z.B. Dokumentationsquellen.
Prompt Engineering in Aktion
Im zweiten Teil wendest du dein Wissen sofort an: du lernst, mit Prompt Engineering Code und Unit‑Tests zu generieren und Dokumentationen zu erstellen. Darüber hinaus spezifizierst du den nötigen Kontext, um das Generieren von Code den Bedürfnissen deines Projekts anzupassen. Du bekommst einen Überblick über die Nutzung von Agenten und setzt dieses Wissen in praktischen Übungen um.
So bist du bestens gerüstet, LLMs in deiner tägliche Entwicklungstätigkeit zu nutzen und damit effizienter und sicherer zu arbeiten.
Inhalte
- LLM-Grundlagen & Funktionsweise
- Prompting-Techniken
- Gute Prompts entwickeln
- KI-Tools für Softwareentwicklung
- Code und Tests mit KI
- KI-Integration in IDEs
Zielgruppe
- Softwareentwickler:innen
- Projektmanager:innen in IT-Projekten
- Softwarearchitekt:innen
- DevOps-Engineer:innen
- KI-affine Coder:innen
- Vibe-Coder:innen
Voraussetzungen
Vorkenntnisse in Programmierung sind notwendig, um den Praxisanteil effektiv umsetzen zu können, z.B. in Java, Python, C# oder ähnlichen.
Weitere Infos
Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.
Über den Anbieter

oose eG
Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.
Mehr über oose eG