LLM-Entwicklung und Deployment - Kompaktkurs
|
Preis pro Teilnehmer:
EUR 2.590,00 nettoEUR 3.082,10 inkl. 19.00% MwSt. |
Kurzbeschreibung:
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der ...
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der ...
| Infos anfordern | Seminar buchen | In den SeminarFolder | |||
|
|
Weiterführende Informationen auf der Seite des Anbieters | ||||
Ausführliche Beschreibung
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der Kurs ist praxisnah und durchgängig hands-on.Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
Inhalte
Grundlagen & Architektur moderner LLMs
Überblick Transformer, Kontext, Tokenisierung
Prompt Design (Zero-/Few-Shot, System Prompts)
Unterschiede zu klassischen NLP-Verfahren
Hands-on: effektive Prompts entwickeln
Retrieval-Augmented Generation (RAG) Essentials
Rolle von Embeddings und Vektorsuche
Praktische Arbeit mit FAISS, ChromaDB
Integration externer Quellen über LangChain / LlamaIndex
Aufbau einer einfachen RAG-Pipeline
Erweiterte RAG-Pipelines in der Praxis
Datenvorbereitung & semantische Abfragen
Tool-Ketten in LangChain
Query-Antwort-System mit API-Anbindung
Best Practices: Trennung von Modell
und Wissenskomponente
LLMOps – Deployment & Infrastruktur
Deployment-Strategien: Hosted vs. On-Premise
Containerisierung (Docker), Frameworks (FastAPI, BentoML)
Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
Prompt
& Model-Management
LLMOps – Governance, Security & Skalierung
Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
Kostenkontrolle: Token-Tracking, Caching, Request-Management
CI/CD für LLM-Anwendungen
Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
Benötigte Vorkenntnisse
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Zielgruppe
Alle mit technischem Hintergrund, die an der Entwicklung, Integration oder dem Betrieb von LLM-basierten Anwendungen beteiligt sind – z. B. in IT, AI, DevOps oder Produktentwicklung.
Kommentare/Weiterführende Informationen
Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.
Ortsbeschreibung
PC-COLLEGE-Schulungshaus


Profisuche
