LLM-Entwicklung und Deployment - Kompaktkurs (Druckversion)
seminarSPIEGEL.de-Startseite header
Startseite Hilfe/ FAQ   |   Kontakt

LLM-Entwicklung und Deployment - Kompaktkurs

Seminar-ID: 4091624
Datum: 01.06.2026 - 05.06.2026
Ort: 10963 Berlin
Preis pro Teilnehmer:
EUR 2.590,00 netto
EUR 3.082,10 inkl. 19.00% MwSt.
Kurzbeschreibung:
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der ...
Infos anfordern Seminar buchen In den SeminarFolder
Weiterführende Informationen auf der Seite des Anbieters
Seminar teilen:
Ausführliche Beschreibung
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der Kurs ist praxisnah und durchgängig hands-on.
<br>
<br>Dieses Seminar ist ein Angebot der PC-COLLEGE Gruppe.
<br><br>
<b>Inhalt:</b>
<ul>
<li>Grundlagen & Architektur moderner LLMs</li>
<li>- Überblick Transformer, Kontext, Tokenisierung</li>
<li>- Prompt Design (Zero-/Few-Shot, System Prompts)</li>
<li>- Unterschiede zu klassischen NLP-Verfahren</li>
<li>- Hands-on: effektive Prompts entwickeln</li>
<li>Retrieval-Augmented Generation (RAG) Essentials</li>
<li>- Rolle von Embeddings und Vektorsuche</li>
<li>- Praktische Arbeit mit FAISS, ChromaDB</li>
<li>- Integration externer Quellen über LangChain / LlamaIndex</li>
<li>- Aufbau einer einfachen RAG-Pipeline</li>
<li>Erweiterte RAG-Pipelines in der Praxis</li>
<li>- Datenvorbereitung & semantische Abfragen</li>
<li>- Tool-Ketten in LangChain</li>
<li>- Query-Antwort-System mit API-Anbindung</li>
<li>- Best Practices: Trennung von Modell- und Wissenskomponente</li>
<li>LLMOps – Deployment & Infrastruktur</li>
<li>- Deployment-Strategien: Hosted vs. On-Premise</li>
<li>- Containerisierung (Docker), Frameworks (FastAPI, BentoML)</li>
<li>- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)</li>
<li>- Prompt- & Model-Management</li>
<li>LLMOps – Governance, Security & Skalierung</li>
<li>- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)</li>
<li>- Kostenkontrolle: Token-Tracking, Caching, Request-Management</li>
<li>- CI/CD für LLM-Anwendungen</li>
<li>Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails</li>
</ul>
Benötigte Vorkenntnisse
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Zielgruppe
Alle mit technischem Hintergrund, die an der Entwicklung, Integration oder dem Betrieb von LLM-basierten Anwendungen beteiligt sind – z. B. in IT, AI, DevOps oder Produktentwicklung.
Kommentare/Weiterführende Informationen
Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.
Ortsbeschreibung
PC-COLLEGE-Schulungshaus

Impressum / Datenschutz  |  AGB  |  Partner
© Huber Verlag für Neue Medien 2002 - 2025, Alle Rechte vorbehalten.
Partnerportale: PresseBox  |  Initiative Mittelstand  |  aktiv-verzeichnis.de  |  ititpro.com