Mastering Large Language Models: Chancen nutzen, Risiken managen

Sicherheit in der Entwicklung und Nutzung großer Sprachmodelle - Intensivkurs.

Erhalten Sie ein umfassendes Verständnis von großen Sprachmodellen (LLMs) und lernen Sie, gängige Sicherheitsrisiken zu erkennen und zu vermeiden. Unser Intensivkurs vermittelt Ihnen Wissen über die Entwicklung und die kritischen Sicherheitsherausforderungen von LLMs. Durch zahlreiche praktische Übungen erlangen Sie Fähigkeiten in der Erstellung von LLM-Anwendungen, fortgeschrittene Techniken wie Prompt Engineering und RAG sowie in der Analyse von Sicherheitsrisiken gemäß den OWASP Top 10 LLM-Risiken. Entwickeln Sie Strategien gegen Bedrohungen wie Prompt Injection und Model Theft und integrieren Sie Sicherheitsanalysen in industrielle Praktiken.

Upper torso of human figure made of colorful lines with algorithms and code on black background
© iStock

Die Herausforderung: Komplexe LLM-Anwendungen bringen neue Sicherheitsrisiken mit sich.

Die zunehmende Nutzung von großen Sprachmodellen (LLMs) in verschiedenen Anwendungen und Unternehmensbereichen bringt erhebliche Sicherheitsherausforderungen mit sich. 

LLMs sind technisch komplex und in ihrer Funktionsweise nicht vollständig zu erfassen. Die Implementierung und Anpassung dieser Modelle für spezifische Anwendungen erfordert umfassende Kenntnisse von Werkzeugen wie die HuggingFace Transformer Bibliotheken und Techniken wie RAG, LoRA, PEFT etc. 

LLM-basierte Anwendungen sind anfällig für spezifische Angriffe wie Prompt Injection und Model Theft sowie weitere Risiken, die u.a. in den OWASP Top 10 LLM-Risiken dargestllt werden. Sicherheitsexpertinnen und -experten, Entwicklerinnen und Entwickler sowie Datenwissenschaftlerinnen und Datenweissenschaftler sollten in der Lage sein, Risiken, die mit der Nutzung von LLMs einhergehen zu erkennen und passende Sicherheitsstrategien zu entwickeln und umzusetzen. 

 

Die Lösung: Sichere Anpassung und Verwendung von LLM-Anwendungen im Geschäftsumfeld

In diesem Intensivkurs erlangen Sie fundiertes Wissen über die Grundlagen und Architekturen von LLMs. Anhand praktischer Beispiele üben und erlernen Sie Technicken für die Implementierung, Anpassung und Integration von LLM-Anwendungen mit Modellen und Werkzeugen aus der Open-Source-Community. So verstehen Sie die Sicherheitsaspekte von LLM-Anwendungen von Grund auf. 

 

Ihr Vorteil auf einen Blick

Nach dem Seminar können Sie...

  • Sicherheitsrisiken in LLM-basierten Anwendungen analysieren,bewerten und vermeiden,
  • Strategien gegen Bedrohungen wie Prompt Injection entwickeln
  • LLM-Modelle effizient bewerten und optimieren.

 Dieses Seminar bietet Ihnen...

  • Fundierte Kenntnisse über LLM Grundlagen und deren Entwicklung
  • Praktische Erfahrungen in der Implementierung und Anpassung von LLM Anwendungen
  • Intensive Betreuung bei Programmieraufgaben
  • Verwendung von OSS Software und freien Modellen
  • Systematische Anwendung auf industrierelevante Praktiken und Prozesse wie DevOps und MLOps
ÜBERBLICK
Veranstaltungstyp
Inhouse-Format, Online-Seminar
Format
Online
Abschluss
Teilnahmebescheinigung
Zugangsvoraussetzung
Programmiererfahrung mit Python Grundlegende Kenntnisse im Maschinellen Lernen
Termine, Anmeldefrist und Ort
  • Sie haben Fragen oder möchten informiert werden, sobald neue Termine verfügbar sind? Nutzen Sie bitte unser Kontaktformular oder rufen Sie uns an. Wir beraten Sie gerne, welche Lösung für Sie die optimale darstellt.
Dauer/ Ablauf
Dauer in Tagen: 3,5 Kursdauer in Stunden: 24 Stunden
Sprache
Deutsch
Teilnahmegebühr
Bitte kontaktieren Sie uns für ein individuelles Angebot.
ZIELGRUPPE

- IT-Sicherheitsexperten

- Fachkräfte und Spezialisten

- Datenwissenschaftler:innen

- Softwareentwickler:innen und Sicherheitsexpert:innen mit praktischen Grundwissen im Maschinellen Lernen

INHALTE

- LLM-Grundlagen

- Aufbau einer LLM-Anwendung (Einführung in Transformer-Architekturen, Huggingface, Gradio)

- Erweitern von Standard-LLMs (Techniken zur Verbesserung für spezifische Anwendungen)

- Bewertungsmetriken (Überblick und Anwendung)

- Vom Prototyp zur Produktion: MLOps

- Sicherheitsaspekte von LLM-basierten Anwendungen

- OWASP Top 10 Risiken für LLM-Anwendungen

LERNZIELE

- Sie können die Entwicklung von LLMs im zeitlichen Kontext einordnen und die wichtigsten Akteure im Bereich der künstlichen Intelligenz benennen. 

- Sie können die fundamentalen Konzepten und Architekturen von/für LLMs erklären.

- Sie verstehen die Prinzipien und praktischen Grundlagen für das Training von Modellen, Fine-tuning und den Betrieb von Open Source LLMs.

- Sie können einer sicheren Übungsumgebung (Virtual Desktop/Jupyter) erstellen und konfigurieren, um LLM-Modelle effizient zu testen.

- Sie können eine LLM-Anwendung unter Verwendung von Transformers, Huggingface und Gradio implementieren. 

- Sie können Techniken zur Verbesserung stanndardmäßiger LLMs für spezifische Anwendungen anwenden und optimieren.

- Sie können Sicherheitsrisiken in LLM-basierten Anwendungen anhand der OWASP Top 10 analysieren und bewerten. 

- Sie können Sicherheitsstrategien gegen Bedrohungen wie Prompt Injection und Model Theft entwickeln und implementieren.

REFERENTEN

Dorian Knoblauch 

- >5 Jahre Berufserfahrung im Bereich ML

- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Auditierung- und Prüfung von KI und Security

- Trainer in der Fraunhofer Academy mit Schwerpunkt ML, Security und Testen

 

Paul Ranly

- Forschungsarbeiten/Publikationen in den Bereichen ML, NLP und LLMs

- Trainer in der Fraunhofer Academy (TSS 2024)

 

Lukas Graner

- >5 Jahre Berufserfahrung im Bereich ML

- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Bild-verarbeitung, Privacy und NLP z.B. Autorschaftsverifikation, LLMs

- Gutachtentätigkeit zur Autorschaftsverifikation und Detektion von KI-generierten Texten

- Trainer in der Fraunhofer Academy (u.a. für TSS 2022-2024)