Mastering Large Language Models: Chancen nutzen, Risiken managen

Die zunehmende Integration von Large Language Models (LLMs) in verschiedenen Unternehmensbereichen bringt erhebliche Sicherheitsherausforderungen mit sich. Diese Modelle sind technisch komplex und ihre Funktionsweise ist nicht vollständig transparent. Die Implementierung und Anpassung erfordert fundierte Kenntnisse von Werkzeugen wie den HuggingFace Transformer Bibliotheken sowie Techniken wie Retrieval-Augmented Generation (RAG), Low-Rank Adaptation (LoRA) und Parameter-Efficient Fine-Tuning (PEFT). LLM-basierte Anwendungen sind zudem anfällig für spezifische Angriffe wie Prompt Injection und Model Theft, die in den OWASP Top 10 LLM-Risiken aufgeführt sind. Es ist daher essenziell, dass Sicherheitsexpert:innen, Entwickler:innen und Datenwissenschaftler:innen diese Risiken erkennen und geeignete Sicherheitsstrategien entwickeln sowie umsetzen können.

Unser Intensivkurs bietet ein umfassendes Verständnis der Grundlagen und Architekturen von LLMs. Durch praktische Übungen erlernen Sie Techniken zur Implementierung, Anpassung und Integration von LLM-Anwendungen unter Verwendung von Open-Source-Modellen und -Werkzeugen. Ein besonderer Fokus liegt auf der Analyse von Sicherheitsrisiken gemäß den OWASP Top 10 LLM-Risiken. Sie entwickeln Strategien zur Abwehr von Bedrohungen wie Prompt Injection und Model Theft und lernen, wie Sicherheitsanalysen in industrielle Praktiken integriert werden können.

Nach Abschluss des Seminars sind Sie in der Lage, Sicherheitsrisiken in LLM-basierten Anwendungen zu analysieren, zu bewerten und zu vermeiden. Sie können Strategien gegen spezifische Bedrohungen entwickeln und LLM-Modelle effizient bewerten und optimieren. Dieses Seminar richtet sich an Fachkräfte, die ihre Kenntnisse im Bereich der KI-Sicherheit vertiefen möchten, um den sicheren Einsatz von LLMs in ihrem beruflichen Umfeld zu gewährleisten.

 

Nach dem Seminar können Sie: 

  • Sicherheitsrisiken in LLM-basierten Anwendungen analysieren, bewerten und vermeiden.
  • Strategien gegen Bedrohungen wie Prompt Injection entwickeln.
  • LLM-Modelle effizient bewerten und optimieren.

 

ÜBERBLICK
Veranstaltungstyp
Online-Seminar, Inhouse-Format
Format
Online
Abschluss
Teilnahmebescheinigung
Zugangsvoraussetzung
Programmiererfahrung mit Python Grundlegende Kenntnisse im Maschinellen Lernen
Dauer/ Ablauf
Dauer in Tagen: 3,5 Kursdauer in Stunden: 24 Stunden
Sprache
Deutsch
Teilnahmegebühr
Bitte kontaktieren Sie uns für ein individuelles Angebot.
ZIELGRUPPE - dieses Seminar ist genau richtig für:

- IT-Sicherheitsexperten

- Fachkräfte und Spezialisten

- Datenwissenschaftler:innen

- Softwareentwickler:innen und Sicherheitsexpert:innen mit praktischen Grundwissen im Maschinellen Lernen

KURSINHALTE - diese Themen erarbeiten Sie im Seminar:

- LLM-Grundlagen

- Aufbau einer LLM-Anwendung (Einführung in Transformer-Architekturen, Huggingface, Gradio)

- Erweitern von Standard-LLMs (Techniken zur Verbesserung für spezifische Anwendungen)

- Bewertungsmetriken (Überblick und Anwendung)

- Vom Prototyp zur Produktion: MLOps

- Sicherheitsaspekte von LLM-basierten Anwendungen

- OWASP Top 10 Risiken für LLM-Anwendungen

WEITERE INFORMATIONEN

In Kürze finden Sie hier noch weiterführende Informationen zu diesem Seminar.

IHRE TRAINER:INNEN

Dorian Knoblauch 

- >5 Jahre Berufserfahrung im Bereich ML

- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Auditierung- und Prüfung von KI und Security

- Trainer in der Fraunhofer Academy mit Schwerpunkt ML, Security und Testen

 

Paul Ranly

- Forschungsarbeiten/Publikationen in den Bereichen ML, NLP und LLMs

- Trainer in der Fraunhofer Academy (TSS 2024)

 

Lukas Graner

- >5 Jahre Berufserfahrung im Bereich ML

- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Bild-verarbeitung, Privacy und NLP z.B. Autorschaftsverifikation, LLMs

- Gutachtentätigkeit zur Autorschaftsverifikation und Detektion von KI-generierten Texten

- Trainer in der Fraunhofer Academy (u.a. für TSS 2022-2024)

Diese Kurse könnten Sie auch interessieren:

 

Online oder Präsenz

Maschinelles Lernen für mehr Sicherheit

Das Seminar zeigt, wie Maschinelles Lernen zur Erkennung von Anomalien in Log-Dateien und Netzwerkverkehr genutzt wird. Teilnehmende lernen, unbekannte Angriffe zu identifizieren und anwenden. Praktische Übungen vertiefen das Wissen. 

 

Inhouse / Online oder Präsenz

Hacking und Härtung von Machine Learning-Modellen

Schützen Sie Ihre KI-Systeme vor Angriffen. Lernen Sie, Schwachstellen zu erkennen und Gegenmaßnahmen in Python zu implementieren, um die Cyber-Resilienz Ihrer ML-Modelle zu erhöhen. Ideal für Fachkräfte, die sich mit KI-Sicherheit auseinandersetzen.

 

Blended: Online und Präsenz

Certified Security Champion Training

Software sicher entwickeln: Dieser Kurs vermittelt, wie Security by Design und Defensive Coding Risiken minimieren. Lernen Sie, Sicherheitslücken zu erkennen, Schutzmaßnahmen umzusetzen und Ihr Team für Security zu sensibilisieren – praxisnah und sofort anwendbar.

 

Learning Nugget

Schwachstellen finden mit ChatGPT: Möglichkeiten der Automatisierung und Grenzen

Entdecken Sie, wie ChatGPT Code-Schwachstellen aufspürt und erweitern Sie Ihr Cybersicherheitswissen.

Kontakt

Ansprechpartner Fachliches

Dr.-Ing. Sascha Zmudzinski

Fraunhofer-Institut für Sichere Informationstechnologie SIT

Telefon +49 6151 869-321

 

Ansprechpartner Organisatorisches

Adem Salgin

 

Fraunhofer Academy

Telefon: +49 89 1205-1555