Hacking und Härtung von Machine Learning-Modellen

Wie können Hacker KI-Systeme und ML-Modelle angreifen? Wie kann man sie cyberresilient schützen?

Durch Machine Learning (ML) können KI-Systeme große und heterogene Datenmengen automatisiert auswerten. Dadurch ergeben sich völlig neue Möglichkeiten für Ihre digitalen Dienste und Produkte - aber auch neue Angriffsvektoren. In unserer Fortbildung lernen Sie diese Angriffe sowie geeignete Gegenmaßnahmen kennen und wie Sie diese in Python implementieren.

© iStock

Die Herausforderung: Wie sicher ist Ihre KI gegen Angriffe und Manipulationen?

Die Integrität und Vertraulichkeit von KI-Systemen können durch Angreifer gezielt manipuliert werden, sodass ein Klassifikator falsche Entscheidungen trifft (z.B. durch Poisoning der Trainingsdaten oder Adversarial Attacks). Auch können Angreifer vertrauliche Informationen aus den Trainingsdaten oder dem trainierte ML-Modell extrahieren (z.B. durch Membership Inference oder Model Stealing).

 

Die Lösung: Security und Privacy von KI-Systemen und ML-Modellen sicherstellen

In dieser Weiterbildung lernen Sie Angriffe und Gegenmaßnahmen im Kontext ‘Security und Privacy von maschinellem Lernen’ in Theorie und Praxis kennen.

Lernen Sie in unseren KI-Schulungen, wie Sie ML-Modelle effektiv und sicher einsetzen können, um Ihre internen Prozesse zu optimieren, neuartige Produkte und Dienstleistungen zu entwickeln – und dabei Datenlecks und Hacking in Ihren KI-Systemen zu verhindern.


Ihr Vorteil auf einen Blick

Nach dem Seminar können Sie...

  • Die Gefahren der Angriffsarten Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion verstehen und einordnen können.
  • Security-Attacks und Privacy-Attacks auf ML-Modelle abwehren.
  • Angriffe sowie geeignete Gegenmaßnahmen in Python implementieren.

 Dieses Seminar bietet Ihnen...

  • Aktuelles Forschungswissen aus der künstlichen Intelligenz und dem Machine Learning.
  • Praxisnahe Programmierübungen zur Abwehr von Bedrohungen auf KI-Systeme.
  • Austausch und Vernetzung mit unseren Expert*innen und anderen Kursteilnehmer*innen aus dem Themenbereich KI.
ÜBERBLICK
Veranstaltungstyp
Präsenz-Seminar
Format
Präsenz
Abschluss
Teilnahmebescheinigung
Zugangsvoraussetzung
Sie bringen Kenntnisse in Machine Learning (z.B. Neuronale Netze, Gütemaße) sowie Programmierkenntnisse in Standard-Python mit. Es wäre außerdem von Vorteil, wenn Sie praktische Erfahrung mit ML-Klassifikatoren haben.
Termine, Anmeldefrist und Ort
  • 08.10.2024 - 11.10.2024 in Darmstadt (Anmeldung bis 23.09.2024)
Dauer/ Ablauf
Dauer in Tagen: 4 Kursdauer in Stunden: 28 Stunden Tag 1: 9:00 - 17:00 Uhr Tag 2: 9:00 - 17:00 Uhr Tag 3: 9:00 - 17:00 Uhr Tag 4: 9:00 - 17:00 Uhr
Sprache
Deutsch
Teilnahmegebühr
2.500,00 Euro (USt. befreit gemäß §4 Nr. 22 Buchstabe a UStG)
Veranstaltungsort
Fraunhofer-Institut für Sichere Informationstechnologie SIT, Rheinstr. 75, 64295 Darmstadt
ZIELGRUPPE
  • IT‑Sicherheitsexpert*innen
  • Fachkräfte für KI
  • Machine Learning
  • Data Science / Data Analytics
  • Product Owner und Software-Entwickler*innen für KI-gestützte Lösungen
INHALTE
  • Einführung und Motivation
  • Review zu neuronalen Netzen / Backpropagation
  • Übersicht Security Attacks
  • Whitebox-, Blackbox- und Graybox-Angriffe
  • Adversarial Evasion Attacks (z.B. FGSM und Cleverhans)
  • Jailbreaks auf LLMs
  • Model Stealing
  • Data Poisoning
  • Synthetisch generierte Daten (z.B. Deepfakes, Large Language Models)
  • Übersicht Privacy-Preserving Machine Learning
  • Membership / Property / Attribute Inference
  • Model Inversion

Hierbei werden Angriffe auf ML-Modelle und die Gegenmaßnahmen hierzu behandelt, z.B. Retraining, Regularisierung, Distillation bei Evasion-Angriffen.

Kursteile mit Vorträgen, Demos und Programmierübungen in Python wechseln sich ab. Die Übungen behandeln unterschiedliche Modalitäten, wie z.B. digitale Bilddaten, Audio oder Text/Sprache.

LERNZIELE

Angriffsvektoren und Gegenmaßnahmen auf ML-Modelle in KI-Systemen in der Theorie und in Ihrer Praxisbedeutung verstehen.

Security- und Privacy-Angriffe und Gegenmaßnahen mit aktuellen Python-Libraries implementieren und evaluieren können.

REFERENTEN

Verena Battis

Lukas Graner

Die Trainer*innen verfügen über langjährige Erfahrung im Bereich künstliche Intelligenz und Machine Learning. Sie sind  wissenschaftlich und beratend in Forschungs- und Industrieprojekten tätig. 

Referenzen:


Dr. Nicolas Müller

Nicolas Müller ist seit 2017 als wissenschaftlicher Mitarbeiter in der Abteilung Cognitive Security Technologies des Fraunhofer AISEC tätig. Seine Forschungsschwerpunkte liegen im Bereich Machine Learning und Anomaly Detection für Cyber Security. Herr Müller hat zuvor am Fraunhofer ISE als Softwareentwickler gearbeitet und an der Universität Freiburg Mathematik und Informatik studiert und abgeschlossen.