Die Herausforderung: Wie sicher ist Ihre KI gegen Angriffe und Manipulationen?
Die Integrität und Vertraulichkeit von KI-Systemen können durch Angreifer gezielt manipuliert werden, sodass ein Klassifikator falsche Entscheidungen trifft (z.B. durch Poisoning der Trainingsdaten oder Adversarial Attacks). Auch können Angreifer vertrauliche Informationen aus den Trainingsdaten oder dem trainierte ML-Modell extrahieren (z.B. durch Membership Inference oder Model Stealing).
Die Lösung: Security und Privacy von KI-Systemen und ML-Modellen sicherstellen
In dieser Weiterbildung lernen Sie Angriffe und Gegenmaßnahmen im Kontext ‘Security und Privacy von maschinellem Lernen’ in Theorie und Praxis kennen.
Lernen Sie in unseren KI-Schulungen, wie Sie ML-Modelle effektiv und sicher einsetzen können, um Ihre internen Prozesse zu optimieren, neuartige Produkte und Dienstleistungen zu entwickeln – und dabei Datenlecks und Hacking in Ihren KI-Systemen zu verhindern.
Ihr Vorteil auf einen Blick
Nach dem Seminar können Sie...
- Die Gefahren der Angriffsarten Adversarial Evasion, Model Stealing, Data Poisoning, Membership Inference und Model Inversion verstehen und einordnen können.
- Security-Attacks und Privacy-Attacks auf ML-Modelle abwehren.
- Angriffe sowie geeignete Gegenmaßnahmen in Python implementieren.
Dieses Seminar bietet Ihnen...
- Aktuelles Forschungswissen aus der künstlichen Intelligenz und dem Machine Learning.
- Praxisnahe Programmierübungen zur Abwehr von Bedrohungen auf KI-Systeme.
- Austausch und Vernetzung mit unseren Expert*innen und anderen Kursteilnehmer*innen aus dem Themenbereich KI.