EC-Council Certified Offensive AI Security Professional (C|OASP)

Preis
Netto
MwSt.

Preis
Preis auf Anfrage

Dauer
5 Tage

Für Unternehmen und Arbeitssuchende:
dieser Kurs ist zu 100 % förderfähig!
 

Standort

Kurssprache
englisch

Trainingslösungen
Online Live

Angriffe werden intelligenter – und nutzen zunehmend KI. Gefragt ist ein tiefes Verständnis dafür, wie offensive Techniken mit künstlicher Intelligenz kombiniert werden, um Systeme realitätsnah zu prüfen und Schwachstellen frühzeitig sichtbar zu machen.

Zentrale Themen

  • Adversarial AI und Angriffsmodelle
  • Prompt Injection und Model Exploits
  • Automatisierte Schwachstellenanalyse
  • Red Teaming mit KI-Unterstützung
  • Absicherung von ML- und LLM-Systemen

Voraussetzung
Grundlagen in IT-Security, Netzwerken und erste Berührungspunkte mit Machine Learning

Zielgruppe
Security Professionals, Penetration Tester, Red Teams, IT-Architekten

Relevantes Know-how für eine Sicherheitslandschaft, in der klassische Methoden nicht mehr ausreichen und intelligente Angriffssimulation zum Standard wird.

Als PDF drucken/speichern
Kursinhalte
  • Grundlagen von KI und maschinellem Lernen aus der Perspektive der offensiven Sicherheit verstehen.
  • Angriffsflächen, Bedrohungslandschaften und Angreifertechniken im Bereich KI identifizieren, abgestimmt auf MITRE ATLAS.
  • Methoden, Frameworks und Risikoauswirkungen beim Hacken von KI-Systemen anwenden.
  • Taxonomien und Modelle für KI-Angriffe klassifizieren.
  • Offensive KI-Grundlagen und Grundlagen für die Sicherung von KI-Systemen definieren.
  • Einen Überblick und eine Zuordnung der OWASP LLM & ML Top 10 (2025) zu KI-Bedrohungen und Governance-Überlegungen bereitstellen.
  • Anwendung von OSINT-Tools und -Techniken zur Identifizierung und Profilierung von KI-Ressourcen.
  • Erfassung von Informationen aus KI-Datenquellen und Trainingspipelines.
  • KI-Angriffsflächen mithilfe öffentlich zugänglicher Informationen aufdecken und kartieren.
  • KI-Endpunkte, Dienste, APIs und exponierte Parameter erfassen.
  • KI-Modelle und Vektorspeicher aus der Perspektive eines Angreifers identifizieren und analysieren.
  • OSINT-Exposition bewerten und Sicherheitsmaßnahmen anwenden, um Risiken zu reduzieren.
  • KI-Bedrohungsinformationen nutzen, um die kontinuierliche Überwachung und die Verteidigungsbereitschaft zu unterstützen.
  • Grundlegende Prinzipien der Schwachstellenanalyse und Bedrohungserkennung bei KI verstehen.
  • Tools und Techniken zum Scannen von Schwachstellen in KI-Modellen, Pipelines und Bereitstellungen einsetzen.
  • Praktische Fuzzing-Methoden anwenden, die speziell auf KI-Systeme und Modellschnittstellen zugeschnitten sind.
  • Scans und Fuzzing in KI-Sicherheitsworkflows integrieren, um Risiken proaktiv zu mindern.
  • LLM-Architektur, Vertrauensgrenzen und damit verbundene Angriffsvektoren.
  • Anwendung von Prompt-Injection- und Jailbreaking-Techniken in realen LLM-Anwendungen.
  • Ermittlung von Risiken hinsichtlich der Offenlegung sensibler Informationen und des Verlusts von Systemprompts.
  • Bewertung von Schwachstellen bei der unsachgemäßen Verarbeitung von Ausgaben und Bedrohungen durch Fehlinformationen.
  • Anwendung fortgeschrittener promptbasierter Angriffstechniken und Exploit-Strategien.
  • Umsetzung von Prinzipien für ein sicheres LLM-Anwendungsdesign und defensiver Kontrollmaßnahmen.
  • Kernklassen von Adversarial-Machine-Learning-Angriffen identifizieren.
  • Praktische Adversarial-Input-Angriffe über verschiedene Datenmodalitäten hinweg durchführen.
  • Angriffstechniken in den Bereichen Datenschutz, Inferenz und Modellextraktion anwenden.
  • Methoden zur Bewertung von Robustheit, Vertrauenswürdigkeit und Risiken evaluieren.
  • Verteidigungsstrategien für den Datenschutz und die Widerstandsfähigkeit von Modellen implementieren.
  • Architektur von KI-Daten- und Trainingspipelines sowie deren Angriffsflächen verstehen.
  • Praktische Techniken zur Datenverfälschung und Angriffsszenarien durchführen.
  • Einfügen von Hintertüren und Trojanern während des Modelltrainings anwenden.
  • Sicherheitsmaßnahmen zum Schutz von Daten- und Trainingspipelines implementieren.
  • Die Architektur und Angriffsfläche aktionsorientierter KI verstehen.
  • Techniken zur Ausnutzung übermäßiger Handlungsfähigkeit und Autonomie anwenden.
  • Angriffsvektoren über mehrere LLMs hinweg sowie Modell-zu-Modell-Angriffsvektoren identifizieren.
  • Risiken im Zusammenhang mit „Denial-of-Wallet“ und unbegrenztem Ressourcenverbrauch bewerten.
  • Angriffe auf KI-Workflows und Orchestrierungsschichten durchführen.
  • Verteidigungsstrategien zur Absicherung aktionsorientierter KI-Anwendungen implementieren.
  • KI-Infrastrukturkomponenten und Systemintegrationsarchitekturen verstehen.
  • Schwachstellen in KI-Systemen, Frameworks und Bereitstellungspipelines identifizieren.
  • Den Missbrauch von Tools, Plugins und APIs in KI-gestützten Anwendungen analysieren.
  • Bedrohungen für die KI-Lieferkette und Abhängigkeitsrisiken bewerten (vertiefende Betrachtung).
  • Strategien zur Absicherung der KI-Infrastruktur und Lieferketten umsetzen.
  • Methoden für Sicherheitstests und Bewertungstechniken im Bereich KI verstehen.
  • Red-Team-Frameworks für die offensive Bewertung von KI anwenden.
  • Sicherheitslücken und Risiken im Zusammenhang mit KI identifizieren, validieren und dokumentieren.
  • Bewährte Verfahren zur Absicherung und Risikominderung für KI-Systeme umsetzen.
  • KI-spezifische Sicherheitsvorfälle erkennen und darauf reagieren.
  • KI-Protokolle, Telemetriedaten und digitale Beweismittel erfassen und analysieren.
  • Die Ursachen im Rahmen der Nachanalyse des Vorfalls ermitteln.

Häufig gestellte Fragen

  • Praxisnahes Know-how, um KI-Systeme gezielt anzugreifen und abzusichern – genau die Skills, die Unternehmen aktuell dringend suchen.
  • Weil KI-Modelle neue Angriffsflächen schaffen – wer sie versteht, kann reale Sicherheitslücken erkennen, bevor es andere tun.
  • Manipulierte Modelle, Datenlecks und unerkannte Schwachstellen – oft mit massiven finanziellen und reputativen Schäden.
  • Hier geht es nicht um Theorie, sondern um aktive Angriffe auf KI-Systeme – ein klarer Vorsprung gegenüber Standard-Zertifizierungen.
  • Prompt Injection, Model Exploitation, Adversarial Attacks und Absicherung von AI-Systemen – direkt anwendbar im Job.
  • Sofort – die Inhalte sind auf reale Bedrohungen ausgelegt und lassen sich direkt in Projekten oder im Unternehmen nutzen.
  • Weil sich der Markt rasant entwickelt – wer früh Expertise aufbaut, sichert sich klare Karriere- und Gehaltsvorteile.

Hast du weitere Fragen? Bitte kontaktiere uns.