ISTQB® Certified Tester - AI Testing (CT-AI)

Preis
Netto:
MwSt.:

Preis
Preis auf Anfrage

Dauer
3 Tage

Unternehmen und Arbeitsuchende:
dieser Kurs ist zu 100 % förderbar!
 

Standort

Kurssprache
englisch

Trainingslösung
Online Live

Intelligente Systeme treffen Entscheidungen auf Basis von Daten. Qualitätssicherung muss deshalb Modelle, Trainingsprozesse und dynamisches Verhalten systematisch prüfen. Aktuelles Know-how im Bereich AI Testing verbindet klassische Testmethodik mit Data Science und moderner Softwarearchitektur.

Zentrale Themen

  • Besonderheiten von KI-Systemen im Testkontext.
  • Verifikation und Validierung von Machine-Learning-Modellen.
  • Testdatenmanagement und Datenintegrität.
  • Erklärbarkeit, Fairness und Bias-Kontrolle.
  • Teststrategie für adaptive und selbstlernende Systeme.
  • Governance, Compliance und Risikomanagement.

Voraussetzung
Erfahrung im Softwaretest oder in der Qualitätssicherung; Verständnis grundlegender Entwicklungsprozesse und Testkonzepte.

Zielgruppe
QA Professionals, Testanalysten, IT-Projektleitende, Entwicklerteams, Data Analysts sowie Verantwortliche für KI-gestützte Produkte.

Schluss
Strukturierte Testverfahren für KI schaffen Verlässlichkeit, Nachvollziehbarkeit und Vertrauen in datenbasierte Anwendungen – essenziell für Organisationen, die Innovation verantwortungsvoll gestalten wollen.

Als PDF drucken/speichern
Kursinhalte
  • Begriffserklärung und KI-Effekt
  • Schwache, starke und überlegene KI
  • Vergleich klassischer und KI-gestützter Systeme
  • Technologische Ansätze der KI
  • Entwicklungsplattformen für KI
  • Technische Ausstattung für KI-Systeme
  • Künstliche Intelligenz als Service (AIaaS)
  • Vorgefertigte KI-Modelle
  • Richtlinien, Normen und Regulierung von KI
  • Anpassung und Wandelbarkeit
  • Selbstständigkeit
  • Fortschritt
  • Vorurteile
  • Moral
  • Risiken und Manipulation von Anreizen
  • Offenheit, Nachvollziehbarkeit und Deutung
  • Schutz und künstliche Intelligenz
  • Arten von Machine Learning
  • Ablauf im Machine Learning
  • Wahl des passenden Ansatzes
  • Faktoren für die Algorithmenwahl
  • Overfitting und Underfitting
  • Datenverarbeitung im ML-Prozess
  • Aufteilung in Trainings-, Validierungs- und Testdaten
  • Herausforderungen bei der Datenqualität
  • Einfluss der Datenqualität auf Modelle
  • Labeling von Daten für Supervised Learning
  • Fehler-Matrix
  • Erweiterte Leistungsmaße für Klassifizierung, Regression und Clustering
  • Limitierungen von Leistungsmaßen
  • Auswahl passender Leistungsmaße
  • Referenzsets für ML
  • Künstliche Netzwerke
  • Kennzahlen zur Netzabdeckung
  • Anforderungen für KI-Systeme
  • Ebenen beim KI-Testing
  • Datenbasis für KI-Tests
  • Bias-Prüfung in KI-Automation
  • Nachweise für KI-Module
  • Prüfung auf Konzeptänderung
  • Wahl der ML-Teststrategie
  • Tests lernender Systeme
  • Prüfung autonomer Systeme
  • Verzerrungen und Zufall prüfen
  • Unsichere Systeme testen
  • Komplexe Systeme prüfen
  • Transparenz und Erklärung testen
  • Orakel für KI-Tests
  • Ziele und Kriterien festlegen
  • Angriffe durch Manipulation und falsche Daten
  • Vergleichstests in Paaren
  • Gegenüberstellende Prüfungen
  • Varianten-Tests A gegen B
  • Metamorphische Prüfmethoden
  • Praxisnahe Tests für Systeme mit KI
  • Auswahl passender Prüfverfahren für KI-Systeme
  • Prüfplattformen für intelligente Systeme
  • Digitale Umgebungen zum Testen von Smart-Systemen
  • Intelligente Systeme im Testeinsatz
  • KI-gestützte Auswertung von Fehlerreports
  • KI-basierte Erstellung von Testfällen
  • KI-Optimierung von Regressionstests
  • KI-Methoden zur Fehlerprognose
  • KI-Prüfung von grafischen Oberflächen

Hast du weitere Fragen? Bitte kontaktiere uns.