[21]

Typ: Häufig nachgefragt

[21] Red-Teaming im Bereich der Künstlichen Intelligenz wird meist von speziellen "Red Teams" durchgeführt, die Angriffsmethoden anwenden, um Fehler und Schwachstellen in KI-Systemen zu identifizieren, zum Beispiel schädliche oder diskriminierende Ergebnisse, unvorhergesehene oder unerwünschte Verhaltensweisen, Einschränkungen oder potenzielle Risiken im Zusammenhang mit dem Missbrauch des Systems.