Erklärbare KI: Heilsbringer oder Hürdenlauf? Erkenntnisse, Herausforderungen und Wege nach vorn
Erklärbare Künstliche Intelligenz (XAI) wird oft als Schlüsseltechnologie gefeiert, um KI transparenter und vertrauenswürdiger zu machen. Das zeigt sich nicht nur in der prominenten Rolle von XAI in der KI-Verordnung der EU, etwa im Kontext von Human Oversight und Systemprüfbarkeit, sondern auch in den breiten Versprechungen, die mit XAI assoziiert werden wie beispielsweise bessere Entscheidungsqualität in Mensch-Maschine Teams, angemessenes Vertrauen, oder besser Zuschreibung von Verantwortlichkeiten.
In meinem Vortrag gebe ich zunächst einen Überblick über gängige Narrative und Ziele von XAI. Anschließend stelle ich ausgewählte empirische Erkenntnisse unserer Arbeitsgruppe vor, darunter Studien, die zeigen, dass XAI nicht zwangsläufig zu besseren Entscheidungen führt, sowie Untersuchungen, die Spannungsfelder zwischen Effizienz und Nachvollziehbarkeit aufzeigen. Dabei beleuchte ich zentrale Herausforderungen in der Forschung zu XAI. Beispielsweise, gibt es kaum Studien in denen Teilnehmende augenscheinlich motiviert sind Erklärungen überhaupt wahrzunehmen, geschweige denn zu nutzen. Darüber hinaus bleibt die Messung von „Verstehen“ im Bereich XAI methodisch anspruchsvoll. Abschließend skizziere ich mögliche Wege nach vorn. Dazu gehören die stärkere Ausrichtung von XAI an spezifischen Zielsetzungen, die Entwicklung realistischerer Studienszenarien sowie die präzisere theoretische Fundierung und Operationalisierung zentraler Konzepte.