Das Promotionsprojekt untersucht aus sozialpsychologischer Perspektive die Interaktion zwischen Mensch und KI bei der Erkennung von Deepfakes. Die zunehmende Verbreitung synthetischer Medien stellt eine erhebliche Gefahr für demokratische Gesellschaften dar, da Menschen große Schwierigkeiten haben, Deepfakes zuverlässig zu erkennen und ihre eigene Kompetenz dabei häufig überschätzen. KI-Systeme hingegen erreichen deutlich höhere Genauigkeitsraten bei der Identifikation solcher Inhalte. Anhand experimenteller Studien wird untersucht, unter welchen Bedingungen Menschen algorithmische Empfehlungen zur Erkennung von Deepfakes nutzen und wie sie diese in ihren Urteilen berücksichtigen. Als methodischer Ansatz dient hierbei das etablierte Judge-Advisor-Paradigma (JAS), ein klassisches sozialpsychologisches Untersuchungsdesign zur quantitativen Analyse der Ratschlagsnutzung. Konkret werden systematisch Unterschiede zwischen der Nutzung menschlicher und KI-generierter Ratschläge, der Einfluss wahrgenommener Expertise sowie die Auswirkungen der wahrgenommenen Aufgabenkomplexität auf die Akzeptanz algorithmischer Empfehlungen erforscht. Zusätzlich werden kognitive Verzerrungen, insbesondere der Partisan Bias und der Liar’s Dividend, hinsichtlich ihres Einflusses auf die menschliche Urteilsbildung im Umgang mit Deepfake-Inhalten untersucht. Ziel des Projekts ist es, psychologische Mechanismen der Mensch- KI-Interaktion im Kontext der Deepfake-Erkennung zu identifizieren und daraus evidenzbasierte Empfehlungen für eine verantwortungsbewusste und menschenzentrierte Gestaltung algorithmischer Entscheidungshilfen abzuleiten. Dadurch leistet das Vorhaben einen interdisziplinären Beitrag zur Debatte über Chancen und Risiken von KI („AI for Good“).
Forschungszeitraum
01.03.2025 bis 29.02.2025
Transferpromotion des ZAKI
Ziele des Projekts
- Identifikation psychologischer Einflussfaktoren auf die Akzeptanz und Nutzung KI-basierter Ratschläge zur Deepfake-Erkennung.
- Untersuchung der Wirkung von Expertise, Aufgabenkomplexität und KI-Transparenz auf das menschliche Entscheidungsverhalten mithilfe des Judge-Advisor-Paradigmas.
- Analyse kognitiver Verzerrungen wie Partisan Bias und Liar’s Dividend im Kontext politisch sensibler Inhalte.
Die Ergebnisse ermöglichen evidenzbasierte Gestaltungsempfehlungen für algorithmische Entscheidungssysteme, die sowohl die Erkennungsleistung verbessern als auch gesellschaftliches Vertrauen in KI-Technologien stärken.