Suchen

Samstag, 13. Juli 2024

Mehr Misstrauen durch KI?

RC Trust erforscht Lügen-Algorithmus
Redaktion: Universität Duisburg-Essen
PRESSEMITTEILUNG
Duisburg/gc.  Wie wäre eine Welt, in der sich Lügen nicht mehr lohnten? Künstliche Intelligenz soll sie künftig entlarven. Professor Dr. Nils Köbis entwickelt dafür mit einer europäischen Forschungsgruppe einen Algorithmus und untersucht, wie sich eine automatisierte Lügenerkennung auf unsere Gesellschaft auswirken könnte. Das Fachmagazin iScience berichtet über die Studie.

Die meisten Menschen können Lügen nicht gut erkennen. Dazu kommt: Jemanden fälschlich der Lüge zu bezichtigen, kann unangenehme soziale Konsequenzen haben und will gut überlegt sein. Wir gehen daher in den meisten Alltagssituationen davon aus, dass unser Gegenüber die Wahrheit sagt. Für rechtlich relevante Situationen werden daher mitunter Lügendetektoren eingesetzt – moderne Varianten können natürliche Sprache verarbeiten und sind bei der textbasierten Suche nach gefälschten Bewertungen oder Spam überdurchschnittlich genau.

Auch Professor Dr. Nils Köbis vom Research Center for Trustworthy Data Science and Security der Universitätsallianz Ruhr hat gemeinsam mit Kollegen aus Würzburg, Berlin und Toulouse (Frankreich)* einen Algorithmus entwickelt, der Lügen deutlich besser erkennt, als Menschen es können. Die Wissenschaftlern untersuchten mit 2.040 Probanden aus den USA, wie diese mit den KI-Vorhersagen umgehen. Bezichtigten sie ihr Gegenüber der Lüge, wenn die KI entsprechende Hinweise gab? „Die meisten von ihnen zögerten zunächst, den Algorithmus zu nutzen. Wer die KI-Ratschläge befürwortete, folgte der Empfehlung überwiegend – auch wenn sie besagten, dass der gegenüber lügt“, erklärt Köbis.

Was bedeutet das für unser Zusammenleben, wenn die KI zwar zuverlässiger als Menschen Lügen entlarven kann, aber gelegentlich auch danebenliegt? „Eine breite Verfügbarkeit von Lügen-Erkennungs-Algorithmen könnte zu mehr Misstrauen in der Gesellschaft führen. Denn wer diese Technologie generell befürwortet, beschuldigt auch eher“, erläutert Psychologe Köbis und ergänzt: „Sie könnte aber auch die Aufrichtigkeit in unserer Kommunikation und in Verhandlungen fördern.“ Wichtig sei es daher, den KI-Einsatz gesetzlich zu regeln. „Die Politik sollte Maßnahmen zum Schutz der menschlichen Privatsphäre beschließen und den verantwortungsvollen Einsatz von KI fördern, besonders im Gesundheitswesen und in der Bildung“, so Köbis.

* Universität Würzburg, Max Planck Institute (MPI) for Human Development, Toulouse School of Economics, Institute for Advanced Study Toulouse, Frankreich

Originalpublikation:
Schenk et al., „Lie detection algorithms disrupt the social dynamics of accusation behavior“, in: iScience (2024), https://doi.org/10.1016/j.isci.2024.110201

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nils Köbis
Research Center for Trustworthy
Data Science and Security
sekretariat.koebis@uni-due.de

Redaktion:
Dr. Alexandra Nießen
Tel. 0203 37 91487
alexandra.niessen@uni-due.de
______________________________________