KI- und menschengenerierte Inhalte ähnlich glaubwürdig
Redaktion: Johannes Gutenberg-Universität Mainz
PRESSEMITTEILUNG
Mainz/gc. Eine neue Studie der Hochschule Mainz und der JGU zeigt, dass KI-generierten Inhalten eine größere Klarheit und Anziehungskraft zugesprochen wird.
In einer Zeit, in der das Internet für viele Menschen zur Hauptquelle von Informationen geworden ist, hat die Glaubwürdigkeit von Online-Inhalten und deren Quellen einen kritischen Wendepunkt erreicht. Diese Besorgnis wird durch die Verbreitung von Anwendungen generativer künstlicher Intelligenz (KI) wie ChatGPT und Google Bard verstärkt. Im Gegensatz zu traditionellen Plattformen wie Wikipedia, deren Inhalte von Menschen erstellt und betreut werden, erzeugen diese KI-gesteuerten Systeme die Inhalte eigenständig – oft mit Fehlern. Eine kürzlich veröffentlichte Studie, gemeinsam durchgeführt von Forschern der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU), widmet sich der Frage, wie Nutzer die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Benutzeroberflächen beurteilen. Die Studie umfasst mehr als 600 englischsprachige Teilnehmerinnen und Teilnehmer.
Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, betont: „Unsere Studie enthüllte einige wirklich überraschende Erkenntnisse. Es zeigte sich, dass die Teilnehmer unserer Studie KI-generierte und menschengenerierte Inhalte als ähnlich glaubwürdig einschätzen und zwar unabhängig von der Benutzeroberfläche." Er fügte hinzu: „Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen."
Die Studie wirft ein Schlaglicht auf den aktuellen Stand der Wahrnehmung und Nutzung KI-generierter Inhalte und die damit verbundenen Gefahren. Im digitalen Zeitalter, in dem Informationen leicht verfügbar sind, müssen Nutzerinnen und Nutzer über Unterscheidungsvermögen und kritisches Denken verfügen. Die Balance zwischen der Bequemlichkeit von KI-gesteuerten Anwendungen und verantwortungsbewusster Informationsnutzung ist entscheidend. Mit zunehmender Verbreitung von KI-generierten Inhalten müssen Nutzer sich der Grenzen und der inhärenten Vorurteile in diesen Systemen bewusst bleiben.
Prof. Dr. Franz Rothlauf von der Johannes Gutenberg-Universität Mainz sagt dazu: „Der Beitrag zeigt auf, dass im Zeitalter von ChatGPT Menschen nicht mehr zwischen Mensch und Maschine unterscheiden können. Da Maschinen allerdings nicht ‚wissen‘, sondern statistisch raten, brauchen wir zukünftig eine Kennzeichnungspflicht von maschinengeneriertem Wissen. Sonst können Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden.“ Es bleibt außerdem eine Aufgabe der Wissenschaftskommunikation und nicht zuletzt auch eine gesellschaftliche und politische Herausforderung, Nutzerinnen und Nutzer für eine verantwortungsvolle Verwendung von KI-generierten Inhalten zu sensibilisieren.
Weiterführende Links:
Wissenschaftliche Ansprechpartner:
Dr. Dominik Sobania
Wirtschaftsinformatik
Gutenberg School of Management and Economics
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-29452
dsobania@uni-mainz.de
Originalpublikation:
Martin Huschens et al.
Do You Trust ChatGPT? – Perceived Credibility of Human and AI-Generated Content
arXiv, 5. September 2023
DOI: 10.48550/arXiv.2309.02524
______________________________________