Der KI-Ghostwriter-Effekt
Redaktion: Ludwig-Maximilians-Universität München
PRESSEMITTEILUNG
München/gc. Eine neue Studie zeigt, wie Menschen ihre Urheberschaft an künstlich erstellten Texten wahrnehmen und angeben.
Große Sprachmodelle (Large Language Models, kurz: LLMs) beschleunigen das Erstellen von Texten in einer Vielzahl von Anwendungsbereichen radikal. Wenn sie mit Proben unseres individuellen Schreibstils gefüttert werden, sind sie sogar in der Lage, Texte zu produzieren, die so klingen, als hätten wir sie selbst geschrieben. Mit anderen Worten: Sie fungieren als KI-Ghostwriter, die in unserem Namen Texte erstellen können.
Wie beim menschlichen Ghostwriting wirft dies eine Reihe von Fragen über Urheberrecht und Eigentumsansprüche auf. Ein Team rund um LMU-Medieninformatikerin Fiona Draxler vom Institut für Informatik hat sich in einer kürzlich im Fachmagazin ACM Transactions on Computer-Human Interaction erschienenen Studie mit genau diesen Fragen zu KI-Ghostwriting beschäftigt. „Wir befassen uns jedoch nicht mit der rechtlichen Seite, sondern mit der menschlichen Perspektive“, so Draxler. „Wenn sich eine Künstliche Intelligenz bei der Erstellung eines Textes auf meinen Schreibstil stützt, inwieweit ist es dann mein Text? Habe ich das Gefühl, dass der Text mir gehört? Behaupte ich, dass ich der Autor bin?“
Um diese Fragen zu beantworten, führten die Forschenden und Experten für Mensch-Computer-Interaktionen ein Experiment durch, bei dem die Teilnehmenden mit oder ohne Hilfe eines KI-Sprachmodells eine Postkarte schreiben sollten, die (pseudo-)personalisiert auf ihren jeweiligen Schreibstil zugeschnitten war. Im Anschluss baten sie die Probandinnen und Probanden, die Postkarte mit einem Upload-Formular zu veröffentlichen und einige zusätzliche Informationen auf der Postkarte anzugeben, darunter den Autor und einen Titel.
„Je stärker die Teilnehmenden in das Schreiben der Postkarten involviert waren, desto stärker hatten sie das Gefühl, dass die Postkarte ihnen gehört“, erklärt Professor Albrecht Schmidt, Co-Autor der Studie und Leiter des Lehrstuhls für Human-Centered Ubiquitous Media. Das Eigentumsgefühl sei also hoch, wenn sie den Text selbst verfassten, und niedrig, wenn der Postkartentext vollständig von dem LLM generiert wurde.
Allerdings stimmte das gefühlte Eigentum am Text nicht immer mit der angegebenen Urheberschaft überein. In einigen Fällen gaben die Probanden ihren eigenen Namen als Urheber der Postkarte an, auch wenn sie sie nicht geschrieben hatten und sich auch nicht als Eigentümer fühlten. Das erinnert an klassische Ghostwriting-Praktiken, bei denen der angegebene Autor ebenfalls nicht der Textersteller ist.
Forschende fordern mehr Transparenz
„Unsere Ergebnisse zeigen die Herausforderungen auf, die wir angehen müssen, wenn wir uns im privaten und beruflichen Kontext zunehmend auf die Generierung von KI-Texten mit personalisierten LLMs verlassen“, sagt Draxler. „Insbesondere wenn das Fehlen transparenter Autorenschaftserklärungen oder Verfasserangaben uns daran zweifeln lässt, ob eine KI zum Schreiben eines Textes beigetragen hat, kann dies seine Glaubwürdigkeit und das Vertrauen der Leser schwächen.“ In einer Gesellschaft, die schon heute mit einer Vielzahl von Fake News und Verschwörungstheorien konfrontiert ist, sei Transparenz jedoch von entscheidender Bedeutung. Die Autorinnen und Autoren der Studie fordern deshalb einfache und intuitive Möglichkeiten, individuelle Beiträge so zu verbreiten, dass dabei eine Offenlegung der Entstehungsprozesse gefördert wird.
Wissenschaftliche Ansprechpartner:
Fiona Draxler
Human-Centered Ubiquitous Media
Ludwig-Maximilians-Universität München
Tel.: +49 89 2180 72336
fiona.draxler@lmu.de
Originalpublikation:
Fiona Draxler, Anna Werner, Florian Lehmann, Matthias Hoppe, Albrecht Schmidt, Daniel Buschek, and Robin Welsch. 2023. The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of AI-Generated Text But Self-Declare as Authors. ACM Transactions on Computer-Human Interaction.
______________________________________