Chancen und Risiken
Redaktion: Fraunhofer-Institut für System- und Innovationsforschung (ISI)
PRESSEMITTEILUNG
Karlsruhe/gc. Eine neue Studie des Fraunhofer ISI im Auftrag von TA-SWISS widmet sich dem Themenkomplex „Deepfakes“: Dabei wurde zunächst der technologische und forschungsseitige Stand mit Blick auf Deepfakes zusammengetragen und deren Wahrnehmung in der Schweizer Bevölkerung untersucht. Darüber hinaus analysierte die Studie mögliche Auswirkungen im Journalismus, Recht, Politik und Wirtschaft und leitet daraus Handlungsempfehlungen für diese Bereiche ab.
Dass „Deepfake“-Technologien künftig einen festen Platz in der Alltagskultur haben dürften, stellt die Studie „Deepfakes und manipulierte Realitäten“ gleich zu Beginn ihres Fazits klar und spricht mit Blick auf die täuschend echten Fälschungen in Audio- oder Videoform von einer in Zukunft „veränderten medialen Realität“. Allerdings kommen Deepfakes beziehungsweise „synthetische Medien“ momentan noch relativ selten vor, weshalb die Studie zunächst über den aktuellen technologischen Stand von Deepfake-Technologien aufklärt und den Wissenstand hierzu in der Schweizer Bevölkerung näher untersucht.
Erstellung von Deepfake-Inhalten ist bereits heute möglich
Die technische Herstellung von Deepfakes hat in den vergangenen Jahren beachtliche Fortschritte gemacht und dürfte sich in den kommenden Jahren rasant verbessern. So ist schon heute eine breite Palette an Deepfake-Inhalten mittels KI-basierter Text-, Bild- oder Audiogeneratoren herstellbar – vorausgesetzt ausreichendes Datenmaterial (zum Beispiel Sprachsamples oder Gesichtsfotos) und genügend Computerleistung sind vorhanden.
Damit lassen sich dann Sprechweise, Gesichtsausdruck und sogar Körperbewegungen eines Menschen nachahmen. Deepfake-Audioinhalte mit hoher Qualität sind auch aktuell schon mit vergleichsweise geringem Aufwand produzierbar. Die Erstellung von Deepfake-Videos ist heute noch mit größerem Aufwand verbunden – rasante Fortschritte in der Entwicklung von KI-Videogeneratoren werden künftig jedoch auch die einfache Erstellung von glaubwürdigen Deepfake-Videos ermöglichen.
Mittels einer repräsentativen Befragung von über 1.300 Personen untersuchte die Studie, wie die Schweizer Bevölkerung Deepfakes wahrnimmt, welche Erfahrungen sie hiermit sammelte und wie sie Chancen und Risiken von Deepfake-Technologien beurteilt. Die Studienergebnisse zeigen, dass „Deepfake“ für viele der Befragten ein noch unbekannter Begriff ist – lediglich etwa die Hälfte hat schon davon gehört oder bereits selbst Deepfakes gesehen. Nur eine sehr kleine Minderheit konnte bereits Erfahrungen mit dem Erstellen (2 %) und Verbreiten (3 %) von Deepfakes sammeln.
Ein Versuch im Rahmen der Studie verdeutlichte, dass die befragten Personen Deepfakes kaum von realen Videos unterscheiden konnten, insbesondere dann nicht, wenn diese von guter bis sehr guter Qualität waren. Auch assoziierten die befragten Personen Deepfakes stark mit Risiken und weniger mit Chancen. Allerdings bestimmte die gewählte Begrifflichkeit auch die Richtung des Diskurses: War von »synthetischen Medien« die Rede, fielen die Bewertungen durch die Befragten positiver aus als wenn von Deepfakes die Rede war.
Deepfakes werden in erster Linie als Risiko betrachtet
Weiterhin untersuchte die Studie auch die aktuelle und zukünftige Rolle von Deepfakes im Justizwesen, Journalismus, in der Politik sowie in der Wirtschaft, wobei hier mit Vertreter der jeweiligen Bereiche Experten-Interviews und Umfragen geführt oder Literaturrecherchen durchgeführt wurden. Im Journalismus und in der Politik werden Deepfakes in erster Linie als Risiko betrachtet und häufig auch dem Themenkomplex Desinformation zugeordnet. Die interviewten Journalisten betonten besonders die Wichtigkeit einer Sensibilisierung des Publikums für Deepfakes sowie die Notwendigkeit der Wissensvermittlung zur Überprüfung von Inhalten und ihrer Echtheit. Schweizer Parlamentariern und Angehörige der Bundesverwaltung äußerten in einer separaten Umfrage die Sorge, dass Deepfakes negative Auswirkungen auf die Funktionsträgern selbst, die Demokratie und die politischen Institutionen nehmen könnten und es gegenwärtig nur selten konkrete Schutzmaßnahmen gibt.
Dass Deepfakes aber mehr als nur Risiko und Desinformation sein können, zeigen die Analysen zu den Bereichen Recht und Wirtschaft: Während einige Anwendungsfälle von Deepfake-Technologien klar ins rechtlich Unerlaubte fallen, sind Deepfakes in anderen Fällen von der Meinungs-, Informations- und Kunstfreiheit oder dem Urheberrecht geschützt. Insbesondere beim Blick auf den Einsatz von Deepfake-Technologien in der Wirtschaft macht die Studie deutlich, dass diese auch enormes kreatives und ökonomisches Potenzial besitzen. Dennoch sehen die befragten Personen aus der Wirtschaft durchaus die Gefahr, die von Deepfakes ausgehen und weisen auf Einsatzmöglichkeiten im Bereich der Wirtschaftskriminalität wie Identitätsbetrug und Identitätsdiebstahl, Rufschädigung von Unternehmen, Täuschung von Mitarbeitenden oder Einsatzzwecke im Rahmen der Wirtschafts- und Industriespionage hin.
Studie benennt vier zentrale Empfehlungen
Dr. Murat Karaboga, Autor der Deepfake-Studie am Fraunhofer ISI, leitet die folgenden Handlungsempfehlungen aus der Studie ab: „Unsere Studie zeigt, dass zur Adressierung der durch Deepfakes verursachten oder verstärkten Herausforderungen eine Verknüpfung unterschiedlicher Maßnahmen erforderlich ist. Dabei müssen Staat, Bevölkerung, Organisationen sowie Medien Hand in Hand vorgehen. Eine erste Empfehlung unserer Studie lautet daher, dass das Vorantreiben der staatlichen Bemühungen zur Plattformregulierung, die auch eine Löschung oder Sperrung gemeldeter Deepfakes sowie ein Meldesystem rechtswidriger Inhalte inklusive entsprechender Transparenzvorgaben umfassen, unerlässlich für einen nachhaltigen Umgang mit Deepfake-Technologien in der Schweiz sind. Zweitens sollte die Selbstverantwortung von Bürgerinnen und Bürgern durch entsprechende Bildungsangebote verbessert werden, wobei der Unterstützung von Opferberatungsstellen und der Förderung und Vermittlung von Medienkompetenz eine besondere Rolle zukommt. Drittens sollten sich Organisationen in allen gesellschaftlichen und wirtschaftlichen Bereichen auf die zunehmende Allgegenwart von Deepfakes vorbereiten und etwa interne Risikoabschätzungen vornehmen und präventive sowie reaktive Maßnahmen eruieren. Eine vierte Empfehlung zielt auf den Journalismus ab, der durch das Hochhalten journalistischer Standards zur besseren Erkennung von Deepfakes und ihrer unmittelbaren Aufklärung der Bevölkerung über gefälschte Inhalte beitragen kann. Wichtig ist schließlich auch: Angesichts der enormen Geschwindigkeit der technologischen Weiterentwicklung sollten sich die Politik, Wirtschaft und Gesellschaft dieser Dynamik bewusst werden und darauf einstellen, neue Entwicklungen zu erkennen und mit adäquaten weiteren Schritten und Maßnahmen zu reagieren.“
Wissenschaftliche Ansprechpartner:
Dr. Murat Karaboga
Wissenschaftlicher Mitarbeiter am Fraunhofer ISI
Telefon +49 721 6809 453
murat.karaboga@isi.fraunhofer.de
Dr. Michael Friedewald
Leiter des Geschäftsfelds Informations- und
Kommunikationstechniken am Fraunhofer ISI
Telefon +49 721 6809 146
michael.friedewald@isi.fraunhofer.de
Originalpublikation:
______________________________________