Studie: Deepfakes als Gefahr für die Demokratie

Deepfakes sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mit Hilfe von KI-Technologien in neue Kontexte gestellt oder ihnen Worte in den Mund gelegt werden, die so niemals gesagt wurden. Dies erschwert zunehmend, den Wahrheitsgehalt von Aussagen zu überprüfen. Wie das Karlsruher Instituts für Technologie (KIT) mitteilt, haben sich Forscherinnen und Forscher im Auftrag des Europaparlaments (EP) mit den potenziellen Gefahren der Deepfake-Technologie beschäftigt und Optionen für eine bessere Regulierung entwickelt.

Deepfakes_Manipulationen_als_Gefahr_fuer_die_Demokratie
Rathenau Institut Deepfakes können Einzelpersonen, Organisationen oder ganzen Gesellschaften schaden. Schaubild aus der Studie für das Europaparlament.

Ihre internationale Studie für den Scientific Technology Options Assessment-Ausschuss des EP zeige, dass die Technologie missbraucht werden könne, um sehr effektiv Fake News und Desinformationen zu streuen. Aufgrund des rapiden technologischen Fortschritts dürfe man sich allerdings nicht auf Vorschriften zur Technikentwicklung beschränken. Bei der Regelung zum Umgang mit Deepfakes müsse in erster Linie bei Internetplattformen und Medienunternehmen angesetzt werden, da sie potenzielle Distributionskanäle für Deepfakes seien, heißt es weiter. Aufbauend auf die europäische Studie untersucht derzeit ein interdisziplinäres Projekt am KIT, wie effektive gesellschaftliche Antworten auf Deepfakes aussehen könnten. Neben der Technikfolgenabschätzung arbeiten dabei Fachleute aus Informatik, Kommunikations- und Rechtwissenschaft sowie qualitativer Sozialforschung des KIT zusammen. Ziel sei es, die Erkenntnisse und Ansätze der unterschiedlichen Disziplinen zusammenzuführen. Eine Pilotstudie soll insbesondere die Perspektive von Nutzerinnen und Nutzern genauer untersuchen.

Der vollständige Report „Tackling deepfakes in European policy“ kann unter www.europarl.europa.eu/thinktank/ abgerufen werden.