
Scarlett Johansson hat auf die Bedrohung durch künstliche Intelligenz (KI) und die Verbreitung von Deepfakes aufmerksam gemacht, nachdem sie wiederholt Opfer eines KI-Fakes geworden ist. In einem jüngst viral gegangenen Video, das mit Hilfe von KI erstellt wurde, wird sie dabei gezeigt, wie sie Kanye West kritisiert. Johansson äußert Bedenken über die Gefahren dieser Technologie und deren Potenzial, antisemitische Inhalte zu verstärken. Die Schauspielerin hat von Freunden und Familie von diesem Fake-Clip erfahren und betont, wie wichtig es ist, gegen Hassreden und Antisemitismus vorzugehen. Gala berichtet, dass Johansson bereits zuvor Opfer von ähnlichen Fälschungen war, bei denen sogar eine KI-Stimme, die ihr ähnlich klingt, zum Einsatz kam.
Inzwischen haben auch andere prominente Persönlichkeiten, darunter David Schwimmer und Steven Spielberg, ihre Stimmen erhoben und sich ebenfalls gegen die antisemitischen Äußerungen von Kanye West ausgesprochen. Johansson sieht die Problematik als parteiübergreifende Angelegenheit und appelliert an die US-Regierung, Gesetze zu verabschieden, die den unerlaubten Einsatz von KI regulieren. Sie warnt davor, dass diese Technologie eine ernsthafte Bedrohung für die Gesellschaft darstellt.
Deepfakes und ihre Gefahren
Deepfakes sind synthetische audio-visuelle Medien, die mithilfe von KI erzeugt werden. Die Verbreitung dieser Technologie hat Besorgnis ausgelöst, insbesondere hinsichtlich ihrer möglichen Auswirkungen auf demokratische Prozesse und die Integrität von Informationen. Laut einem Artikel auf Spiegel können Deepfakes nicht nur zur politischen Manipulation eingesetzt werden, sondern auch Fake-News und Misstrauen gegenüber Institutionen fördern.
Die Gefahren sind vielfältig: Sie reichen von der Manipulation von Wählern im Hinblick auf falsche Darstellungen von Kandidaten bis hin zur Schädigung diplomatischer Beziehungen durch gezielte Desinformation. Ein weiteres Risiko betrifft die „Lügner*innen-Dividende“, mit der Personen belastende Videos als Deepfakes abtun können, was die Evidenzlage in Streitfällen kompliziert. Dies könnte das Vertrauen in demokratische Prozesse gefährden und zu einer weiteren Spaltung der Gesellschaft führen, indem gefälschte Videos von politischen Aktivisten wie Emma Gonzalez verbreitet werden.
Die Notwendigkeit von Regulierung
Die Diskussion über Deepfakes hinterfragt auch die Legitimität ihrer Nutzung in verschiedenen Kontexten. Während 96% der Deepfakes pornografischer Natur sind, was vor allem Frauen betrifft und deren Persönlichkeitsrechte verletzt, gibt es auch verantwortungsvolle Anwendungen, wie etwa die Unterstützung von Aktivisten in autokratischen Regimen oder Anwendungsmöglichkeiten in der Bildung. Schützenswerte Gruppen können durch transparente Dokumentarfilme, wie „Welcome to Chechnya“, von der Technologie profitieren.
Dennoch sind die Bedenken nicht unbegründet: Der zunehmende Einsatz von Deepfakes könnte das gesellschaftliche Vertrauen in demokratische Prozesse stark gefährden. Experten fordern daher mehr Transparenz, beispielsweise durch eine klare Kennzeichnung von Deepfakes, um Täuschungen zu vermeiden. Ein nachhaltiger Dialog über spezifische Regulierungen für verschiedene Anwendungsbereiche ist dringend nötig, wie auch Universität Tübingen betont.