Whitepaper zum Machtpoker China vs. USA
Wer wird die Supermacht im digitalen Zeitalter? Und wie? 3 Szenarien von Eskalation bis Deeskalation.
Lügen waren noch nie so wahr wie heute. Die Besorgnis über immer bessere Technologien, die in der Lage sind, überzeugend gefälschte Videos und Audiodateien, sogenannte "Deepfakes", zu erstellen, steigt weltweit. Aber zur gleichen Zeit, in der sie entwickelt werden, kämpfen andere Technologen auch dagegen an.
©Wired
"Die Sorge ist, dass es eine weltweit wachsende Bewegung gibt, die die Qualität der Informationen und damit den in einer Demokratie notwendigen Diskurs untergräbt", sagte Eileen Donahoe, Mitglied der Transatlantischen Kommission für Wahlintegrität, gegenüber CNBC im Dezember 2018. Ihrer Ansicht nach seien Deepfakes möglicherweise die nächste Generation der Desinformation.
Der kalifornische Senat ist so besorgt über das Risiko von Fälschungen im Vorfeld der Wahlen von 2020, dass er im Oktober 2019 ein Gesetz verabschiedete, das die Verbreitung von "täuschenden Audio- oder Bildmedien" innerhalb von 60 Tagen vor einer Wahl verbietet.
Tatsächliche politische Auswirkung durch Deepfakes scheinen jedoch noch nicht aufgetreten zu sein. Die meisten Deepfakes werden in der Pornografie erstellt, ohne die Zustimmung der dargestellten Personen. Dies bedeutet nicht, dass es keine anderen potenziellen Deepfake-Anwendungen gibt. Einschliesslich gefälschter Beweise, Betrug oder Erpressung. Die andere Möglichkeit, dass der Hinweis "Achtung Deepfake!" dazu verwendet werden könne, um echtes Filmmaterial als Fälschung zu diskreditieren, ist ebenso besorgniserregend. Obwohl das kalifornische "Anti-Deepfake-Gesetz" mehrere Mängel aufweist, wirft es doch eine wichtige Frage auf: Wer soll nachzuweisen, ob ein Interview oder Video manipuliert wurde?
Forscher auf der ganzen Welt arbeiten daran, Tools zu entwickeln, die genau das bewerkstelligen sollen: Indem sie die KI mit KI bekämpfen. Der entscheidende Punkt bei Deepfakes ist, dass sie überzeugend genug sind, um ein menschliches Publikum zu täuschen. Da die Technologie zur Erstellung von Deepfakes immer effektiver wird und für Scharlatane immer leichter zugänglich ist, gerät die Entwicklung von ebenso leistungsfähigen Technologien zur Erkennung und Analyse von Deepfakes zur entscheidenden Schlacht um die Wahrheit.
"Audio- und visuelle Deepfakes, die gut gemacht sind, sind selbst für Menschen schwer zu erkennen", sagt Ragavan Thurairatnam. Thurairatnam ist Mitbegründer und Leiter des Bereichs Maschinelles Lernen bei Dessa, einem Start-up, das ein Werkzeug entwickelt hat, um die Stimme des Komikers Joe Rogan zu fälschen und die Fähigkeiten von Audio-Deepfakes zu demonstrieren. Das Unternehmen arbeitet derzeit an der Entwicklung einer KI zur Erkennung von Audio-Deepfakes.
"Wenn wir einen traditionellen softwarebasierten Ansatz ausprobieren, ist es sehr schwierig, Regeln zu finden, nach denen Deepfakes abgefangen werden können. Darüber hinaus wird sich die Deepfake-Technologie ständig ändern und die herkömmliche Software muss jedes Mal von Hand neu geschrieben werden," erklärt Thurairatnam. "Andererseits kann die KI lernen, Deepfakes von selbst zu erkennen, solange Sie über genügend Daten verfügt. Sie kann sich an neue Deepfake-Techniken anpassen, wenn die Erkennung für das menschliche Auge nicht mehr möglich ist."
Siwei Lyu von der University of Albany glaubt, dass das Deep Learning zumindest vorerst der Schlüssel zur Wahrheitserkennung sein könnte. "Datengetriebene Deep-Learning-Methoden scheinen die bislang effektivsten Methoden zu sein. Da sie ihre Parameter aus vorhandenen Daten beziehen, sind sie flexibler und können an komplexe Bedingungen angepasst werden, in denen die Videos verbreitet werden. Beispielsweise durch die Komprimierung von Filmmaterial, Social-Media-Kampagnen und andere Tricks der Fälscher."
Die Implementierung von Modellen für maschinelles Lernen erfordert jedoch viele Daten. Und der Mangel an Daten stellte bislang ein grosses Hindernis für Forscher dar, die effektive Deepfake-Erkennungssysteme bauen wollten. Ein kürzlich veröffentlichter Bericht von Deeptrace, einem Amsterdamer Start-up, das Deepfakes bekämpft, identifizierte 14.678 Deepfake-Videos online. Die überwiegende Mehrzahl bestand aus Pornos. Obwohl sich die Rate der identifizierten Videos seit dem letzten Audit im Dezember 2018 fast verdoppelt hat, bleibt unklar, ob dies auf eine bessere Erkennung durch Deeptrace zurückzuführen ist. Beängstigend ist, dass diese Anzahl noch immer relativ gering ist, um eine KI darauf zu programmieren. Dies stellt einen klaren Vorteil für die Fälscher dar. Während die Guten eine grosse Anzahl von Deepfake-Videos zum "Lernen" benötigen, müssen die Bösen möglicherweise nur ein Video zur richtigen Zeit am richtigen Ort platzieren, um ihr Ziel zu erreichen.
Obwohl die Anzahl der Deepfakes noch relativ gering ist, wird die Bedrohung ernst genommen. Um das Problem fehlender Beispiel-Daten zu lösen, haben Facebook, Google, Amazon Web Services und Microsoft kürzlich die Deepfake Detection Challenge angekündigt. Die Challenge, die im nächsten Monat starten soll, wird einen speziell erstellten Datensatz von Deepfakes veröffentlichen, bei dem bezahlte Schauspieler für Forscher auf der ganzen Welt als Modelle dienen. Die Entwicklung effektiver Deepfake-Erkennungssysteme geschieht zwar im öffentlichen Interesse, aber es ist kein Akt des Altruismus der Technologiegiganten, die wahrscheinlich an vorderster Front das kalifornische Anti-Deepfake-Gesetz durchsetzten. Sie selbst haben grosses Interesse daran, wirksame Erkennungsmechanismen zu finden.
Lyu und sein Kollege Yuezun Li haben eine alternative Erkennungsmethode vorgeschlagen, die weit weniger datenhungrig ist. Da Deepfake-Algorithmen derzeit nur Bilder mit begrenzter Auflösung erzeugen können, die weiter hochgerechnet werden müssen, um mit dem Originalvideo übereinzustimmen, können Deepfake-Videos anhand von Verzerrungen bei den Gesichtern identifiziert werden. Um dieses Modell anzuwenden, sind weitaus weniger Daten erforderlich als bei vielen anderen Deep-Learning-Methoden. Die Schwäche besteht darin, dass Fälscher möglicherweise einen Weg finden, die Verzerrungen zu reduzieren, und damit die Daten-Detektive wieder überholen.
Gleiches gilt für weitere verräterische Anzeichen von Deepfakes. Zum Beispiel beobachteten Lyu und sein Team, dass Menschen in gefälschten Videos selten blinzeln. Sie entwarfen ein Modell, um auf dieser Basis Deepfakes zu erkennen. Nach der Veröffentlichung ihrer Forschungsergebnisse stellten sie jedoch fest, dass versierte Fälscher mit der Nachbearbeitung und weiterentwickelten Modellen nun auch realistische Blinzel-Effekte erzielen können. Somit scheitert diese Erkennungsmethode, sobald die Fälscher technisch aufgeholt haben.
Den kompletten Artikel lesen Sie hier.
Elise Thomas ist Autorin von WIRED, UK
Wissenschaftliche Forschung verfolgen wir bei Vontobel mit grosser Neugierde und Aufmerksamkeit. Das gibt uns die Chance, neue Investment-Möglichkeiten frühzeitig zu erkennen. Darum widerspiegeln unsere Themenportfolios und Themeninvestments auch Megatrends wie die Digitalisierung: Indem sie Unternehmen berücksichtigen, die wertvolle Beiträge zur Lösung von globalen Herausforderungen leisten.
Ich interessiere mich für Themeninvestments
Ich interessiere mich für thematische Fonds