You are currently viewing Ist Ihr Schutz vor Deepfakes so stark, wie er sein sollte?

Ist Ihr Schutz vor Deepfakes so stark, wie er sein sollte?

Synthetische Medien wie Deepfakes stellen für Organisationen als auch für Privatpersonen und Regierungen ein uneinschätzbares Risiko da. Wie sieht unsere Zukunft in Bezug auf unsere Digitale Sicherheit aus und sind wir ausreichend darauf vorbereitet?

Einführung in Synthetische Medien und Deepfakes

Allgemein versteht man unter synthetischen Medien Inhalte, welche durch Künstliche Intelligenz (KI) generierte wurden. Häufige Formen sind dabei Synthetische Bilder, Voice Cloning, Video Manipulation und AI-Generierten Texte. Aktuell können wir eine ständige Verbesserung der Technologie beobachten, die zu neuen Kommunikationsweisen führt, d.h. zu neuen Medienformaten, die in Bezug auf Erstellung, Verbrauch und Kontextualisierung variieren. Da Computer intelligenter werden, gibt es immer weniger Bedarf an menschlichem Input und damit entsteht eine neue Kategorie von Medien. Wir nennen sie synthetische Medien.

Es ermöglicht uns, Bilder, realistische Talking-Head-Videos, hochqaualitative Texte oder Audioaufnahmen  basierend auf unserer Texteingabe zu erstellen. Weil die Produktion von Medien nicht mehr ein physischer, sondern ein digitaler Prozess ist, was bedeutet, dass wir Inhalte auf völlig neue Weise erstellen können. Damit ist klar, dass KI-generierte Medien bereits die Medienlandschaft verändern und wir am Rande eines großen Paradigmenwechsels in der Medienproduktion und dem -konsum stehen. 

Eines  der bekanntesten Beispiele ist ein YouTube-Video von Barack Obama, welches knapp 7,5 Millionen mal angesehen wurde. Der Titel „Sie werden nicht glauben, was Obama in diesem Video von sich gibt!“ steigert bereits die Neugierde. Er sitzt in einem dunkelbraunen Sessel im Oval Office und beginnt mit „Wir stehen am Beginn eines Zeitalters, in dem unsere Feinde es so aussehen lassen können, dass jede nur denkbare Person zu einem beliebigen Zeitpunkt etwas Bestimmtes gesagt hat“. Das Video ist ein mit KI synthetisch manipulierte Fälschung – ein sogenanntes Deepfake.

Der Begriff „Deepfake“ wird als Überbegriff für verschiedene Formen der audiovisuellen Manipulation einschließlich Video, Audio oder beides verwendet. Oft werden dabei Personen Aussagen in den Mund gelegt oder in Handlungen gezeigt, die in Wirklichkeit nie stattgefunden haben. Die Technologie hinter Deepfakes steck zwar heute noch in den Kinderschuhen, aber es ist nur mehr eine Frage von wenigen Jahren, bis jeder Smartphone-Besitzer Spezialeffekte auf Hollywood-Niveau produzieren kann – und damit stehen die Türen für jegliche Desinformation mittels synthetischer Medien weit offen.

Das Potenzial von Deepfakes für kriminelle Aktivitäten

Während viele Anwendungsfälle von KI-generierten Inhalten positive Eigenschaften aufweisen, stellt die Verbreitung von Deepfakes eine akute Bedrohung für Unternehmen dar und eröffnet neue Möglichkeiten für kriminelle Aktivitäten. Auch heute vertrauen wir einem Telefonanruf von einem Freund oder einem Videoclip mit einem bekannten Unternehmers einfach aufgrund der Erkennung ihrer Stimmen und Gesichter. Früher konnte keine allgemeine Technologie dieses Medium synthetisch mit vergleichbarer Realität erstellen, daher betrachteten wir es per Definition als authentisch. Doch das Aufkommen von synthetischen Medien und Deepfakes zwingt uns zu einer wichtigen und beunruhigenden Erkenntnis: unsere historische Überzeugung, dass Video- und Audioaufnahmen zuverlässige Aufzeichnungen der Realität sind, ist nicht mehr haltbar.

Ein besonders besorgniserregendes Szenario ist die gezielte Desinformation von öffentlichen Meinungen durch die Verbreitung gefälschter Inhalte, um den Aktienkurs zu manipulieren oder das Vertrauen der Kunden zu untergraben. Dabei werden Deepfakes verwendet, um Führungskräfte zu diffamieren, Produkte zu verunglimpfen oder bewusst falsche Infomationen über Unternehmensaktivitäten zu verbreiten, 

Der CEO-Fraud ist eine betrügerische Taktik, bei der Kriminelle vorgeben, hochrangige Führungskräfte eines Unternehmens zu sein, um Mitarbeiter zu täuschen und finanzielle Transaktionen oder die Weitergabe vertraulicher Informationen zu veranlassen. 

Synthetische Medien ermöglichen des Weiteren eine ausgefeilte Dokumentenfälschung, bei der nicht nur Gesichter, sondern auch Stimmen und Verhaltensweisen authentisch nachgeahmt werden können. Diese Form eröffnet neue Wege für Betrügereien, beispielsweise in Form von gefälschten Videobeweisen für Transaktionen oder Verträge, die aufgrund ihrer vermeintlichen Echtheit nur schwer zu entlarven sind. Dies könnte zu rechtlichen Konflikten und Finanzellen Verlusten für Unternehmen führen. 

Insgesamt zeigen diese Beispiele, dass Deepfakes nicht nur eine technologische Spielerei sind, sondern ein ernsthaftes Sicherheitsrisiko darstellen, das Unternehmen dazu zwingt, ihre Sicherheitsmaßnahmen zu verstärken um sich proaktiv gegen potenzielle Angriffe zu verteidigen.

Das Risiko für Unternehmen und Investoren

Die Bedrohung durch Deepfakes stellt ein erhebliches Risiko für Unternehmen und Investoren dar, das weitreichende Auswirkungen auf ihre finanzielle Stabilität und ihren Ruf haben kann. 2019 veröffentlichte das Cybersicherheitsunternehmen CHEQ in Zusammenarbeit mit der University of Baltimore einen Bericht, der die zu Lasten der Wirtschaft gehenden Kosten für Desinformation im Internet mit jährlich 78 Milliarden Dollar veranschlagt.

  1. Aktienkursmanipulation: Die Verbreitung eines Deepfake-Videos, das beispielsweise einen CEO in einem skandalösen oder irreführenden Kontext zeigt, könnte zu einem erheblichen Rückgang des Aktienkurses des betroffenen Unternehmens führen. Investoren können aufgrund solcher Falschinformationen Panikverkäufe tätigen, was zu finanziellen Verlusten für alle Beteiligten führt.
  2. Verlust des Vertrauens: Wenn ein Unternehmen Opfer eines Deepfake-Angriffs wird und nicht in der Lage ist, die Authentizität seiner Inhalte zu gewährleisten, könnte dies zu einem Vertrauensverlust bei Kunden, Investoren und anderen Stakeholder führen. Dies kann langfristige Auswirkungen auf die Markenreputation und die Geschäftstätigkeit des Unternehmens haben.
  3. Rechtliche Konflikte: Deepfakes könnten rechtliche Konflikte auslösen, insbesondere wenn sie dazu verwendet werden, falsche Behauptungen über ein Unternehmen oder seine Mitarbeiter aufzustellen. Unternehmen könnten gezwungen sein, Zeit und Ressourcen für Rechtsstreitigkeiten aufzuwenden, um ihren Ruf und ihre Integrität zu verteidigen.
  4. Operative Störungen: Die Veröffentlichung  eines gefälschten Videos, das wichtige Führungskräfte oder Schlüsselpersonen in einem Unternehmen diskreditieren, könnte zu operationelle Störungen führen, da das Management möglicherweise damit beschäftigt ist, den Schaden zu begrenzen und das Vertrauen wiederherzustellen.

Bekannter Fall und Fallstudie

Im Jahr 2019 gelang es einem Unbekannten mithilfe von Deepfakes, eine Gruppe hochrangiger Tesla-Investoren zu infiltrieren. Der Elektroautohersteller, einer der bekanntesten Marktführer weltweit, spaltet die Anlegergemeinschaft: Die Optimisten glauben an eine revolutionäre Zukunft für Tesla, während die Pessimisten denken, dass das Unternehmen überbewertet ist und der Aktienkurs sinken wird. Inmitten dieses Tauziehens, bei dem Milliarden auf dem Spiel stehen, eskaliert der Konflikt zwischen Tesla und Leerverkäufern, während Elon Musk seine Geringschätzung für sie auf Twitter zum Ausdruck bringt.

In dieser gespannten Atmosphäre tauchte Maisy Kinsley, eine vermeintliche Journalistin von Bloomberg, im März 2019 auf LinkedIn auf und vernetzte sich mit 195 Investoren, die den Tesla-Kurs verfolgten. Sie folgte auch den bekannten Leerverkäufern von Tesla auf Twitter und bat einige sogar um persönliche und finanzielle Informationen.

Ein Leerverkäufer wurde jedoch misstrauisch und untersuchte Kinsley genauer. Es stellte sich heraus, dass sie keine Journalistin war, sondern eine fiktive Figur, deren Bild mit einem Generative Adversarial Network (GAN) generiert wurde. Obwohl der Schaden begrenzt war, ist dieser Vorfall ein Weckruf für die Risiken von Deepfakes und Social Engineering im Finanzsektor.

Beispielhaft zeigt der Fall Elon Musk, wie Deepfakes den Markt beeinflussen könnten, etwa durch ein geleaktes Video, in dem Musk finanzielle Informationen preisgibt. Im August 2018 twitterte Musk fälschlicherweise, dass er erwäge, Tesla für 420 Dollar pro Aktie zu privatisieren. Dies führte zu erheblichen Marktschwankungen. Die zunehmende Verbreitung von Deepfakes birgt das Potenzial, Unternehmen anzugreifen und den Markt zu verfälschen, wenn sie für kriminelle Zwecke genutzt werden.

Empfehlungen und Maßnahmen

Angesichts der zunehmenden Bedrohung spielt Cybersecurity und Krisenkommunikation eine entscheidende Rolle bei der Bewältigung dieser Herausforderung. Cybersecurity-Fachleute sind für die Entwicklung und Implementierung von Technologien verantwortlich um Unternehmen  und Investoren vor den Risiken von Deepfake-Angriffen zu schützen.

  1. Erkennungstechnologien: Cybersecurity-Experten arbeiten daran, fortschrittliche Erkennungstechnologien zu entwickeln, die es ermöglichen, gefälschte Medieninhalte einschließlich Deepfakes, zu identifizieren und zu analysieren. Dies umfasst die Nutzung von Computer Vision und Deep Learning, um verdächtige Muster und Manipulationen in Multimedia-Daten zu erkennen.
  2. Preventive Maßnahmen: Die Implementierung von präventiven Maßnahmen wie sicheren Authentifizierungsverfahren, Verschlüsselungstechnologien und Zugriffskontrollen können dazu beitragen, die Angriffsfläche für Deepfake-basierte Angriffe zu minimieren und die Sicherheit von Unternehmensnetzwerken und -daten zu stärken.
  3. Sensibilisieren und Schulung: In diesem Fall ist auch wieder die Kette so stark wie das schwächste Glied. Deshalb ist die Sensibilisieren und Schulungen von Mitarbeitern wichtig , um alle über die Risiken von Deepfakes aufzuklären und ihnen zu zeigen, wie sie verdächtige Inhalte erkennen und angemessen darauf reagieren. Dies umfasst die Durchführung von Schulungsprogrammen und Ressourcen zur Medienkompetenz.
  4. Incident Response Plan: Im Fall eines Deepfake-Angriffs ist ein durchdachter Reaktionsplan unentbehrlich. Sie müssen in der Lage sein, schnell zu reagieren, um die Auswirkungen des Angriffs zu minimieren, die Quelle der Fälschung zu identifizieren und geeignete Gegenmaßnahmen zu ergreifen, um weitere Schäden zu verhindern.

Ausblick und Zukunftsperspektiven

In Anbetracht der zunehmenden Raffinesse und Verbreitung von Deepfakes ist es offensichtlich, dass die Zukunft der Cybersicherheit eine noch größere Bedeutung erlangen wird. Die Technologie zu Erstellung gefälschter Medieninhalte entwickelt sich rasant weiter und damit verbundene Risiken für Unternehmen, Investoren und die Gesellschaft als Ganzes nehmen zu. Um diese Herausforderung erfolgreich zu begegnen ist eine verstärkte Zusammenarbeit zwischen Regierung, Unternehmen und der Technologieindustie erforderlich. Nur durch gemeinsame Anstrengungen können wir wirksame Strategien und Technologien entwickeln, um Deepfake-Angriffe zu erkennen, zu verhindern und zu bekämpfen. Ohne defensive Gegenmaßnahmen ist die Integrität von Unternehmen und Demokratie gefährdet und ermöglicht völlig neue Angriffsvektoren für böswillige Akteure.Darüber hinaus ist es wichtig, Bewusstsein für die Risiken von Deepfakes zu schärfen und die Medienkompetenz der Öffentlichkeit zu stärken. Durch Forschung und Innovation können wir neue Lösungsansätze entwickeln und die Sicherheit im digitalen Raum kontinuierlich verbessern. Letztendlich liegt es an uns allen, die digitale Zukunft sicher und authentisch zu gestalten.

Schreibe einen Kommentar