Cybersicherheit: Wie Deepfakes Unternehmen bedrohen

Bildgeneratoren werden durch KI beflügelt und können die Realität extrem überzeugend imitieren. Durch ihre Nutzung mit schädigender Absicht sind Unternehmen besonders hohen Risiken für Betrug und Cyberangriffe ausgesetzt. Expertentipps zur Gefahrenabwehr.

Cybersicherheit: Wie Deepfakes Unternehmen bedrohen

Immer realistischere "Deepfakes" imitieren mit beunruhigender Exaktheit das Aussehen und die Stimme einer Person anhand von Bildern beziehungsweise Video- oder Audioaufnahmen. Als Nebenwirkung der Verbreitung von Anwendungen mit künstlicher Intelligenz im grossen Massstab wird die Erstellung solcher gefälschten Inhalte zu einem mächtigen Instrument im Online-Betrug. Unternehmen sollten sich der Bedrohungen, die diese Inhalte darstellen, so schnell wie möglich bewusst werden und Massnahmen ergreifen, um sich davor zu schützen, beispielsweise interne Handlungsanweisungen oder Software zum Erkennen von Deepfakes.

"Heutzutage steht die Technologie, mit deren Hilfe man Deepfakes erzeugen kann, jedem zur Verfügung", erklärt Petar Tsankov, ehemaliger Forscher an der ETHZ und Gründer des Spin-offs LatticeFlow, das daran arbeitet, Fehler in Machine-learning-Modellen zu erkennen. Aus Sicht des Experten stellen gefakte Telefonanrufe ein erhebliches Risiko für Unternehmen dar. "Audio-Deepfakes können von Betrügern leicht erstellt werden. Ausserdem hat das menschliche Gehirn dabei mehr Schwierigkeiten, die Fälschung zu erkennen. In einigen Fällen fügen die Übeltäter sogar Hintergrundgeräusche hinzu, um einen realistischeren Eindruck zu erzeugen."

Personal schulen

Der in Zürich ansässige Unternehmer meint, die Zuverlässigkeit der Erkennungssoftware nehme im gleichen Tempo zu wie die Bedrohung. "Einigen Betrügern gelingt es jedoch, durch die Maschen des Sicherheitsnetzes zu schlüpfen. Genau wie in Bezug auf klassische Cybersicherheit bleibt die Sensibilisierung der Beschäftigten für Unternehmen der beste Schutz vor möglichem Betrug oder Cyberangriffen."

Die Unternehmen müssen ihren Beschäftigten helfen, sich die irreführenden und besonders gefährlichen Eigenschaften von Deepfakes bewusst zu machen. "Die Bevölkerung hat mittlerweile gelernt, verdächtigen E-Mails zu misstrauen. Nun geht es darum zu verstehen, dass die Tatsache, dass man jemanden auf einem Bildschirm sieht oder am Telefon hört, keinen Beweis mehr dafür liefert, dass man tatsächlich mit dieser Person kommuniziert", erläutert Touradj Ebrahimi, Professor an der EPFL und Experte für die Verarbeitung digitaler Signale.

Governance überdenken

Um das zu schaffen, müssen die Unternehmen ihre Governance an diese neuen Bedrohungen anpassen. TouradjEbrahimi empfiehlt, in jedem Unternehmen grundlegende Sicherheitsmassnahmen einzuführen. Der Experte plädiert für die Einführung klarer Handlungsanweisungen, mit denen man sich im Fall eines Angriffs mit Deepfakes vor den schlimmsten Folgen schützen kann.

"Alle sensiblen Operationen, von Geldüberweisungen bis zur Übertragung vertraulicher Daten, müssen einer vertieften Überprüfung unterzogen werden. Es geht darum, sicherzustellen, dass bei solchen Aktionen mindestens zwei Bestätigungen über zwei verschiedene Kommunikationskanäle erfolgen müssen, zum Beispiel per Telefon und per E-Mail. Eine Überprüfung über einen einzigen Kanal ist nicht mehr ausreichend." Da es keine zu 100% verlässliche Erkennungssoftware gibt, sind diese elementaren Verfahren die wirksamste Möglichkeit, sich zu schützen.

Elektronische Signaturen identifizieren

Um das Sicherheitsnetz zu stärken, sollten die Unternehmen darüber hinaus Software nutzen, mit deren Hilfe sich Angriffsversuche durch Deepfakes aufspüren lassen. Es gibt zwei Ansätze, um Fälschungen zu erkennen. Der erste ist proaktiv und stützt sich auf die digitalen Signaturen, die Programme zur Erstellung von Inhalten absichtlich hinterlassen. So platziert beispielsweise Google Deep Mind eine durchscheinende elektronische Signatur über den Inhalten, die mit dem Programm generiert werden. Diese Spur kann jeder mit Hilfe des Tools Google SynthID sichtbar machen.

Zusätzlich hat die Coalition for Content Provenance and Authenticity (C2PA), der grosse IT-Unternehmen wie Adobe, Arm, Intel, Microsoft oder auch Truepic angehören, einen technischen Standard entwickelt, mit dem sich die Herkunft eines digitalen Inhalts – Foto, Video oder Audio – durch eine Chronik, die in Form von Metadaten für alle zugänglich ist, zurückverfolgen lässt. Die Methode ermöglicht es den Akteuren, die Inhalte erstellen, diese mit einem Label zu versehen, und den Nutzern, deren Herkunft zu überprüfen.

Digitale Fähigkeiten zum Erkennen von Deepfakes ausbauen

Der reaktive Ansatz besteht darin, sich mit spezieller Software vor fiktiven, nicht signierten Mutlimedia-Inhalten zu schützen, die in Betrugsfällen häufiger zum Einsatz kommen. Es wurden Programme entwickelt, die typische Eigenschaften von gefälschten Dateien erkennen können. "Diese Lösungen können heute in das Leistungspaket von Cybersicherheitsunternehmen integriert werden. Einige bieten sie noch nicht an. Es ist Aufgabe der Firmenkunden, die Nachfrage zu schaffen, damit das Angebot kommt", sagt Touradj Ebrahimi.

Nachdem die Software installiert wurde, sind regelmässige Updates unerlässlich, um ein hohes Sicherheitsniveau zu gewährleisten. "Die Qualität der Deepfakes verbessert sich in rasantem Tempo und die Zahl der Angriffe wird in naher Zukunft exponentiell zunehmen. Und auch die Art der Angriffe wird sich verändern", meint der Experte.

Deepfakes sind eine reale und wachsende Gefahr für die Unternehmen, die deshalb schon jetzt Investitionen inErkennungstechnologien, Schulungen oder klare Sicherheitsprotokolle planen sollten, um sich davor zu schützen. Cybersicherheit ist längst nicht mehr optional, sondern eine echte Notwendigkeit geworden, die nur ein ganzheitlicher Ansatz gewährleisten kann.


Informationen

Zum Tema

Gefälscht oder nicht?

Gegenwärtig gibt es mehrere kostenlose oder kostenpflichtige Tools, mit denen Unternehmen die Echtheit der Inhalte, die sie erhalten, überprüfen können. Die waadtländische Plattform Q-Integrity nutzt künstliche Intelligenz, um digitale Manipulationen aufzuspüren. Das Tool analysiert Fotos und Videos, um festzustellen, ob sie verändert wurden, und vergibt einen Score für die Vertrauenswürdigkeit. Ähnliche Tools auf dem internationalen Markt sind unter anderem Microsoft Video Authenticator, Sensity AI, Reality Defender und Pindrop.

Im Gespräch

Letzte Änderung 05.02.2025

Zum Seitenanfang

News und nützliche Informationen für Gründer und Unternehmer
https://www.kmu.admin.ch/content/kmu/de/home/aktuell/monatsthema/2025/cybersicherheit_wie_deepfakes_unternehmen_bedrohen.html