Zum Inhalt

02.12.2024 | Cyber-Sicherheit | Gastbeitrag | Online-Artikel

Deepfakes sollten nicht unterschätzt werden

verfasst von: Vincent Guillevic

5 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Ein expansiver Anstieg der Deepfake-Technologie für betrügerische Aktivitäten ist ebenso absehbar wie der damit verbundene wirtschaftliche Schaden. Grund genug also, sich intensiv mit dieser Gefahr auseinanderzusetzen und proaktiv Vorkehrungen dagegen zu treffen.

Betrüger nutzen Deepfake-Technologie, um beispielsweise Geschäftsbetrug oder Identitätsdiebstahl zu begehen und Social-Engineering-Angriffe durchzuführen.


Im Einklang mit der zunehmenden Zugänglichkeit von generativer Künstlicher Intelligenz (GenAI) und Automatisierungs-Tools hat sich auch die weltweite Betrugslandschaft drastisch verändert. So erleben wir eine explosionsartige Zunahme von sogenannten Deepfake-Angriffen: Innerhalb eines Jahres stieg die Zahl dieser von Künstlicher Intelligenz (KI) unterstützten, synthetischen Angriffe nach unseren Untersuchungen um 3000 Prozent an. Betrüger nutzen Deepfakes, um sich als rechtmäßige Person auszugeben, Geschäftsbetrug oder Identitätsdiebstahl zu begehen und Social-Engineering-Angriffe durchzuführen. Sie leiten damit Menschen in die Irre, befeuern die Cyberkriminalität und könnten das Vertrauen in digitale Transaktionen nachhaltig erschüttern.

Deepfakes werden immer professioneller

Bis vor kurzem waren überzeugende Fälschungen persönlicher Identitäten aufgrund des hohen technischen Aufwands eher selten. Wir hatten es überwiegend mit sogenannten "Cheap Fakes", auch bekannt als Shallowfakes oder Low-Tech-Fakes, zu tun. Hierfür wurde einfache Software verwendet, um Bilder zu manipulieren und kleinere Anpassungen vorzunehmen. Solche Betrugsversuche sind auch für das ungeschulte Auge wesentlich leichter zu erkennen und deutlich weniger ausgeklügelt als das, was wir heute als Deepfakes betrachten. Man könnte es mit einem Low-Budget-Film im Vergleich zu einem Blockbuster vergleichen – das gleiche Konzept, aber sehr unterschiedliche Ausführungen. Denn die zunehmende Verfügbarkeit von generativer KI und Face-Swap-Apps ermöglicht es Kriminellen heute, ihre Betrugsversuche erheblich zu professionalisieren. Deepfakes, abgeleitet aus "Deep Learning" und "Fake", arbeiten für die Erstellung und Veränderung von höchst überzeugenden Audio-, Video- oder Bildmedien mit künstlicher Intelligenz. So lassen sich mithilfe von Deep-Learning-Algorithmen große Mengen echter Medien untersuchen, um menschliche Mimik und Sprache zu imitieren. Die Technologie ermöglicht es, den Gesichtsausdruck und die Stimme einer Person auf eine andere zu übertragen oder deren Körpersprache und sogar die Hautbeschaffenheit zu manipulieren – und so gefälschte Inhalte zu erstellen, die immer schwerer von authentischen zu unterscheiden sind.

Deepfakes werden im Allgemeinen in drei Kategorien eingeteilt: Gesichtsvertauschungen, vollständig generierte Bilder und lippensynchrone Videos. Bei Gesichtsvertauschungen wird ein Kopf mit einem anderen Gesicht überlagert. Künstliche Intelligenz sorgt dafür, das Gesicht nahtlos auf den Kopf zu übertragen. Einen Schritt weiter gehen generative Modelle, die darauf trainiert sind, äußerst realistische Portraits von Grund auf zu erstellen. Diese Modelle werden mit umfangreichen Datensätzen gespeist und können scheinbar authentische Gesichter erzeugen, die in der Realität nicht existieren. Bei lippensynchronen Videos wiederum werden die Lippenbewegungen der Originalperson manipuliert – oft in Verbindung mit gefälschten Stimmen. So lassen sich einer Person völlig andere Aussagen unterstellen. Aber so raffiniert die Technologien zur Manipulation von Gesichtsausdrücken, Stimmen, Körpersprache und Hauttexturen bereits heute erscheinen: Sie werden sich laufend weiterentwickeln und immer täuschendere Ergebnisse liefern. Online-Betrugsmethoden ähneln einem Virus, das sich ständig verändert, um Cyberschutzmaßnahmen zu umgehen und maximalen Schaden anzurichten. Die Leichtigkeit, mit der Deepfakes erstellt werden können, und ihr Täuschungspotenzial machen sie zu einem gefährlichen Vehikel für Betrug und andere kriminelle Aktivitäten.

Ein proaktiver Ansatz zum Schutz digitaler Integrität

Angesichts der Zunahme von Deepfakes müssen Unternehmen proaktiv vorgehen, um ihr Geschäft und ihre Kunden zu schützen. Sie sollten ihre Teams darin schulen, Deepfake-Versuche zu erkennen und außerdem in fortschrittliche KI- und Biometrielösungen investieren. Gleichzeitig sollte eine wirksame Präventation jedoch nicht zu unnötigen Reibungsverlusten für legitime Nutzer von Online-Diensten führen. Wie sich also gegen Deepfakes wehren und Kunden gleichzeitig ein unkompliziertes Nutzungserlebnis ermöglichen?

Erstens sollten Mitarbeiter geschult werden, wie man einen Deepfake erkennt. So gibt es bestimmte Anzeichen: In Videos zum Beispiel bildet künstliche Intelligenz die natürlichen Augenbewegungen und das Blinzeln noch nicht richtig nach, ein genauerer Blick auf eine gefälschte Person kann Störungen im Gesicht und anhaltende Passivität zeigen. Häufig gelingt es auch nicht, Ton und Bild nahtlos zu synchronisieren. Man sollte daher den Ton genau verfolgen und auf die Aussprache des Sprechers und unnatürliche Pausen achten. Farben und Schatten weisen ebenfalls oft Mängel auf, perfekte Genauigkeit ist selten. Achten Sie auf falsche Schatten oder auf wechselnde Farben, insbesondere wenn sich eine Person bewegt.

Zweitens ist es für Unternehmen von höchster Bedeutung, technologisch einen Schritt voraus zu sein – insbesondere was die Verifizierung von digitalen Identitäten betrifft. Unternehmen sollten in eine gründliche KI-gestützte Identitätsüberprüfung investieren. KI-Algorithmen können subtile Unterschiede zwischen authentischen und synthetischen Bildern oder Videos erkennen und Nuancen aufspüren, die für das menschliche Auge oft nicht wahrnehmbar sind. Sogenannte Liveness-Lösungen arbeiten zur Nutzerverfikation mit Bewegtbildern und erhöhen dadurch die Sicherheit um ein weiteres Level. Da Deepfakes in der Regel in Webbrowsern gehostet werden und nicht in nativen Anwendungen für bestimmte Betriebssysteme, kann ein Check über mehrere Endgeräte hinweg zudem das Risiko voraufgezeichneter Videos, Emulatoren oder gefälschter Webcams eliminieren.

In Verbindung mit der sicheren Überprüfung von Ausweisdokumenten bietet die biometrische Verifizierung eine zusätzliche Sicherheitsebene. Der Prozess gleicht ein biometrisches Gesichtsbild mit einem Ausweis ab und kann dabei erstens feststellen, dass ein Anmeldeversuch von einer echten Person ausgeht, und zweitens, dass das Ausweisdokument zu der Person gehört, die es vorlegt. Die fortschrittlichsten biometrischen Verifikationstechnologien basieren heute auf KI-Modellen mit Deep Learning zur Bekämpfung von Spoofing (also der Vortäuschung vertrauenswürdiger Identitäten). Durch die Kombination von menschlicher Erfahrung, biometrischer Verifikation, Betrugserkennung durch maschinelles Lernen und kontinuierlichen Algorithmus-Updates können Unternehmen einen zukunftsfähigen und robusten Schutz aufbauen. Wir raten jeder Organisation, sich jetzt intensiv mit dem Thema "Deepfakes" auseinanderzusetzen und nach proaktiven Lösungen zu suchen.

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2024 | Buch

Desinformationsangriffe auf Unternehmen abwehren

Das dunkle Geschäft mit Fake News & Co und wie man sie bekämpft

01.11.2024 | Schwerpunkt

Umgang mit GenAI und Deepfakes

Das könnte Sie auch interessieren