Der Begriff ?Deepfake¡° ist eine Mischung aus ?Deep Learning¡° und ?Fake¡° und wurde 2017 von einem Reddit-Benutzer gepr?gt. Eine Deepfake ist eine gef?lschte Bild-, Video- oder Sprachaufzeichnung, bei der das Bild einer Person durch das einer anderen Person ersetzt wird. Diese dienen dazu, Menschen zu t?uschen oder zu unterhalten. Mit fortschrittlichem maschinellem Lernen k?nnen Deepfakes sehr realistisch aussehen. Fr¨¹her waren Deepfakes vor allem f¨¹r ihre humorvolle Nutzung in sozialen Medien bekannt. Ihr Missbrauchspotenzial wurde jedoch schnell offensichtlich und Deepfakes sind jetzt ein erhebliches Problem f¨¹r Datenschutz, Sicherheit und Informationen.
Realistische, glaubw¨¹rdige Aufnahmen, die immer schwerer als KI-generiert erkennbar sind, machen Deepfake-Videos zu einem erheblichen Datensicherheitsrisiko. Diese Videos zeigen in der Regel hochkar?tige, bekannte Personen wie Politiker und Prominente, k?nnen aber auch andere Personen betreffen. Abh?ngig vom Ziel des Urhebers k?nnen sie dazu verwendet werden, Desinformationen zu verbreiten, eine Person oder ein Unternehmen zu betr¨¹gen oder sensible Daten und/oder Geldmittel abzurufen.?
Deepfake-Videos werden durch eine komplexe Analyse der Quellinhalte erstellt. Wesentliche Details wie Gesichtsz¨¹ge und -bewegungen, Ma?e, Hautton, Haar- und Augenfarbe sowie K?rpersprache werden in die KI eingespeist, um eine m?glichst genaue Darstellung zu erzeugen. Dasselbe gilt f¨¹r den Hintergrund. Wenn das B¨¹ro, der Sitzungssaal oder eine andere Umgebung, in der die Person auftritt, bekannt ist, versucht der b?swillige Akteur diese Umgebung mithilfe von Originalbildern und -videos m?glichst genau nachzubilden.
?hnlich wie bei der Generierung von gef?lschten Videoinhalten k?nnen auch Audioaufnahmen mithilfe von KI generiert werden, indem online verf¨¹gbares Trainingsmaterial genutzt wird. Als Quellen f¨¹r Referenzdaten dienen in der Regel Sprachnachrichten, Telefonanrufe, Aufzeichnungen von Gastauftritten in Podcasts und Nachrichtensendungen sowie authentische Videoinhalte, die Bilder wichtiger Personen oder Gruppen enthalten.?
Das generierte Audiomaterial kann so bearbeitet werden, dass es ?u?erst ¨¹berzeugend und glaubw¨¹rdig klingt und dem Quellmaterial sehr nahe kommt. Das von b?swilligen Akteuren verwendete generative KI-Tool analysiert diverse wichtige Details wie Tonfall, Tonlage, Sprachmuster, Klarheit, Aussprache und h?rbare Emotionen der in den Referenzmaterialien sprechenden Personen.
W?hrend Deepfake-Audio- und -Videodateien mittels GenAI erstellt werden, wird bei Cheapfakes auf den Einsatz solcher Technologien verzichtet. Diese werden normalerweise manuell erstellt, um Einzelpersonen oder Gruppen zu t?uschen. Dabei handelt es sich tendenziell um optische, akustische oder textbasierte Vorspiegelungen, die auf die T?uschung von Personen abzielen, die nicht ausreichend genau aufpassen, weil in der Situation beispielsweise Dringlichkeit oder emotionaler Stress herrscht. Wie das US-Heimatschutzministerium anmerkt, gab es Cheapfakes bereits vor dem digitalen Zeitalter. Das bedeutet, dass b?swillige Akteure jahrhundertelang Zeit hatten, voneinander zu lernen und ihre F?higkeiten zu verfeinern.
Bei der Erstellung von Deepfakes werden erweiterte Computerprogramme namens Generative Adversarial Networks (GANs) verwendet, um gef?lschte Bilder zu erstellen, die real aussehen. Es gibt vier Hauptschritte:?
Datenerfassung: Zum einen werden Medieninhalte (Bilder, Videos oder Audios) der Zielperson gesammelt. Diese Sammlung wird verwendet, um das Computerprogramm zu schulen.?
Schulung des Modells: Der GAN wird mit den erhobenen Daten geschult. Ein Teil des GAN erstellt gef?lschte Bilder, w?hrend der andere Teil pr¨¹ft, ob sie real aussehen.?
Verfeinerung: Techniken wie Gesichtsmarker und Motion Capture werden verwendet, um Deepfake mit realistischen Ausdr¨¹cken und Bewegungen nat¨¹rlich aussehen zu lassen.?
Endproduktion: Der fertige Deepfake wird dann mit den Originalmedien kombiniert, wodurch ein nahtloses und ¨¹berzeugendes St¨¹ck gef?lschter Inhalte entsteht.?
Obgleich die oben genannten Dinge etwas komplex klingen, kann jeder angesichts der gro?en Anzahl an Softwareanwendungen, die der ?ffentlichkeit zug?nglich sind, von DeepFaceLab bis DALL-E und Midjourney (obwohl letztere Sicherheitsvorkehrungen getroffen hat) Deepfake erstellen.?
Es ist leicht, Cybersicherheit als abstraktes Konzept zu betrachten, das aus dem Alltag entfernt wird ¨C aber die Auswirkungen b?sartiger Deepfake-Nutzung betreffen den Einzelnen und die Gesellschaft insgesamt:
Deepfakes kann Ihre Privatsph?re verletzen, indem es nicht einvernehmliche und oft sch?dliche Inhalte erstellt. Dies ist besonders besorgniserregend in F?llen von Deepfake-Pornographie, in denen die Gesichter von Einzelpersonen ohne deren Zustimmung expliziten Inhalten ¨¹berlagert werden.
Deepfake-Videoanrufe k?nnen verwendet werden, um Menschen zu imitieren, oft mit der Absicht, Sie zu t?uschen, Geld oder sensible Informationen zu verschenken. Jeder kann Opfer eines Deep-Fake-Betrugs werden ¨C und schwerwiegende Folgen wie Finanzbetrug und Identit?tsdiebstahl erleiden.
Deepfakes k?nnen bewaffnet werden, um politische Unruhen zu verursachen. Gef?lschte Videos von Politikern, die instruierende Aussagen machen oder sich an illegalen Aktivit?ten beteiligen, k?nnen die ?ffentliche Meinung beeinflussen und demokratische Prozesse st?ren.
Die Erstellung und Verteilung von Deepfakes wirft erhebliche rechtliche und ethische Fragen auf. Fragen der Zustimmung, des geistigen Eigentums und des Rechts auf das Abbild stehen im Mittelpunkt laufender gesellschaftlicher Debatten.
Journalisten und Medienorganisationen stehen bei der ?berpr¨¹fung der Authentizit?t von Inhalten vor neuen Herausforderungen. Deepfakes k?nnen die Glaubw¨¹rdigkeit von Nachrichtenkan?len untergraben
Deepfakes stellen mehrere Bedrohungen f¨¹r die Cybersicherheit dar:
Cyberkriminelle k?nnen Deepfakes w?hrend Videoanrufen verwenden, um sich als Einzelpersonen auszugeben. Egal, ob es sich um einen Freund, ein Familienmitglied, einen potenziellen Partner oder ein Online-Bewerbungsgespr?ch handelt ¨C Videoanrufe bieten dem Betr¨¹ger die perfekte M?glichkeit, einen Deep-Fake-Angriff durchzuf¨¹hren, sich als Ziel auszugeben und Sie dazu zu bringen, Geld oder pers?nliche Informationen zu geben.
Deepfakes k?nnen verwendet werden, um ¨¹berzeugende, aber falsche Inhalte zu erstellen und Fehlinformationen/Desinformation zu verbreiten. Dies kann das ?ffentliche Vertrauen in die Medien untergraben, Wahlen beeinflussen und Gesellschaften destabilisieren.
Deepfakes k?nnen Identit?tsdiebstahl erleichtern, indem sie realistische gef?lschte Identit?ten erstellen oder bestehende kompromittieren, was zu finanziellen und Reputationssch?den f¨¹hrt.
Sch?dliche Akteure k?nnen kompromittierende Deepfake-Videos erstellen, um Einzelpersonen zu erpressen oder zu erpressen, indem sie die Macht der erstellten Beweise nutzen.
Das Vorhandensein von Deepfakes kann das Vertrauen in digitale Inhalte untergraben. Menschen beginnen, an der Echtheit legitimer Medien zu zweifeln, was zu einer breiteren Vertrauenskrise in die digitale Kommunikation f¨¹hrt.
Die Erkennung von Deepfakes wird immer schwieriger, da sich die Technologie verbessert. Ob Sie sich ein Video online ansehen, einen Audioclip anh?ren oder einen Videoanruf mit jemandem f¨¹hren, folgen Sie Ihren Instinkten und achten Sie auf Folgendes:
Deepfakes k?nnen subtile Unstimmigkeiten bei Mimik und Bewegungen aufweisen. Achten Sie auf unnat¨¹rliches Blinzeln, Lippensynchronisierungsprobleme oder ungew?hnliche Gesichts-Tics.
Achten Sie auf Beleuchtung und Schatten. Wenn die Beleuchtung im Gesicht nicht mit der Beleuchtung im Rest der Szene ¨¹bereinstimmt, k?nnte dies eine Deepfake sein.
Achten Sie auf pl?tzliche Tonver?nderungen und ungew?hnliche Pausen oder Intonationen, die nicht die normale Sprache des Sprechers widerspiegeln. Unstimmigkeiten im Hintergrundrauschen oder pl?tzliche Verschiebungen in Umgebungsger?uschen k?nnen ebenfalls auf eine Deepfake hinweisen.
Deepfakes haben oft leichte Unsch?rfen um die R?nder des Gesichts, insbesondere bei schnellen Bewegungen.
Achten Sie auf Diskrepanzen zwischen den Audio- und visuellen Elementen. Ungleiche Lippenbewegungen und Audio k?nnen ein Zeichen f¨¹r Deepfake sein.
Wenn der Inhalt f¨¹r die Person untypisch oder unter den gegebenen Umst?nden unplausibel erscheint, kann es sich um einen Deepfake handeln. Wenn die Person, die Sie gut kennen, zum Beispiel eine dringende, ungew?hnliche Anfrage hat, wie Geld oder pers?nliche Informationen, und Sie sich unter Druck gesetzt f¨¹hlen, schnell zu handeln, ist dies ein Warnsignal.
Sie k?nnen verschiedene Ma?nahmen ergreifen, um das Risiko zu verringern, zum Ziel eines Deepfakes oder Cheapfakes zu werden. Hierzu geh?ren die folgenden Ma?nahmen, die teilweise von der National Cybersecurity Alliance empfohlen werden:?
Ein Zero-Trust-Ansatz ist f¨¹r die Cybersicherheit von entscheidender Bedeutung. Wenn es um den Schutz vor Deepfakes geht, k?nnen Zero-Trust-Prinzipien als Blaupause f¨¹r die Risikominimierung gelten. Beispiele:?
Dar¨¹ber hinaus k?nnen speziell f¨¹r die Pr¨¹fung und Erkennung von F?lschungen entwickelte L?sungen dazu beitragen, die Identit?ten, das Wohlbefinden und die Daten der Anwender zu sch¨¹tzen. Im Zeitalter der sich permanent beschleunigenden KI-Innovation sind solche Tools unverzichtbar, da Deepfakes f¨¹r Menschen manuell h?ufig nur schwer erkennbar sind. ?Je besser und realistischer die Algorithmen f¨¹r die Sprachsynthese werden, desto schwieriger wird die Erkennung¡°, hei?t es in einem ausf¨¹hrlichen Bericht aus dem Jahr 2023 der National Library of Medicine zu diesem Thema. ?Die Schwierigkeit, Sprachf?lschungen zu erkennen, belegt ihr Missbrauchspotenzial und zeigt, dass Schutzma?nahmen gegen diese Bedrohung erforderlich sind.¡°
Im Februar 2024 wurde ein Unternehmen aus Hongkong durch eine Videokonferenz betrogen, die Deepfakes ausnutzte. Es wurde berichtet, dass 25 Millionen US-Dollar an eine Gruppe von Betr¨¹gern ¨¹berwiesen wurden, die sich als Chief Financial Officer des Unternehmens ausgeben. Die Videokonferenz wurde mit mehreren anderen Teilnehmern abgehalten, zus?tzlich zu dem Mitarbeiter, der betrogen wurde, aber alle Teilnehmer waren gef?lschte Kollegen, die von Deepfakes generiert wurden, und der betrogene Mitarbeiter erkannte nicht, dass alle gef?lscht waren.
Im April 2023 ereignete sich ein virtueller Entf¨¹hrungsvorfall in Arizona, USA. Eine anonyme Person verlangte, dass eine Frau ein L?segeld von 1 Million US-Dollar f¨¹r ihre 15-j?hrige Tochter zahlte. Die Frau h?rte Berichten zufolge das Schreien, Schreien und das telefonieren ihrer Tochter mit dem T?ter. Es hat sich gezeigt, dass die Tochter in diesem Fall eigentlich nicht entf¨¹hrt wurde, sondern eine virtuelle Entf¨¹hrung war. Man geht davon aus, dass im Telefonat mit dem T?ter in diesem Fall eine geklonte Stimme verwendet wurde, die auf der Stimme der Tochter basiert. Tats?chlich hat die US Federal Trade Commission eine Warnung vor Betrug mit geklonten Stimmen von Familienmitgliedern ausgegeben.
Wir haben alle schon von Online-Romantikbetrug geh?rt, bei dem Betr¨¹ger sich als jemand anders ausgeben, wie z. B. als Milit?rdienstmitglied im Ausland, und online nach Geld fragen. W?hrend die meisten von uns glauben, dass wir alle Tricks kennen und nicht zum Opfer fallen werden, setzen Betr¨¹ger neue Taktiken ein, die fortschrittliche Deepfake-Technologie verwenden, um Menschen auszunutzen.?
Historisch gesehen ist eines der Warnsignale eines Romantikbetrugs, dass die Betr¨¹ger nicht an einem Videoanruf teilnehmen oder Sie pers?nlich treffen. Mit Deepfake Face-Swapping-Apps k?nnen Betr¨¹ger jedoch jetzt Videoanrufe t?tigen ¨C sie k?nnen Ihr Vertrauen leicht gewinnen, indem sie ein gef?lschtes Bild verwenden, das Sie glauben l?sst, dass die Person, die sich auf dem Videoanruf befindet, real ist.?
So haben die ?Yahoo Boys¡° ihre Taktiken verbessert. Die Yahoo Boys waren seit den sp?ten 1990er-Jahren bekannt und sendeten betr¨¹gerische Yahoo-Mails, um verschiedene Betrugsversuche wie Phishing und erweiterten Geb¨¹hrenbetrug durchzuf¨¹hren. Heute nutzen die Yahoo Boys gef?lschte Videoanrufe, die auf Deepfake-Technologie basieren und das Vertrauen von Opfern auf Dating-Websites und sozialen Medien gewinnen.?
Diese Arten von Deep-Fake-Romantik-Betrug k?nnen ziemlich kreativ werden. Chikae Ide, eine japanische Manga-K¨¹nstlerin, hat im Jahr 2022 offengelegt, dass sie 75 Millionen Yen (fast eine halbe Million USD) an einen gef?lschten ?Mark Ruffalo¡° online verloren hat. Obwohl sie anfangs misstrauisch war, wurde ihr Zweifel an der ?berweisung von Geld durch den ¨¹berzeugenden Deep Fake Video Call beseitigt.
Mit Deepfake-Technologie k?nnen Betr¨¹ger sich als JEDER ausgeben, zum Beispiel als Personalvermittler auf beliebten Stellenseiten wie LinkedIn ausgeben.? ?
Betr¨¹ger bieten an, was als legitimes Online-Bewerbungsgespr?ch erscheinen k?nnte. Sie verwenden Deepfake-Audio- und Face-Swaping-Technologie, um Sie davon zu ¨¹berzeugen, dass der Interviewer von einem legitimen Arbeitgeber stammt. Sobald Sie die Best?tigung eines Stellenangebots erhalten haben, werden Sie gebeten, f¨¹r das Starterpaket zu bezahlen und Ihre personenbezogenen Daten, wie z. B. Bankdaten f¨¹r die Gehaltseinrichtung, weiterzugeben.?
Sie stellen sich auch als Bewerber aus. Das FBI warnte davor, dass Betr¨¹ger Deepfake-Technologie und gestohlene PII von Personen verwenden k?nnen, um gef?lschte Kandidatenprofile zu erstellen. Betr¨¹ger bewerben sich f¨¹r Remote-Jobs mit dem Ziel, auf sensible Kunden- und Mitarbeiterdaten des Unternehmens zuzugreifen, was zu einer weiteren Ausnutzung f¨¹hrt.
Deepfakes werden auch h?ufig f¨¹r die gef?lschte Bef¨¹rwortung von Prominenten bei Investitionsbetrug verwendet.? Im Jahr 2022 wurden Deepfake-Videos mit Elon Musk online verteilt. Diese Deepfakes werben f¨¹r zu gute bis wahre Investitionsm?glichkeiten und f¨¹hren zu b?sartigen Websites. Unten sehen Sie ein aktuelles Beispiel f¨¹r einen gef?lschten YouTube-Livestream eines Elon Musk Deepfake, der Airdrop-M?glichkeiten f¨¹r Kryptow?hrungen f?rdert.
Selbst bei legitimen und beliebten mobilen Anwendungen gibt es die M?glichkeit von Deepfakes. Im Folgenden wird Elon Musk in einer Werbung auf Duolingo erneut f¨¹r ?finanzielle Investitionsm?glichkeiten¡° werben. Wenn Sie auf den Betrug fallen und auf die Anzeige klicken, gelangen Sie zu einer Seite, die, wenn sie ¨¹bersetzt wird, ?Investitionsm?glichkeiten; investieren Sie 250 €, verdienen Sie sich ab 1.000 €¡°. In anderen F?llen kann Malware sogar mit dem Herunterladen beginnen, sobald Sie klicken. Seien Sie vorsichtig!
Der KI-Hub von Trend bringt innovative Technologie und erstklassige Sicherheit zusammen. Informieren Sie sich, wie KI Sicherheitsteams in die Lage versetzt, Bedrohungen z¨¹gig zu prognostizieren, zu antizipieren und zu erkennen. Pr¨¹fen Sie regelm??ig, welche aktuellen Ressourcen zum transformativen Einfluss von KI auf die Cybersicherheit es gibt. Sie helfen Ihnen dabei, neuen Bedrohungen einen Schritt voraus zu bleiben und KI-L?sungen sicher zu implementieren.
Weiterf¨¹hrende Forschung
Weiterf¨¹hrende Artikel