Home » Deepfake-Technologie: Bedrohung durch gefälschte Videos und Stimmen.
In der digitalen Ära vollzieht sich ein rapider Fortschritt der sogenannten „Deepfake“-Technologien: Mit Hilfe von künstlicher Intelligenz (KI) können Stimmen nachgeahmt, Gesichter auf andere Körper übertragen oder ganze Videos manipuliert werden – und dies so glaubhaft, dass echte Personen kaum von ihren gefälschten Darstellungen zu unterscheiden sind. Das, was einem futuristischen Science-Fiction-Film gleicht, ist schon heute Realität – und birgt große Risiken für Unternehmen, Institutionen und Privatpersonen.
Deepfakes verwenden Techniken des maschinellen Lernens, vor allem Generative Adversarial Networks (GANs), um Bild-, Audio- oder Videoinhalte so zu erzeugen oder zu verändern, dass sie täuschend echt wirken.
Vertrauensschwund und Rufschädigung
Selbst wenn es sich um eine Fälschung handelt, kann ein Deepfake-Video, das angeblich eine Führungskraft eines Unternehmens in einer kompromittierenden Situation zeigt, schädlich für deren Ruf sein. Das kann für Organisationen schwerwiegende Konsequenzen nach sich ziehen.
Phishing, Soziale Manipulation & Täuschung
Stimmen aus gefälschten Quellen können dazu dienen, einen Vorgesetzten vorzuspiegeln, der per Telefon oder Videocall eine Finanztransaktion anordnet. Angestellte glauben an den Aufruf und transferieren Geld. Solche Szenarien sind bereits in der Beobachtung.
Irreführende Informationen & Einflussnahme
Deepfakes können in der öffentlichen Kommunikation, in sozialen Medien oder durch gezielte Angriffe verwendet werden, um Falschinformationen zu verbreiten, Wahlen zu beeinflussen oder absichtlich Verwirrung zu stiften.
Sicherheitsrisiken für Unternehmen
Besonders anfällig sind Unternehmen, die auf Integrität und Vertraulichkeit angewiesen sind (z. B. Finanzinstitute, Gesundheitswesen, kritische Infrastruktur). Ein gefälschtes Video oder Audio kann den Zugang zu Systemen erleichtern oder das Vertrauen untergraben.
Bewusstsein erzeugen: Trainings für Mitarbeitende sind unverzichtbar – etwa zur Sensibilisierung für atypische Kommunikationsmuster („Der Chef ruft persönlich an und verlangt sofort eine Überweisung“) oder visuelle Inkonsistenzen in Videos.
Technische Schutzvorkehrungen: Verwendung von Authentifizierungsmethoden wie z. B. mehrstufigen Verifizierungen, sicheren Kommunikationswegen und Überwachung von atypischen Aktivitäten.
Verifizierungsprozesse einführen: Jede kritische Anweisung – vor allem über Audio/Video-Medien – sollte durch alternative Kanäle bestätigt werden (z. B. E-Mail plus Rückruf).
Technologien zur Erkennung von Deepfakes verwenden: Es existieren Werkzeuge, die gefälschte Medien erkennen können. Allerdings entwickelt sich die KI-Technologie in einem ähnlichen Tempo weiter, sodass ein Wettlauf entsteht.
Vorbereitung auf Krisen: Unternehmen sollten einen Incident-Response-Plan besitzen, der das Szenario gefälschter Medien umfasst – z. B. sofortige externe Kommunikation, interne Alarmierung und rechtliche Prüfung.
Die Tatsache, dass Deepfake-Technologie über leicht zugängliche Tools verfügbar ist, zusammen mit zunehmender Rechenleistung und einfachen Interfaces, führt dazu, dass die Schwelle für derartige Angriffe gering ist. Firmen, die jetzt nicht aktiv werden, setzen sich neben der Gefahr eines wirtschaftlichen Schadens auch aus, dass ihre Reputation erheblich leidet.
Copyright Mint Secure GmbH. All Rights Reserved.