Gesichtserkennungssoftware: Schwächen, Risiken und Herausforderungen

Gesichtserkennungssoftware: Schwächen, Risiken und Herausforderungen

Wie kann Gesichtserkennungssoftware manipuliert werden?

Gesichtserkennungssoftware ist eine Kerntechnologie, die in Sicherheitsanwendungen und in sozialen Medien allgegenwärtig ist. Doch trotz ihrer enormen Fortschritte birgt diese Technologie Schwachstellen, die technisch ausgenutzt werden können. Dieser Artikel untersucht detailliert die technischen Aspekte der Manipulation von Gesichtserkennungssoftware und beleuchtet, wie Angreifer physische, softwarebasierte und netzwerkseitige Angriffe einsetzen, um diese Systeme zu überlisten.

Angriffe gemäß ISO/IEC 30107-1:2023 (Übersetzung auf deutsch)
Angriffe gemäß ISO/IEC 30107-1:2023 (Übersetzung auf deutsch)

 

1. Manipulation des Gesichts durch Schminke oder ähnliche physische Veränderungen

Die Manipulation des Gesichts basiert darauf, die Algorithmus-abhängigen Merkmale, die für die Gesichtserkennung genutzt werden, unkenntlich zu machen.

Technische Details: Gesichtserkennungsalgorithmen verwenden Punkte wie die Nase, Augen, Mundform und Abstand zwischen diesen. Durch spezielle „Adversarial Patterns“ kann die Bildverarbeitung absichtlich gestört werden. Solche Muster können aufgedruckt oder auf das Gesicht gemalt werden.

CV Dazzle

Ein Konzept, bei dem Farben und geometrische Formen so angewendet werden, dass sie die Erkennung der Gesichtszüge blockieren.

Camouflage Darstellung von Gesichtern
CV Dazzle nach Adam Harvey, Camouflage Darstellung von Gesichtern entnommen von cvdazzle.com

IR-basierte Störmethoden

Brillen mit LEDs im infraroten Spektrum senden Licht aus, das vom menschlichen Auge unsichtbar ist, die Kamera jedoch blendet und eine Analyse erschwert oder unmöglich macht.

2. Manipulation des Videomaterials durch Angriffe auf die Kamera oder das Aufnahmegerät

Angriffe auf Hardware oder das aufgenommene Bildmaterial zielen auf die Beeinträchtigung der Ausgangsdaten.

Physische Angriffe

In diesem Fall wird das Gerät sabotiert – etwa durch das Blockieren der Linse oder das Installieren falscher Sensoren, die gestörte Bilder aufnehmen.

Softwarebasierte Manipulation

Eine Malware auf der Kamera könnte das Bild vorverarbeiten, bevor es an die Erkennungssoftware weitergeleitet wird. Hier könnten Gesichter verfälscht oder unkenntlich gemacht werden.

Live-Feed-Täuschung

Ein bekanntes Beispiel sind „Replay-Angriffe“, bei denen zuvor aufgezeichnetes Material abgespielt wird, um ein falsches Bild eines Ortes oder einer Situation zu vermitteln.

3. Manipulation des Netzwerkverkehrs

Da Gesichtserkennung oft mit Cloud-Diensten interagiert, können Angriffe auf den Datenverkehr erhebliche Schäden anrichten.

Man-in-the-Middle-Angriff

Der Angreifer fängt den Datenverkehr zwischen Kamera und Server ab, verändert ihn oder fügt gefälschte Daten hinzu.

Dateninjektion

Hierbei werden Gesichtsdaten gefälscht, um eine falsche Identifikation zu bewirken. Ein Beispiel könnte das Einspeisen von generierten Gesichtern sein, die mittels „Deepfake“-Technologie erstellt wurden.

Verschlüsselungsumgehung

In schlecht gesicherten Systemen könnten verschlüsselte Daten entschlüsselt oder manipuliert werden, was zu Sicherheitslücken führt.

4. Manipulation der Software zur Gesichtserkennung

Ein besonders gefährlicher Ansatz ist die Manipulation der Gesichtserkennungssoftware selbst.

Angriffe auf den Algorithmus

Adversarial Machine Learning

Hierbei werden spezifische Angriffsbeispiele erzeugt, um das Modell zu täuschen. Diese Beispiele können so optimiert werden, dass sie für den Menschen unsichtbar sind, während sie die Algorithmen massiv verwirren.

Modifikation des Quellcodes durch Exploits

Angreifer können Schwachstellen im Software-Code nutzen, um gezielt Fehler einzubauen oder den Algorithmus unbrauchbar zu machen.

Backdoors und Trojaner

Ein oft übersehener Vektor ist die Integration von Schadsoftware während der Entwicklungs- oder Updatephase. Diese Hintertüren ermöglichen es Angreifern, gezielt Falscherkennungen hervorzurufen.

Fazit

Technologische Fortschritte bei der Gesichtserkennung gehen Hand in Hand mit neuen Sicherheitsherausforderungen. Die hier aufgeführten Beispiele verdeutlichen, dass Manipulation sowohl physisch als auch virtuell geschehen kann und oft interdisziplinäre Ansätze erfordert. Entwickler müssen nicht nur die Algorithmen selbst robust machen, sondern auch die gesamte Infrastruktur – von Hardware über Netzwerke bis hin zur Software. Denn nur durch umfassende Sicherheitsstrategien kann die Integrität dieser Systeme langfristig gewährleistet werden.