Die Debatte um den Einsatz automatisierter Gesichtserkennung im öffentlichen Raum gewinnt im Kontext des geplanten Sicherheitspakets zunehmend an Brisanz. Während die Befürworter argumentieren, dass solche Technologien die Strafverfolgung und Gefahrenabwehr effizienter machen könnten, mahnen Datenschützer zur Vorsicht. 

Worum geht es?

Aktuell plant die Bundesregierung ein neues Sicherheitspaket, welches die Möglichkeit eröffnen soll, biometrische Daten von Verdächtigen mit öffentlich zugänglichen Informationen abzugleichen. Neben der Überwachung des öffentlichen Raums mittels KI soll auch ein biometrischer Abgleich des gesamten Internets mit Bildern und Stimmen von Tatverdächtigen oder gesuchten Personen erfolgen. Diese Informationen sollen allesamt in einer Datenbank erfasst werden, auf die sowohl das Bundeskriminalamt wie auch die Bundespolizei Zugriff haben sollen. Problematisch ist dabei, dass auch Daten Unverdächtiger erfasst werden. Noch im Jahr 2023 hatte die Bundesregierung solche Verfahren wegen der Gefahr von Eingriffen in die Rechte Unbeteiligter streng reglementiert.

Neben Organisationen wie Amnesty International und Seawatch, sprechen sich auch die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider sowie der Landesdatenschutzbeauftragte von Hessen, Alexander Roßnagel gegen dieses Paket aus.

Grundrechtliche Probleme:

Automatisierte Gesichtserkennungssysteme greifen tief in die Privatsphäre und andere Grundrechte der Bürgerinnen und Bürger ein. Dies ist besonders relevant, wenn Videobilder im öffentlichen Raum mit Datenbanken potenzieller Straftäter abgeglichen werden. Dabei werden zwangsläufig auch Personen erfasst, die keinerlei Bezug zu strafrechtlich relevanten Vorfällen haben. Dieses „Scannen“ rechtschaffener Bürger stellt einen erheblichen Eingriff in die informationelle Selbstbestimmung dar, die als Grundrecht in Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG verankert ist.

Roßnagel und andere Datenschützer betonen, dass der Einsatz solcher Technologien nur unter strengsten gesetzlichen Voraussetzungen möglich sein sollte. Der bloße Verdacht oder die allgemeine Annahme, dass „etwas passieren könnte“, reicht nicht aus, um die massive Erfassung biometrischer Daten zu rechtfertigen. Konkrete Anhaltspunkte für eine drohende Gefahr oder einen schweren Straftatbestand, wie etwa einem Mord, müssen vorliegen.

Datenschutzrechtliche Probleme: 

Die rechtliche Grundlage für den Einsatz von Gesichtserkennung ist sowohl auf nationaler als auch auf europäischer Ebene problematisch. So verbietet die EU-Verordnung zur Künstlichen Intelligenz, die Gesichtserkennung im öffentlichen Raum grundsätzlich. Nur eng gefasste Ausnahmen, erlauben den Einsatz dieser Technologien. Das Ziel dieser strengen Regelung ist es, den Datenschutz und die Grundrechte der Bürger in einer immer digitaler werdenden Welt zu wahren.

Derzeit gibt es keine rechtlichen Grundlagen die einen solchen Ausnahmefall begründen würden. Insbesondere bietet die StPO in ihrer derzeitigen Fassung nach Ansicht der Datenschützer keine ausreichende rechtliche Grundlage für den Einsatz automatisierter Gesichtserkennung im öffentlichen Raum. Bestehende Regelungen sind zu unspezifisch und genügen den Anforderungen an den Schutz der Freiheitsrechte nicht.

In dem geplanten Sicherheitspaket sind außerdem keine Regelungen vorgesehen, wonach Daten, die nicht als Beweismittel genutzt werden können, unverzüglich gelöscht werden müssen. Dies ist wiederum problematisch in Bezug auf Art. 17 DSGVO, wonach jeder Betroffene einen Anspruch auf Löschung seiner personenbezogenen Daten hat, wenn diese nicht mehr benötigt werden.

Konkrete Anforderungen an den Einsatz

Laut den Datenschutzbeauftragten muss der Einsatz von Gesichtserkennungssystemen nicht nur einer klaren gesetzlichen Grundlage folgen, sondern auch verhältnismäßig sein. In der Praxis bedeutet dies, dass Gesichtserkennung nur zur Abwehr schwerwiegender Gefahren oder zur Verfolgung besonders schwerer Straftaten genutzt werden darf. Auch hier sind „vage Verdachtsmomente“ unzureichend. Vielmehr sind klare Hinweise auf eine konkrete Gefahr oder einen bestimmten Täter notwendig, um den Einsatz solcher Technologien zu rechtfertigen.

Fazit: Strikte gesetzliche Vorgaben notwendig

Der Einsatz von automatisierter Gesichtserkennung im öffentlichen Raum bleibt ein kontroverses Thema. Während die Technologie das Potenzial hat, die Strafverfolgung zu revolutionieren, dürfen die damit einhergehenden Eingriffe in die Grundrechte der Bürgerinnen und Bürger nicht übersehen werden. Eine sorgfältige Abwägung zwischen Sicherheitsbedürfnissen und dem Schutz der Privatsphäre ist unerlässlich.

Die Forderung der Datenschutzbeauftragten, klare gesetzliche Regelungen zu schaffen, ist daher mehr als berechtigt. Solange diese nicht vorliegen, ist der flächendeckende Einsatz automatisierter Gesichtserkennung in Deutschland kaum mit den geltenden Datenschutzstandards vereinbar.

Insgesamt bleibt abzuwarten, wie der Gesetzgeber auf diese Bedenken reagiert und ob sich ein gesetzlicher Rahmen finden lässt, der sowohl den Sicherheitsinteressen als auch den Grundrechten gerecht wird.

 

Foto von Matthew Henry auf Unsplash

 

Weitere Beiträge:

Der AI Act – Das weltweit erste KI-Gesetz

Deepfakenews: Desinformationen mittels KI