ABOUT FACE! („Gesicht umdrehen!“) ist ein militärischer Begriff und bedeutet eine Richtungsänderung um 180°.
Stellen Sie sich vor, es ist Weihnachten und Sie begleiten Ihre kleine Tochter zu einer beliebten Aufführung in der Wiener Stadthalle. Am Eingang werden Sie aufgehalten und es wird Ihnen der Zutritt verwehrt, weil Sie als Rechtsanwältin in einer Kanzlei arbeiten, welche die Kläger in einem Rechtsstreit gegen den Betreiber der Stadthalle vertritt. Es stellt sich heraus, dass eine Überwachungskamera Ihr Gesicht mit einem Foto auf der Website Ihrer Kanzlei abgeglichen hat. Ihnen wurde daher automatisch Hausverbot erteilt, dabei bearbeiten Sie den Fall gar nicht. Sie müssen nun die nächsten zwei Stunden vor der Stadthalle auf Ihre Tochter warten.
Zutrittsverbot
Eine solche Geschichte mag unglaubwürdig klingen, hat sich aber in New York City tatsächlich zugetragen. Es handelte sich um das Weihnachtsspektakel mit den weltberühmten Rockettes in der Radio City Music Hall im Rockefeller Center, die von Madison Square Garden Entertainment betrieben wird („MSG“). Die Anwaltskanzlei der Mutter vertrat einen Mandanten, der MSG wegen Körperverletzung geklagt hat. Die Mutter ging durch den Metalldetektor, als aus einem Lautsprecher die Worte: „Woman with long dark hair and a grey scarf!“ ertönten. MSG kannte die Identität der Mutter, bevor sie überhaupt aufgefordert wurde sich auszuweisen. Ein Mitarbeiter teilte ihr mit, dass man ihr den Zutritt verweigere, weil ihre Anwaltskanzlei MSG geklagt habe. MSG erklärte dazu, man habe klare Hausregeln. AnwältInnen, die einen Rechtsstreit gegen das Unternehmen führen, wird aus „Sicherheitsgründen“ der Zutritt zu Veranstaltungen verwehrt, bis der Rechtsstreit beigelegt ist.
Gesichtserkennung
Dies war allerdings kein Einzelfall – auch weitere AnwältInnen waren von dieser „Sicherheitsmaßnahme“ betroffen und haben mittlerweile auch eine einstweilige Verfügung (Preliminary Injunction) erwirkt. Diese verbietet MSG zwar weder den Einsatz von Gesichtserkennungstechnologie („FRT“ für facial recognition technology) noch die Anwendung der Hausregeln, verpflichtet MSG allerdings, allen Personen mit einer gültigen Eintrittskarte den Zutritt zur jeweiligen Vorstellung zu gewähren. Manche Kollegen sind auch kreativ geworden: Ein Bekannter von mir, der gerne Veranstaltungen in verschiedenen von MSG betriebenen Veranstaltungsstätten besucht, hat sich einen Bart wachsen lassen, um zu testen, ob er damit FRT umgehen kann – mit Erfolg!
Als Reaktion brachten Abgeordnete der städtischen Gesetzgebung in NYC einen Gesetzentwurf ein, der das lokale Civil Rights Law, Paragraph 40(e), dahingehend ändern würde, dass das Verbot der wahllosen Eintrittsverweigerung auch für Sportveranstaltungen gelten würde. Als Sanktion bei einem Verstoß ist ein temporärer Entzug der Alkohollizenz vorgesehen. Dieses Gesetz wurde ursprünglich vor etwa 40 Jahren auf Betreiben von Theaterkritikern erlassen, denen der Besuch bestimmter Theateraufführungen untersagt wurde, um keine schlechte Kritik zu erhalten.
Gesetzliche Antwort
Gesetzgeber auf Bundes- und einzelstaatlicher Ebene haben allgemeinere Rechtsvorschriften vorgeschlagen, die den behördlichen Einsatz von FRT (und Stimmerkennungssoftware) verbieten würden. Diese fordern weiters, dass privaten Unternehmen, die die Technologie auf unethische Weise einsetzen Beschränkungen in Bezug auf Genehmigungen, Lizenzen und Vergünstigungen auferlegt werden sollten. Der bundesweite Facial Recognition and Biometric Technology Moratorium Act würde im Falle seiner Verabschiedung Bundesbehörden wie der Einwanderungs- und Zollbehörde, der Drug Enforcement Administration oder dem Federal Bureau of Investigation verbieten, Gesichtserkennung zur Überwachung von Personen einzusetzen. Das Gesetz würde auch den lokalen und staatlichen Behörden, die FRT nutzen, bestimmte Zahlungen aus Bundesmitteln streichen. Die Chancen, dass dieser Gesetzesentwurf eine Mehrheit im Kongress findet, sind allerdings praktisch gleich null. Jedenfalls ist die Einhaltung und Entwicklung von entsprechenden Datenschutzgesetzen aufgrund der sensiblen Materie wesentlich.
Vereinfacht ausgedrückt ist FRT das Äquivalent zu einem Fingerabdruck. Die Technologie vergleicht die einzigartigen biometrischen Merkmale eines Gesichts mit einer hinterlegten Datenbank. Damit kann eine bestimmte Person identifiziert, aber auch Kategorien wie Alter oder Geschlecht erfasst werden. Andererseits hat FRT offenkundig viele Vorteile: ein Gesichtsscan kann anstelle von Passwörtern, Fingerabdrücken oder Personalausweisen eingesetzt werden, um Zugang zu Büros oder elektronischen Geräten zu kontrollieren. Ebenso können bestimmte unerwünschte Personen wie bekannte Betrüger in einem Casino sowie Ladendiebe ausgeschlossen oder an Kontrollpunkten gesuchte Terroristen aufgespürt werden. Die Technologie kann auch von entscheidender Bedeutung sein, um abgängige oder entführte Minderjährige zu finden.
BAN Facial Recognition Technology ist eine Interessensgruppe, die der Meinung ist, dass „Regulierung nicht genug ist“ und die FRT ausnahmslos verbieten möchte. Das ist natürlich unrealistisch, aber BAN’s grundsätzliche Kritik ist durchaus diskussionswürdig. So befürchtet die Gruppe, dass Strafverfolgungsbehörden die Technologie regelmäßig ohne Durchsuchungsbefehl oder sogar ohne begründeten Verdacht einsetzen, was gegen grundsätzliche Menschenrechte verstößt. Ein weiteres Beispiel einer invasiven und gefährlichen Nutzung besteht laut BAN in der Möglichkeit, damit die Öffentlichkeit auszuspionieren. Weiters würden bestimmte Ethnien sowie Frauen und Kinder oft falsch identifiziert und sei die Technologie angreifbar, weil die staatlichen Datenbanken gehackt werden könnten.
Ausnahmsloses Verbot?
BAN vertritt hier freilich eine Extremposition, dennoch verdienen die ethischen Fragen, die FRT aufwirft, ernsthafte Aufmerksamkeit. Erstens mangelt es an Transparenz und Zustimmung. MSG hat zwar auf die Überwachung der Karteninhaber hingewiesen, holt allerdings nach wie vor nicht deren Zustimmung ein. MSG hat das System offenkundig bereits dazu genutzt, um Hürden für Prozessgegner aufzustellen.
Ein zweites ethisches Problem ist die mögliche Massenüberwachung. Das 1st Amendment gewährt der Öffentlichkeit das Recht, sich zu versammeln und bei der Regierung Petitionen einzureichen, um Missstände aufzuzeigen. Wenn die Strafverfolgungsbehörden eine Menschenmenge überwachen und Gesichter herausgreifen, um sie einer besonderen Prüfung zu unterziehen, kommt dies einer Einschränkung des 1st und 4th Amendment (welcher Schutz vor rechtswidrigen Durchsuchungen bietet) gleich.
Fehlende Treffsicherheit
Ein drittes Problem besteht in der Voreingenommenheit und Treffsicherheit bei der Anwendung. Früher wurden Verdächtige durch die harte Arbeit der Polizei oder von sogenannten „Gumshoes“ identifiziert. („Gumshoe“ ist eine umgangssprachliche Bezeichnung für einen Privatdetektiv, der traditionell dicke, weiche und leise Schuhe mit Gummisohle trug während er die Straßen durchkämmte, um den Täter zu finden.) Heute wird diese Arbeit mehr und mehr von KI übernommen, die aber wiederum mit eingebauten Vorurteilen agiert. FRT neigt z.B. dazu, überproportional falsche Treffer bei schwarzen Frauen zu erzeugen, die laut einer Studie der MIT-Universität (2018) mit Fehlerquoten von bis zu 34,7% die am häufigsten falsch klassifizierte Gruppe ist. Ähnliches geschieht generell in der Altersgruppe von 18- bis 30-jährigen (wobei hier stetige Verbesserungen zu erkennen sind). Im Gegensatz zu den Ergebnissen bei schwarzen Frauen lag die maximale Fehlerquote bei weißen Männern lediglich bei 0,8%. Nachdem die Strafverfolgungsbehörden bei der Identifizierung von Verdächtigen zunehmend auf KI vertrauen, sind diese Fehler sehr besorgniserregend, auch deshalb, weil afroamerikanische Personen und jüngere Menschen schon mit höherer Wahrscheinlichkeit angehalten und einer FRT Prüfung unterzogen werden. Wie kürzlich in Tech Republic berichtet wurde, liegt die Erfolgsquote von FRT unter „perfekten“ Bedingungen bei 99,92%. Dies wurde wie folgt kommentiert: „This might seem impressive, but if you’re looking for a serial killer in Manhattan, facial recognition might suggest 130,000 potential false positives.“ Eine derartige Aussicht wirkt natürlich wenig beruhigend und lässt wohl auch zweifeln, ob bestimmte Anwendungen tatsächlich sinnvoll sind oder mehr Schaden als Nutzen nach sich ziehen würden. Eine „Kehrtwende“ (About Face!) bei FRT ist also durchaus diskussionswürdig.