Digital Mindset GmbH

Autor*IN
Veröffentlicht:
Kategorie
#digidilemma
,
Blog

#digidilemma: Gesichtserkennungsalgorithmen

Diese Woche hat unsere Lotsin Saskia einen Gastbeitrag in Lisa#digidilemma geschrieben. Viel Spaß beim Lesen!

Kennst du auch schon #digidingens von unserem Lotsen Bastian – unser Erklärformat für all die Buzzwörter, mit denen wir überall zugespamt werden?

Gesichtserkennungsalgorithmen sind nun wahrlich nichts mehr Neues. Immerhin entsperren wir nun schon seit einigen Jahren unsere Smartphones mit unseren Gesichtern. Doch damit ist es ja nicht getan. Mittlerweile kommen die Algorithmen in den unterschiedlichsten Bereichen zum Einsatz. Ob an Flughäfen bei Passkontrollen oder sogar schon bei der Strafverfolgung. Aber was passiert, wenn die Technik an ihre Grenze stößt?

Wie funktionieren Gesichtserkennungsalgorithmen überhaupt?

Bevor wir überhaupt weiter auf mögliche Anwendungen oder Kritikpunkte eingehen, ist es einmal wichtig zu klären, was Gesichtserkennungsalgorithmen überhaupt sind und wie sie funktionieren.

Wie der Name vielleicht schon verrät, handelt es sich bei der Gesichtserkennung um einen Prozess, bei dem Gesichter voneinander unterschieden werden und so erkannt werden können. Hinter der Gesichtserkennung steckt heutzutage meist ein Algorithmus auf Grundlage von Künstlicher Intelligenz. Dabei handelt es sich um nichts weiter als ein Programm, was die Anweisung bekommen hat Gesichter zu erkennen. Besonders ist aber, dass der Algorithmus oder die KI sich selbst beibringt Gesichter zu erkennen und zu unterscheiden. Damit dieses sogenannte maschinelle Lernen funktioniert, füttert man den Algorithmus mit vielen Bildern. Im Anschluss lernt der Algorithmus optische Anhaltspunkte auf Bildern, wie den Abstand zwischen den Augen oder die Breite des Kopfes zu erkennen. Diese Anhaltspunkte nutzt der Algorithmus dann, um dann seine Aufgabe auszuführen. 

Welchen Nutzen haben denn Gesichtserkennungsalgorithmen?

Neben den schon genannten Beispielen der Handyentsperrung und Strafverfolgung (dazu unten mehr) kommt die Gesichtserkennung in vielen Bereichen zum Einsatz, wo es sinnvoll erscheint, Menschen zu erkennen. Ein gutes Beispiel dafür ist Facebook. Hier werden (wenn man es nicht explizit verbietet) sämtliche Fotos auf Facebook mit den eigenen Bildern abgeglichen - so kann man immer sehen, wenn man irgendwo auf einem fremden Foto ist, wenn Freund*innen ein Foto geteilt haben und uns vergessen haben zu verlinken oder wenn jemand unser Profilbild stehen will. Ganz schön praktisch  - oder auch ganz schon creepy, je nachdem, wie man es sieht.

Und was ist die Kehrseite der Medaille?

Ein Abbild der Mehrheitsgesellschaft

Nun wird die Gesichtserkennung ja aber nicht nur zum Entsperren von Smartphones verwendet, sondern auch an vielen anderen Stellen. Und problematisch wird es immer dann, wenn Menschen – meist Schwarze Personen, Frauen und insbesondere Schwarze Frauen von den Algorithmen nicht erkannt werden. 

Passiert das denn häufiger?

Das Probleme der Gesichtserkennungsalgorithmen mit marginalisierten Personengruppen ist leider kein Einzelfall, sondern schon fast Gang und Gebe. Daher gibt es auch schon Fälle in Deutschland, wie z.B. der Algorithmus in einem Hamburger Fotoautomaten. 

Dort hatte eine damals 28-jährige Frau namens Audrey versucht Bilder für ihren internationalen Führerschein zu machen. Nachdem es zunächst das Gesicht gar nicht als solches fand, versah der Automat schließlich jedes Bild mit einem Ausrufezeichen und der Aufschrift „auffällig“. 

Und wieso erkannte der Gesichtserkennungsalgorithmus das Gesicht nicht?!

Der Grund dafür liegt wahrscheinlich in den Daten, also den Bildern, mit denen der Algorithmus lernt, Gesichter zu erkennen. Denn beim maschinellen Lernen wird auf bisher gesammelte Bilder zurückgegriffen. In den bis dato gesammelten Bildern sind vor allem weiße Männer zu sehen. Das führt dann dazu, dass Gesichtserkennungssoftwares weiße Männer besonders gut erkennen, da sie anhand Bildern von eben genau solchen Personen gelernt haben Menschen zu erkennen.

Um das Ganze auch mal mit ein paar Zahlen zu untermauern: Die Informatikerin Joy Buolamwini am Massachusetts Institute of Technology untersuchte in einer Studie die Gesichtserkennungssoftwares von IBM, Microsoft und Face++. Sie kam zu dem Resultat, dass die Software bei weißen Männern lediglich eine Fehlerquote von 0,3% aufweist, während bei Schwarzen Frauen die Fehlerquote bei unglaublichen 30,3% liegt. 

Kann ich selbst etwas tun?

Wer sich jetzt fragt, ob man da selber etwas tun kann, dem kann ich an dieser Stelle auch keine klare Antwort geben. Natürlich gibt es einiges was getan werden kann, wie z.B. unsere Gesellschaft in ihrer vollen Diversität auch in Daten abzubilden oder strengere Zulassungssysteme für solch Arten von Software einzuführen. All das ist natürlich nichts, was direkt in unseren Händen liegt, aber vielleicht ist man schon gut damit bedient, wenn man nicht vergisst, dass der für einen selber vielleicht praktische Alltagshelfer für andere Personen eine weitere Mikroaggression und Diskriminierung sein kann.

Immer auch eine Frage des Datenschutzes

Gesichtserkennung hat immer etwas Datenschutz zu tun – denn was sind personenbezogenere Daten als das eigene Gesicht? Ein Beispiel dafür, dass die teils dystopisch klingenden Warnungen von Datenschützer*innen nicht völlig aus der Luft gegriffen sind, ist der Skandal um das Unternehmen Clearview.   

Gesichter sammeln im Dienste der öffentlichen Sicherheit?

Das Unternehmen Clearview hat über Jahre Milliarden Fotos aus öffentlichen Datenbanken (beispielsweise Social Media Kanäle) gesammelt. Das Prinzip der Datenbank: Es können direkt Personen (wieder-)erkannt werden.

Diese Sammlung bietet es zur Nutzung an: Meist an Behörden, aber auch eine private Nutzung ist nicht verboten. Laut Clearview dient das Unternehmen dem öffentlichen Wohl, da es Strafverfolgung erleichtern kann. Da braucht es im Zweifel nicht groß angelegte Fahndungen, sondern es genügen Selfies von Unbeteiligten, bei denen die verdächtige Person im Hintergrund zu erkennen ist.

Big Brother ist watching you

Das Argument „Wer nichts zu verbergen hat, hat auch nichts zu befürchten“, zieht hier nicht.

Das Missbrauchspotential einer solchen Software ist groß. Nicht nur durch Beamt*innen, die eine eigene Agenda verfolgen. Der Einsatz solcher Software hebt die Möglichkeiten für Stalking, geplante Überfälle und Gewalttaten und anderer Verbrechen auf ein neues Level. Und was das Thema Strafverfolgung angeht: die Software wird nicht nur in Demokratien und im Sinne der Menschenrechte eingesetzt. So können Regierungskritiker*innen, Oppositionelle oder verfolgte Minderheiten einfacher aufgespürt werden.

Man kann also nicht einfach sagen, dass Gesichtserkennungsalgorithmen gut oder schlecht, hilfreich oder gefährlich, praktisch oder diskriminierend sind. Denn die Technologie bietet auf jeden Falls Chancen, Risiken und Probleme.

Es ist halt ein Dilemma

Eure Saskia von der Digital Mindset

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Related Posts