Kann AI sexuelle Orientierung von Fotos erkennen?

Wikimedia Commons
Quelle: Wikimedia Commons

Eine neue Studie aus Stanford behauptet, in der Lage zu sein, zu identifizieren, ob Sie schwul oder hetero sind, nur durch die Analyse eines Fotos von Ihrem Gesicht. Nicht nur das – es behauptet, sexuelle Orientierung genauer zu bestimmen als Menschen.

Auf der einen Seite entspricht dies dem Fortschritt der Artificial Intelligence (kurz AI), die in der Lage ist, persönliche Attribute aus Online-Daten zu erkennen. Auf der anderen Seite hat es unangenehme Auswirkungen auf die Privatsphäre und Rückschläge auf Phrenologie.

Lassen Sie uns zunächst die Studie beobachten. Es analysierte Fotos von einer Dating-Site. Es sah weiße Männer und Frauen an, die entweder schwul oder heterosexuell waren. Dies schloss Menschen mit Hautfarbe, Bisexuellen, Transgender und Personen aus, die nicht auf der Website waren. Der Algorithmus untersuchte Gesichtsmerkmale und Fotoeigenschaften:

Die Untersuchung ergab, dass schwule Männer und Frauen tendenziell "geschlechtsuntypische" Merkmale, Ausdrücke und "Grooming Styles" hatten, was im Wesentlichen bedeutet, dass schwule Männer weiblicher erscheinen und umgekehrt. Die Daten identifizierten auch bestimmte Trends, einschließlich, dass schwule Männer schmalere Kiefer, längere Nasen und größere Stirn hatten als gerade Männer, und dass schwule Frauen größere Kiefer und kleinere Stirnen im Vergleich zu geraden Frauen hatten. (Zusammenfassung von The Guardian)

Gibt es also eine genetische Verbindung, die homosexuelle Menschen körperlich anders erscheinen lässt als heterosexuelle Menschen? Einige KI-Forscher mögen das vielleicht denken, weil der Algorithmus es vorschlägt, aber es gibt keine Möglichkeit, dass diese Studie dieser Schlussfolgerung nahe kommt. So viele Menschen wurden von dieser Studie ausgeschlossen. Was es wirklich erfasst, sind Beauty-Standards für diese spezielle Online-Dating-Website.

Wenn Menschen jedoch glauben, dass der Algorithmus sexuelle Orientierung erkennen kann , öffnet er die Tür für Überwachung und falsche Annahmen. Werden wir anfangen, Leute durch den Algorithmus zu führen und Rückschlüsse auf sie zu ziehen? Was, wenn das in Orten wie Tschetschenien gemacht wird, wo Schwule aktiv hingerichtet oder inhaftiert werden?

Was dieses Projekt hervorhebt, sind die wackeligen ethischen Gründe, die KI-Forscher verfolgen. Ich bin ein Informatiker, der KI entwickelt, der Dinge über Menschen erfährt. Ich würde jedoch eine solche Studie nicht persönlich durchführen. Es spricht eher den Datensatz, den die Forscher haben, als das Merkmal, das sie untersucht haben, aber es hat weitreichende gesellschaftliche Implikationen, wenn die Menschen an die Ergebnisse glauben. Die wirkliche Sorge über KI sollte nicht sein, dass es so gut ist, dass wir einer Skynet-ähnlichen Übernahme gegenüberstehen. Es ist vielmehr so, dass Menschen mit Macht falsche Annahmen darüber treffen, was die KI tun kann, und sie werden sie verwenden, um lebensverändernde Entscheidungen über Menschen zu treffen, die keinen Rückgriff haben und niemals ihrer Verwendung zugestimmt haben.