Bilderkennung: Kopfhaltung soll politische Einstellung verraten

Ob man sich bei einem Videomeeting langweilt, ob man eher liberal oder konservativ ist – vor Gesichtserkennungssoftware lässt sich kaum noch etwas verbergen.

In Pocket speichern vorlesen Druckansicht 110 Kommentare lesen

(Bild: Haris Mm/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Schon bei Menschen empfinde ich es als übergriffig, wenn sie mit allzu großer Selbstverständlichkeit glauben, etwas aus meinem Gesicht herauslesen zu können: „Du guckst so böse – hast Du ein Problem mit dem Vorschlag?“ Nicht unbedingt. Vielleicht denke ich ja gerade an etwas anderes. Wenn ich mit irgendetwas ein Problem habe, sage ich das in der Regel. Und wenn nicht, ist das immer noch meine Sache.

Doch es dürfte zunehmend schwer werden, sich ähnlicher maschineller Anmaßungen zu entziehen. Das Gesicht lässt sich schwer verstecken, besonders in einer Videokonferenz. Und so bietet es eine ideale Zielscheibe für alle Forscher, die gerne mit selbstlernenden Algorithmen herumspielen.

Forscher von Microsoft etwa haben ein Tool namens „AffectiveSpotlight“ für die Teams-Software entwickelt, welches die emotionalen Reaktionen der Teilnehmer einer Videokonferenz erfasst. Hält jemand eine Präsentation, werden ihm nur die ausdrucksstärksten Reaktionen gezeigt, zu erkennen etwa an hochgezogenen Augenbrauen oder am Kopfnicken. Das soll Vortragende entspannen und/oder zu interessanteren Präsentationen erziehen. „Die Reaktionen des Publikums hervorzuheben, bringt dem Präsentierenden das Publikum stärker ins Bewusstsein und erzeugt so eine Feedback-Schleife“, sagte ein Microsoft-Forscher zum New Scientist. In einer Studie mit 117 Teilnehmern haben sich die Sprecher dadurch tatsächlich besser gefühlt. Die Zuhörer merkten allerdings nach eigenen Angaben keinen großen Unterschied bei der Qualität der Präsentationen.

Zum Thema Privacy schreiben die Forscher: „Obwohl Gesichtsausdrücke und Kopfgesten nicht notwendigerweise den inneren Status der Menschen repräsentieren, halten viele Menschen diese Art von Informationen immer noch für persönlich und privat.“

Das Bemerkenswerte an dieser Formulierung ist das Wort „obwohl“. Ich würde es umgekehrt ausdrücken: Gerade weil die Mimik nicht immer die Stimmung korrekt widerspiegelt, sind mir solche Systeme suspekt. Deutlich schlimmer als eine zu gut funktionierende KI ist eine zu schlecht funktionierende.

Die Microsoft-Forscher wollen natürlich nur unser Bestes: weniger langweilige Videokonferenzen. Doch man muss nicht übertrieben paranoid sein, um darin auch ein Überwachungswerkzeug für Mitarbeiter zu sehen. Wer bei den Ausführungen des Chefs regelmäßig nicht begeistert genug guckt, könnte es beim nächsten Gehaltsgespräch dann etwas schwerer haben.

Noch krasser ist eine Studie von Michal Kosinski. Er behauptet, aus Gesichtern sogar die politische Orientierung herauslesen zu können. Dazu sammelte er mehr als eine Million Profilfotos von Facebook und Dating-Webseiten aus den USA, Großbritannien und Kanada. Damit der Hintergrund und die Umgebung das Ergebnis nicht verfälschen, wurden die Bilder auf den Kopf zugeschnitten und auf eine einheitliche Größe skaliert. Zusätzlich wurde die selbst zugeschriebene politische Orientierung (liberal versus konservativ) erfasst.

Mit diesem Input konnte ein neuronales Netz mit einer Trefferquote von 68 Prozent auf die politische Orientierung schließen. Menschlichen Versuchspersonen erreichten nur 55 Prozent.

Es bleibt natürlich die Möglichkeit, dass der Algorithmus aus den Bildern vor allem demographische Eigenheiten herausgelesen hat, die mit der politischen Einstellung korrelieren – Alter, Geschlecht, Hautfarbe und so weiter. Um das auszuschließen, hat Kosinski in einem weiteren Durchlauf nur Profilbilder mit ähnlicher Demographie verglichen. Dadurch sank die durchschnittliche Trefferquote lediglich um 3,5 Prozentpunkte.

Es muss also tatsächlich versteckte Hinweise in unseren Gesichtern geben, die auf politische Orientierung hinweisen. Nur welche? Müssen wir die Phrenologie wieder aus der Mottenkiste holen?

Die Antwort ist trivialer. Es sind laut Kosinski vor allem zwei Faktoren, welche die Unterschiede erklären: Kopfhaltung und emotionaler Ausdruck. Demnach lassen sich selbst als „liberal“ einschätzende Menschen ihren Kopf tendenziell weniger hängen und zeigen vermehrt „überraschte“ und „glückliche“ Gesichtsausdrücke als Konservative. Eine interessante Nebenbeobachtung: Die Haare lieferten einen deutlich geringeren Hinweis auf die politische Einstellung. Langhaarige sind heutzutage also nicht deutlich liberaler als konservative. Wenn das die Hippies damals geahnt hätten.

Auch wenn es in diesem Fall eher weiche als harte Faktoren sind, anhand derer uns die KI durchschaut, macht das die Sache keineswegs angenehmer. Man kann schließlich nicht jedes Bild von sich, das man von sich postet, von subtilsten Hinweisen befreien, von denen man noch gar nicht ahnen kann, was eine KI jetzt oder in Zukunft herauslesen kann oder zu können glaubt. Kosinski selbst will mit seiner Forschung übrigens nicht selbst in neue Dimensionen der Überwachung vorstoßen, sondern genau davor warnen. „Schießen Sie nicht auf den Überbringer der Botschaft“, wird er vom Online-Magazin Golem.de zitiert. (grh)