„Dein Gesicht entscheidet.“
Dieser Satz hängt mir seit Wochen im Kopf.
96.000 Bewerbungsfotos.
Durch eine KI gejagt.
Ergebnis: Big Five. Karriereprognosen. Führungspotenziale.
Sogar Gehaltserwartungen.
Alles aus einem Gesicht.
Das eigentliche Problem beginnt danach:
Diese Systeme bewerten nicht, wer du bist, sondern wie du wirkst.
Zuverlässig. Vertrauenswürdig. Kreditwürdig.
Oder eben: aussortiert.
Früher waren Ethnie, Geschlecht und Alter die Filter.
Heute reichen Stirn, Augenwinkel, Knochenstruktur.
Denk das weiter:
Menschen lassen sich operieren, nicht aus Eitelkeit, sondern weil ein Algorithmus ihre Chancen frisst. Nicht, um schöner zu sein – sondern, um maschinell akzeptierter zu wirken.
Ein Gesicht als Risikofaktor. Eine Nase als Karrierehemmnis.
An diesem Punkt wird es ethisch grotesk.
Wir reden ständig von „neutraler KI“.
Dabei rechnen diese Modelle nichts anderes als unsere Vorurteile hoch – nur schneller, kälter und ohne Scham.
Vielleicht lautet die eigentliche Frage nicht mehr
„Wer bin ich?“ sondern: „Wie liest die Maschine mich?“
Aus Neugier habe ich selbst einen kleinen Bot gebaut.
Nichts Großes. Kein Deep-Learning-Monster.
Er spuckt dir die Big Five aus, schätzt dein „Potenzial“ und sagt dir, was du laut Algorithmus lassen solltest.
Das ist keine Wissenschaft.
Es ist ein Spiegel. Ein Spiel.
Und ein Warnsignal.
Denn das, was hier ironisch gemeint ist, passiert an anderen Stellen völlig ernst – und ohne dein Wissen.
Wenn du sehen willst, wie gnadenlos ein Algorithmus aus einem Foto eine Persönlichkeit bastelt:
