Mehr als Modelle

Judith, denkst du, es ist nur noch eine Frage der (Entwicklungs-) Zeit, bis es möglich ist, uns mit Technologien vollständig zu durchschauen?

Technologien basieren immer auf Modellen, die wir uns von der Wirklichkeit machen. Und sie funktionieren ausschließlich dann, wenn der Kontext, in dem sie arbeiten, den Modellen hinreichend entspricht.

Um der Angst vor abstrakten Bedrohungen einen Ausdruck zu geben, braucht es eine Maske. Das eigene Gesicht lässt sich nicht genügend aufladen.

Sehr deutlich sieht man diesen Zusammenhang bei Robotern, die darauf programmiert sind, zu laufen und bei leichtesten Unebenheiten spektakulär ungebremst fallen.
Der Zusammenhang zwischen Modellen der Realität und der tatsächlichen Arbeitsumgebung von Maschinen gilt auch für Gesichtserkennungstechnologien. Sie funktionieren nur dann, wenn unsere Gesichter genügend den Modellen entsprechen, auf denen die Technologie basiert.

Werden einzelne Aspekte des Gesichts bei der Entwicklung der Technologie nicht berücksichtigt, fallen notgedrungen einige Individuen durch das Schema. Das passiert sowohl bei der Indexfunktion, wenn etwa Algorithmen nicht auf verschiedene Hautfarben trainiert werden und dann Personen mit dunkler Hautfarbe nicht als Menschen erkennen. Das Gleiche passiert auch bei der Mimik-Interpretation, wenn nur die Modelle der universellen Ausdrücke verarbeitet werden, kulturelle Ausdrücke jedoch nicht.

Problematisch werden Technologien jedoch auch dann, wenn die Modelle, auf denen eine Technologie basiert, grundsätzlich nicht korrekt sind. Die Forscher Xiaolin Wu und Xi Zhang von der Shanghai Jiao Tong University entwickelten 2016 eine Künstliche Intelligenz, der es vermeintlich gelingt, anhand von äußeren Merkmalen des Gesichts darauf zu schließen, ob eine Person kriminell ist oder nicht. Ein Blick in die dazugehörige Publikation zeigt jedoch offensichtliche wissenschaftliche und logische Fehler auf. Doch ob wissenschaftlich unzulänglich oder nicht – die KI liefert Ergebnisse. Werden solche Entwicklungen in einen gesellschaftlichen Kontext gebracht, dann urteilt ein falsches Modell über die Biografie von Menschen.

In solchen Fällen besteht die Problematik darin, dass die Modelle immer eine Reduktion der Realität vornehmen.


Die Frage ist nicht, ob wir durchschaut werden, sondern was passiert, wenn wir uns selbst Modellen unterwerfen und wir uns zwangläufig reduzieren?