Künstliche Intelligenz. Unsichtbar und doch allgegenwärtig. Du kannst dein Handy per Gesichtserkennung entsperren? Du kannst mit deiner Alexa zuhause sprechen und ihr sagen, welchen Song sie spielen soll? Oder du hast letztens mal nach neuen Schuhen gesucht und wirst jetzt an jeder Ecke mit Werbung dafür bombardiert? Hinter alldem versteckt sich eine künstliche Intelligenz, kurz KI.
KIs sind schon lange Teil unseres Alltags
Als KI wird eine Technologie bezeichnet, die in der Lage ist, kognitive Kompetenzen nachzuahmen, zu denen bisher nur Menschen fähig waren. Zum Beispiel sprechen, logisches Denken und oder komplexes strategisches Vorgehen ersetzen. Gegenüber einem normalen Computerprogramm kann diese jedoch scheinbar eigenständige Entscheidungen treffen, Fehler analysieren und daraus lernen. Denn das ist im Grunde der Kern - KIs sind zwar immer noch digitale Programme, allerdings sind sie durch Menschen so programmiert, dass sie selbst lernen können, also vergleichsweise intelligent sind.
Die Technologie, so zukunftsweisend sie auch sein mag, birgt jedoch große soziologische und ökologische Probleme.
Denn aktuell wird noch nicht genau hingesehen, was sich dringend ändern muss. Die Intelligenz ist immer nur so schlau wie die Daten, mit denen sie versorgt wird. Wenn also ein solches System zum Beispiel eine Kreditwürdigkeit einstufen muss, speist sie sich dabei aus einem Datensatz, welcher eventuell ein diskriminierendes Weltbild vertritt. Wenn die Person, welche die Datenlage vorgibt, bestimmte Gruppen aufgrund rassistischer oder stereotypischer Motive als weniger finanziell stabil betrachtet, wird auch die KI zu genau diesem Ergebnis kommen. Die stigmatisierenden Elemente unserer Gesellschaft führen sich somit zwangsgebunden in der Technologie fort und können weitreichende Konsequenzen haben.
Ein Beispiel dafür ist Tay, der Chatbot von Microsoft, der im März 2016 von Twitter getestet wurde. Innerhalb kürzester Zeit "lernte" der Bot dazu - und wurde zu einem rassistischen Idioten:
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
Im März 2020 ging ein Experiment mit einer KI von Google bei Twitter durch die Decke, die eindeutig rassistische Denkmuster hatte. Vision AI ist dazu gedacht, automatisch Bilder zu kategorisieren, um sie später in der Suche leichter auffindbar zu machen. Eigentlich ist auf diesen Bildern zweimal ein Fieberthermometer abgebildet. Einmal lag die KI mit ihrer Kategorisierung richtig - einmal kategorisierte sie den Gegenstand als Waffe. Warum? Die Menschen auf den Fotos hatten zwei unterschiedliche Hautfarben:
Black person with hand-held thermometer = firearm.
— Nicolas Kayser-Bril (@nicolaskb) March 31, 2020
Asian person with hand-held thermometer = electronic device.
Computer vision is so utterly broken it should probably be started over from scratch. pic.twitter.com/hvqceJVZPv
Artikel teilen: