21 May, 2019, 17:06

Diskriminierende Algorithmen – programmierte Benachteiligung

Treffen wir eine Entscheidung, so wissen wir, dass diese bestimmten Vorlieben, bestimmten Fakten und auch bestimmten Vorurteilen unterliegt. Trifft eine Maschine eine Entscheidung, so glauben wir, diese sei objektiver und gerechter, da weder Vorurteile noch Vorlieben bestehen. Aber ist dem wirklich so? Sind mathematische Entscheidungen objektiver oder fallen uns diskriminierende Algorithmen gar nicht erst auf?

Diskriminierende Algorithmen

Bildquelle: unsplash.com

Algorithmische Voreingenommenheit, Englisch Algorithmic Bias, trifft schon heute Entscheidungen, die unser aller Leben beeinflussen. Das Problem? Diese Entscheidungen sind weder transparent noch fallen die teils diskriminierenden Entscheidungen auf. So kam es in den USA zu einem Aufschrei, als Folgendes passierte: Eine Software, die Richter*innen unterstützen sollte, benachteiligte konsequent People of Color, indem sie ihnen eine höhere Rückfallrate zurechnete. Wenn Richter*innen nun entscheiden müssen, ob ein Häftling vorzeitig entlassen werden soll, schauen sie sich die Rückfallrate an, welche eben diese Software ausrechnet. Dass die Software schwarze Menschen diskriminierte, fiel vorerst gar nicht auf. Ein anderer Fall: Die Software einer neuseeländischen Passkontrolle verweigerte die Anerkennung asiatischer Pässe. Der Algorithmus forderte die Reisenden auf, die Augen zu öffnen.

Diskriminierende Algorithmen

Dabei ist es nicht der maschinelle Vorgang, der diskriminiert, sondern die Daten, die zur Verfügung gestellt werden. Aufgrund von Fallbeispielen aus der Praxis entstehen Ungerechtigkeiten. So ordnet zum Beispiel eine Übersetzungssoftware akademischen Berufen einen männlichen Artikel und Ausbildungsberufen einen weiblichen zu. Dass Frauen oft weniger verdienen und seltener in Führungspositionen vertreten sind, ist ein strukturelles Problem. Die Software entscheidet dabei lediglich mithilfe der vorliegenden Daten. Andererseits sind die Datensätze mittlerweile so groß, dass vorab gar nicht zu erkennen ist, welcher Output daraus entsteht. Fehlerhafte Mechanismen können so erst im Nachhinein erkannt werden und das auch nur, wenn die Entwickler*innen ihre Ergebnisse infrage stellen. 

Big Data und das Internet of Things

Internet of Things (IoT) bezeichnet die Vernetzung von Gegenständen in Netzwerke. Durch die Integration der Gegenstände ins Internet können diese kontrolliert und gleichzeitig die unendliche Informationsressource des Internets genutzt werden. Es entstehen „smarte“ Geräte. Der smarte Kühlschrank, der den aktuellen Wetterbericht anzeigt. Die smarte Uhr, mit der man durch Apps auf Millionen von Informationen zurückgreifen kann. Mittlerweile sprechen wir von „smart homes“ oder gar „smart cities“. Alles vernetzt sich, die Grenze der realen und virtuellen Welt verschmilzt und überall werden Daten gesammelt.

Diskriminierende Algorithmen

Google Home verknüpft und vernetzt das Eigenheim. Bildquelle: unsplash.com

Die Big Data-Algorithmen orientieren sich nicht mehr an einer Aufgabe, sondern ziehen möglichst viele Zusammenhänge hinzu, um zu einem individualisierten Schluss zu gelangen. Das können zum Beispiel Preisangebote auf Amazon sein, die sich nach eurem Einkommen richten. Oder der Algorithmus dient als Grundlage, ob ihr einen Kredit erhaltet und zu welchen Konditionen. Es kann aber auch die Versicherung sein, die euch aufgrund eurer Fitnessdaten Rabatt gewährt oder ein Bewerbungsgespräch zu dem ihr, aufgrund eurer Daten, nicht eingeladen werdet. So geschehen, als ein Computersystem einer Firma in den USA herausfand, dass Bewerber*innen, die näher am Firmensitz wohnen, deutlich länger im Unternehmen verbleiben. Somit erhielten Bewerber*innen aus den Außenbezirken keine Einladung mehr zu Gesprächen. Da jedoch meist Schwarze in den Außenbezirken wohnten, wurden diese benachteiligt, obwohl die Software keine Informationen zur Hautfarbe hatte. 

Klassifikationen als Entscheidungsgrundlage

Ein zentrales Merkmal der algorithmischen Entscheidungen ist die Klassifizierung der Daten in bestimmte Gruppen. Durch die immer leistungsfähigeren Computern und den immer größeren Daten ist die Methode heute um einiges differenzierter als noch vor 20 Jahren. Das ändert aber nichts an der Tatsache, dass Entscheidungen aufgrund von Klassifikationen getroffen werden. Reichte es in den USA in der Vergangenheit schon aus in einem Wohnort zu leben, der bei den Banken eine schlechte Bonitätsnote aufwies, ziehen die Banken heute Daten wie Wohnort, Alter, Geschlecht, Anzahl der Handyvertäge, Bankkonten und Dauer des Arbeitsverhältnisses hinzu, um über die Kreditwürdigkeit zu entscheiden. Kritisch wird es, wenn diese Klassifikationen diskriminierende Folgen haben und aufgrund von datenbasierten Wahrscheinlichkeiten einzelne Menschen oder sogar ganze Personengruppen benachteiligt werden.

Diskriminierende Algorithmen

Bildquelle: unsplah.com

Wir brauchen mehr Transparenz

Nach welchen Kriterien und aufgrund welcher Daten entscheiden Algorithmen über unser alltägliches Leben? Unternehmen wie Google berufen sich auf das Betriebsgeheimnis und verbleiben stumm. Doch der Druck nach einer prüfenden Instanz wird größer. So fordert Klaus Müller, Vorstand des Verbraucherzentrale Bundesverbands, einen Algorithmus-TÜV, wenn es um wichtige Dinge geht. Er nannte Online-Angebote zu Versicherungstarifen oder Studienplätzen als Beispiele. Dieser TÜV ist noch lange nicht Realität und wie er funktionieren soll, steht ebenfalls in den Sternen. Aber es bilden sich mittlerweile Stimmen und Initiativen, wie die gemeinnützige Organisation Algorithm Watch, die auf diskriminierende datenbasierte Entscheidungen aufmerksam machen.

Share

2 Pings & Trackbacks

  1. Pingback: Die totale Überwachung - was ist dran?

  2. Pingback: Kolumne: Warum Instagram nervt und was man dagegen tun kann

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Die Checkbox für die Zustimmung zur Speicherung ist nach DSGVO zwingend.

Ich stimme zu.