Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Feminismen

Wie Sexismus und Rassismus in Algorithmen fortleben

Theresia Enzensberger
Journalistin und Herausgeberin des BLOCK Magazins
Zum User-Profil
Theresia EnzensbergerSonntag, 26.06.2016

Anstatt uns Sorgen darum zu machen, dass Maschinen irgendwann intelligenter sein könnten als Menschen, sollten wir uns mit den Problemen beschäftigen, die künstliche Intelligenz heute schon hat, sagt Kate Crawford. 

Es ist wie mit allen technologischen Neuerungen: Das Problem ist nicht, dass sie eine neue Gesellschaftsordnung einläuten, sondern dass sie bestehende gesellschaftliche Probleme reproduzieren oder verschärfen – Sexismus und Rassismus, zum Beispiel. 

Die Algorithmen - die „Intelligenz" der digitalen Welt - entscheiden aufgrund der Daten, mit denen sie gefüttert werden. Wenn diese Daten durch die schiere Verteilung eine Norm suggerieren (eine weiße, heterosexuelle, männliche Norm), kann das schwerwiegende Konsequenzen haben:

"A very serious example was revealed in an investigation published last month by ProPublica. It found that widely used software that assessed the risk of recidivism in criminals was twice as likely to mistakenly flag black defendants as being at a higher risk of committing future crimes. It was also twice as likely to incorrectly flag white defendants as low risk."

Crawford ist vorsichtig, wenn es darum geht, die Gründe für diese Missverhältnisse zu analysieren. Mangelnde Transparenz ist Usus in der kommerziellen Tech-Branche. Ich finde es nicht schwierig, mir vorzustellen, dass das Problem bei der (mangelnden) Vielfalt in den Firmen liegen könnte, die diese Programme entwerfen. Den Schritt geht Crawford nicht, aber immerhin weist sie darauf hin, wie wichtig es ist, dass die Mechanismen beim Entwurf der Algorithmen offengelegt werden.  

Wie Sexismus und Rassismus in Algorithmen fortleben

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 1
  1. Daniel Schreiber
    Daniel Schreiber · vor mehr als 8 Jahre

    Total wichtiges Thema, no? Danke für die Empfehlung, Theresia.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.