sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Fundstücke
In Hohenlimburg geboren und in Berlin lebend. Recherchen in knapp vierzig Ländern für Feature-Redaktionen des Deutschlandfunks, verschiedener ARD-Sender sowie u.a. auch DIE ZEIT und FAS, einige Auszeichnungen, Bücher zu den Themen MENSCHENWERTBERECHNUNG, DEMENZ und HEIMAT, zuletzt vorwiegend Theaterstücke mit Uraufführungen an den Staatstheatern Karlsruhe, Nürnberg und Weimar.
In der FAZ schreibt Manuela Lenzen – leider hinter der Bezahlschranke – über den Schaden, den grundsätzlich unzureichende Künstliche Intelligenz in sozialen Lebensbereichen anrichtet.
Zu Unrecht gestrichene Sozialleistungen, unberechtigte Anklagen wegen Sozialbetrug, falsch berechnete Examensnoten, Diskriminierung bei der Auswahl von Bewerbern: Auf den Websites von Nichtregierungsorganisationen wie Algorithmwatch kann man die Sammlung solcher Fälle wachsen sehen.
Lenzen beruft sich dabei vor allem auf Frederike Kaltheuner, Expertin für Technologiepolitik und ehemalige Direktorin des philanthropischen European AI Fund, heute Leiterin der globalen Abteilung für neue Technologien und Menschenrechte bei Human Rights Watch und Herausgeberin des Sammelbands „Fake AI“ (Meatspace Press 2021). Grundsätzlich, so der Tenor, werde die Künstliche Intelligenz selbst in der Wissenschaft völlig überschätzt, wenn es darum gehen soll, das Innere eines Menschen an seinem Äußeren abzulesen. Kaltheuner sieht darin die Wiederauferstehung eines biologischen Determinismus. Das Problem: Die überforderten KI-Systeme werden immer relevanter und wirken auf ebenfalls überforderte menschliche Entscheider vor allem deswegen attraktiv, weil sie Fortschrittlichkeit, Objektivität und Wissenschaftlichkeit suggerieren, dabei aber – zugespitzt gesagt – letztlich Reiche vor allem reicher und Marginalisierte noch unsichtbarer machen.
Warum versucht man überhaupt, komplexe soziale Probleme mit Algorithmen zu lösen? Hier werden zumeist Kosten- und Zeitdruck ins Feld geführt. Arvind Narayanan, Associate Professor für Informatik in Princeton, hat noch eine andere Erklärung: Es könnte daran liegen, dass Menschen Unsicherheit nicht ertragen.
Lesenswert.
Quelle: Manuela Lenzen Bild: iStock / Bearbei... Artikel kostenpflichtig www.faz.net
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.