sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Der spannende Beitrag bei Wired hinterfragt scheinbar logisch klingende und einfache Weisheiten, wenn es darum geht, künstliche Intelligenzen (KI) zu kontrollieren. Er konstruiert einen Anwendungsfall, bei dem es darum geht, dass eine KI eine medizinische Diagnose abgibt, infolgedessen der Patient ein Medikament mit etlichen Nebenwirkungen einnehmen muss. In der ersten Szenerie belässt es der behandelnde Doktor bei dem Hinweis auf die KI, in der zweiten Szenerie erklärt der Doktor, wie die KI zu der Entscheidung gekommen ist.
"Let people look inside the black box of the algorithm, the thinking goes, and their mistrust, hostility, and fear will gradually melt away."
So einfach ist es aber nicht. Der Autor des Beitrags zeigt an einem konkreten Beispiel der von Assistent zu Assistent variierenden Zensuren bei gleichen Prüfungsaufgaben an der Stanford University, wie Misstrauen gegenüber menschlichen Entscheidungen entstehen kann und sogar noch weiter ansteigt, wenn eine KI die menschliche Verzerrung ausgleichen soll. Das zugrundeliegende Experiment an der Universität wurde in den letzten Jahren noch weiter ausgebaut. Die Forscher kamen zu dem Ergebnis, dass Transparenz über den Mechanismus einer KI nur dann hilft, Vertrauen in die Maschine zu bekommen, wenn die Erwartungen bezüglich des Outcomes der Maschine den tatsächlichen Resultaten entsprechen und ein mittleres Kenntnisniveau über die KI vorliegt. Die ungünstigste Kombination ist mangelnde Transparenz und ein gänzlich unerwartetes Ergebnis. Aber auch die komplette Kenntnis des KI-Mechanismus verstärkte im Experiment wider Erwarten das Misstrauen. Die Erklärung dieses scheinbaren Widerspruchs kommt aus der Anthropologie:
"For human beings, then, there is such a thing as the “right” amount of transparency—not too little, not too much. …. the same applies to algorithms."
Wir müssen also aufhören, KIs zu vermenschlichen, wenn wir Vertrauen in sie aufbauen wollen - oder aufhören zu intensiv nachzufragen.
Quelle: Kartik Hosanagar Bild: Illustriert von S... EN wired.com
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Ein spannender piq mit einer auf den ersten Blick erstaunlichen Botschaft. Danke!