sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Technologie und Gesellschaft Medien und Gesellschaft Klima und Wandel
Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.
Die Spiegel-Titelstory des aktuellen Hefts beschäftigt sich mit der Irrealität geschaffen mit KI-Bildgeneratoren wie Midjourney oder Dall-E und bietet einen guten Überblick über die Debatten der vergangenen Monate.
Unter anderem zu Wort kommt in dem Stück auch Boris Elgadsen, der mit seinem synthetisch generierten Bild "The Electrician" im April bei den renommierten Sony World Photography Awards in der "creative open"-Kategorie gewann. Diese Kategorie war schon immer offen für experimentelle Ansätze und Post-Photography, dennoch sorgte der Fall für internationale Aufmerksamkeit, grade auch weil Jason M. Allens KI-erzeugtes Bild "Théâtre D’opéra Spatial" noch frisch in Erinnerung lag, mit dem er bei einem Kunstwettbewerb einen Preis gewann und damit die noch junge Debatte über das Verhältnis von Kunst und Bildsynthese anfeuerte.
In der Spiegel-Story geht es diesmal allerdings weniger um das Wesen der Kunst in Zeiten stilistischer Interpolierbarkeit, sondern um die Auswirkungen einer Technologie, die mit wenigen Klicks realistische Bilder von praktisch allem erzeugen kann, auf unsere Wahrnehmung von Realität und auf die gesellschaftliche Konsensfähigkeit. Doch diese Debatte ist alles andere als neu, schon Stalin nutzte bekanntermaßen Bildmanipulationstechniken zur Erzeugung alternativer Realitäten und spätestens mit der Demokratisierung dieser ehemals Retusche-Profis vorbehaltenen Techniken durch Software wie Photoshop ist den allermeisten Menschen eigentlich bewusst, dass Bildern per se nicht getraut werden kann.
Das Problem der Bildgeneratoren liegt nicht einfach darin, dass sie alternative Realitäten abbilden können, das können Menschen schon sehr lange, sondern dass sie diese Techniken demokratisieren und allen zugänglich machen, auch Bad Actors. Und so nutzten natürlich zuerst rechte Politiker KI-Bildsynthese für ihre Wahlkämpfe – auch hierzulande durch die AfD.
Ich persönlich denke einerseits, dass das Problem überschätzt wird. Wir leben schon lange, grade in den sozialen Medien, mit dem Bewusstsein, dass Bilder gefälscht werden, und "this is shooped, i can tell by the pixels" ist seit Langem eine gängige Phrase im Internet. Der tatsächliche Einfluss von Desinformation ist nach wie vor umstritten, Studien finden keinen wirklichen Impact von russischen Desinformationskampagnen oder Social Bots, andere Papers zeigen wiederum, wie Desinformation im Zuge der Covid-Pandemie eine Atmosphäre der Angst und Unsicherheit erzeugten. Vor allem der letzte Punkt bereitet angesichts der Möglichkeiten von KI-Bildsynthese Anlass zur Sorge, denn fotorealistische Bilder aus alternativen Realitäten sind etwas anderes als gezeichnete Propaganda-Illustrationen, wie sie aus der Geschichte massenhaft bekannt sind.
Die Titelstory des Spiegels befasst sich aber nicht nur mit den neuen Möglichkeiten KI-gestützter Bildmanipulation, sondern auch mit den vom Philosophen Daniel Dennett sogenannten "Counterfeit People", also mimetischen KI-Systemen, die echte Menschen imitieren. Hinter diesem etwas spröden Begriff stecken Systeme, die etwa nonkonsensualen Deepfake-Porn mit den Gesichtern echter Menschen produzieren können oder Stimmen täuschend echt nachmachen und damit Betrügern und Kriminellen ein neues Spielfeld eröffnen oder auch gleich die ganze Persönlichkeit und Redeweise eines Menschen in einem Chatbot imitieren können – in meinen Augen ist dies das größte Problem dieser neuen Technik in unserer digital ermöglichten Post-Truth-Welt.
Denn mit fiktiven, realistischen Bildwelten leben wir allerspätestens seit der Erfindung der Fotografie, und erst Recht seit der Erfindung des Kinos. Mit fiktiven Menschen allerdings nicht, die einen realen Einfluss auf unsere Psychologie haben, da wir ihnen ganz automatisch menschliche Autonomie und Kognition zuschreiben. So fand eine Studie jüngst heraus, dass Menschen, die in Kooperation mit AI-Systemen Texte verfassen, von diesen in ihrem Meinungen beeinflusst werden können, was unsere Meinungen gleichzeitig anfällig macht für subtile Attacken durch Prompt-Hacking, die wir im Zweifelsfall gar nicht bemerken.
Es ist genau diese neue Anfälligkeit für Hacking, eben nicht für technische Systeme, sondern für unsere Psyche, unsere Haltungen, unser Denken, die mich nach anfänglichem KI-Enthusiasmus sehr vorsichtig werden lässt. Wenn mimetische Systeme menschliches Verhalten täuschend echt simulieren und wir als Menschen gar nicht anders können, als diesen offensichtlich synthetischen Systemen menschlich-kognitive Eigenschaften zuzuschreiben und sie damit zu einem echten sozialen Actor in unserem Denken zu machen, auch wenn sie eigentlich nur Interpolationen zwischen Datenpunkten in einer riesigen Datenbank darstellen, dann eröffnen diese Systeme einen neuen Angriffsvektor für die Manipulation unseres Verhaltens. (Und da habe ich von Selbstradikalisierungsmöglichkeiten durch feinabgestimmte Open-Source-Sprachmodelle noch gar nicht angefangen.)
Der Artikel im Spiegel bietet einen gelungenen Einstieg in diese ganzen Dimensionen der neuen AI-Post-Truth, in der die Grenzen der Realität verschwimmen und wir unserer Wahrnehmung im digitalen Raum niemals sicher sein können.
Quelle: Torsten Kleinz, Marcel Rosenbach, Anton Rainer, Max Hoppenstedt, Patrick Beuth, Alexander Demling, DER SPIEGEL Bild: DER SPIEGEL / Mid... Artikel kostenpflichtig www.spiegel.de
Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.