sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Mads Pankow, Jahrgang 1985, ist Herausgeber der Zeitschrift für Gegenwartskultur DIE EPILOG und Berater bei der ZENTRALE INTELLIGENZ AGENTUR. Einmal im Jahr veranstaltet er das DIGITAL BAUHAUS, eine Konferenz für politisches Design in Weimar. Er hat in Marburg, Malmö und Weimar Medien- und Organisationswissenschaft studiert und sich auf Technikphilosophische und -soziologische Fragen spezialisiert. Er lebt in Berlin und Weimar.
Oren Etizioni, der Chef des Allen Institute for Artificial Intelligence ist sichtlich genervt vom Hype um den schwedischen Philosophen Nick Bostrom. Bostrom machte mit seinem Buch „Superintelligenz — Szenarien einer kommenden Revolution“ die große Runde durchs internationale Feuilleton und schürte dort Ängste vor einer übermächtigen Künstlichen Intelligenz, die sich gegen ihre Erschaffer wenden könnte.
Schon die Grundlage von Bostroms Argumentation stößt Etizioni auf. Dessen Auswertung verschiedener Umfragen zum Thema künstliche Intelligenz hält er methodisch für grenzwillkürlich. Bostroms Pointe: 10% der Befragten rechneten mit einer künstlichen Intelligenz bis 2022, 50% bis 2040 und 90% bis 2075.
Etizioni startet im März 2016 selbst eine Umfrage unter den Mitgliedern der American Association for Artificial Intelligence. Sein Ergebnis: Kein einziger der 80 KI-Forscher rechnet in den nächsten 10 Jahren mit einer künstlichen Superintelligenz, nur 7,5% erwarten eine solche in den nächsten 25 Jahren, weitere 67,5% irgendwann in ferner Zukunft. 25% glauben gar überhaupt nicht, dass Computer den Menschen jemals überholen werden.
Damit liegt die Künstliche Intelligenz für 92,5% der Forscher weit jenseits absehbarer Zeithorizonte.
Etizionis Artikel im MIT Technology Review provozierte umgehend eine Antwort der Professoren Allan Dafoe and Stuart Russell, von denen einer selbst an dessen Umfrage teilgenommen hatte. Dafoe und Russel argumentieren, dass Bostroms Warnung vor gefährlichen automatischen Systemen mit Etizionis Umfrage nicht wiederlegt sei.
Die Gefahr ginge nicht von künstlichen Superintelligenzen aus, sondern von den unvorhersehbaren und möglicherweise unumkehrbaren Folgen eines einmal eingeleiteten Optimierungsprozesses in Computersystemen. Dieses von Norbert Wiener 1960 formulierte Problem braucht keine KI, es braucht nur Maschinen, die sich mit ihrem Auftrag verselbstständigen und sich gegen Menschen wenden, die der Prozessoptimierung im Weg stehen könnten.
Quelle: Oren Etzioni Bild: MIT Technology Re... EN technologyreview.com
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.