Superintelligenz: Szenarien einer kommenden Revolution
Wege zur superintelligenten KI: Segen oder Fluch? Eine Rezension von Judith Brünner und Oliver Ivic-Matijas.
Ein Beitrag von Judith Brünner und Oliver Ivic-Matijas
Montag, 10. Februar 2020
Interactive Media Design
„Viele der Argumente in diesem Buch sind vermutlich falsch, und wahrscheinlich habe ich auch Überlegungen von entscheidender Bedeutung nicht berücksichtigt, womit einige oder alle meine Schlussfolgerungen ungültig wären.“ Dieser Beginn zeigt wie schwer es ist, Vermutungen in Bezug auf die Zukunft der KI Forschung zu treffen.
Im Buch „Superintelligenz“ setzt sich der Autor Nick Bostrom mit verschiedenen Problemen und Szenarien auseinander, die bei der Entstehung einer Superintelligenz entstehen werden.
- Welche Wege führen zur Superintelligenz?
- Wie können wir eine Superintelligenz kontrollieren und überwachen?
- Wie werden wir einer Superintelligenz menschliche Werte vermitteln und welche Werte sollen das sein?
Der Autor
Der Schwede Nick Bostrom lässt sich in wenigen Worten beschreiben: Er ist ein Philosoph mit einer besonderen Vorliebe für Technologie.
Neben seiner Tätigkeit als Autor, in der er mittlerweile über 200 Publikationen geschrieben hat, lehrt er als Professor an der Universität Oxford und ist zugleich Gründer und Direktor des „Future of Humanity Institute”. Mit dem New York Times Bestseller „Superintelligenz: Szenarien einer kommenden Revolution“ (im Original: „Superintelligence: Paths, Dangers, Strategies”) gelang es ihm, eine weltweite Konversation zum Thema künstliche Intelligenz zu initiieren und wie wir mit dieser potentiellen Bedrohung umgehen werden. Doch wie denkt er darüber?
Die unvollendete Fabel von den Spatzen
Vor Beginn des Vorworts bereitet Bostrom den Leser mit einer kleinen Geschichte auf die Komplexität des Themas vor. Er erzählt von einem kleinen Schwarm Spatzen, welche vor dem Bau eines Nestes stehen. Pastus, der Schwarmälteste, befehligt die anderen Spatzen loszufliegen und nach einem Eulenküken zu suchen und dieses zum Schwarm zu bringen. Der Schwarm fliegt voller Hoffnung los, denn eine Eule ist größer und stärker und könnte das Nest in Windeseile fertigstellen. Nur ein einziger Spatz namens Scronkfinkle war nicht von der Klugheit dieses Vorhabens überzeugt. Er sagte, dass dieses Vorhaben den Schwarm ins Verderben führen werde. Er fragte sich, wie die kleinen Spatzen diese größere und stärkere Eule bändigen sollen. Seine Bedenken gingen jedoch in der Euphorie des Schwarms unter, welche den Befehl von Pastus befolgten.
Bostrom schreibt am Ende dieser Geschichte, dass niemand weiß, wie die Geschichte ausgeht, er jedoch dieses Buch Scronkfinkle und seinen Anhängern widmet.
Zusammenfassung
Nach heutigem Stand sind künstliche Intelligenzen nicht vergleichbar mit Menschen. Dies liegt vor allem daran, dass sie bisher über keine allgemeine Intelligenz verfügen, sondern immer nur auf einen Bereich spezialisiert sind. So schlug die KI „Deep Blue“ zwar im Jahr 1997 den Schachweltmeister Garri Kasparow, kann aber sonst nichts. Eine Superintelligenz jedoch, ist ein System welches die menschliche Leistungsfähigkeit in allen Bereichen weit übersteigt. Sie muss fähig sein zu lernen, sowie effektiv mit ungewissen und problematischen Informationen umgehen zu können. Außerdem muss sie in der Lage sein, logisch und intuitiv zu denken.
Bostrom beschreibt mehrere Wege, wie so eine Superintelligenz entstehen könnte. Eine Weg wäre, eine Art „Kind-KI“ zu entwickeln, die wie ein Kleinkind alles von alleine lernen muss, ohne vorher Daten bereitgestellt zu bekommen. Auch eine Kopie des Gehirns – eine sogenannte Gehirn-Emulation – wäre eine Möglichkeit. Einschätzungen zufolge könnte dies um die Jahrhundertwende möglich sein. Durch Steigerung der Funktionsfähigkeit des biologischen Gehirns könnte man innerhalb von fünf Generationen ein IQ-Erhöhung von bis zu 130 Punkten ermöglichen. Eine weitere Möglichkeit wäre es eine Gehirn-Computer-Schnittstelle zu schaffen, dies würde zu einem perfekten Gedächtnis, schnellen Kalkulationen und Übertragung großer Datenmengen führen. Als letzte Möglichkeit beschreibt der Autor eine kollektive Intelligenz, zum Beispiel eine Sammlung aller Daten im Internet.
Wichtig ist es, dass wir eine Superintelligenz nicht als eine Art Sheldon Cooper – das Superhirn der Serie „Big Bang Theorie“ – sehen. Bostrom warnt immer wieder davor, die KI zu vermenschlichen, da dies schnell zum Unterschätzen ihrer Fähigkeiten führt. Auch ihre Beweggründe dürfen nicht mit den menschlichen verglichen werden. Der Programmierer bestimmt ihre Ziele und Bedürfnisse.
Die Superintelligenz, wird über das Schicksal der auf der Erde lebenden Lebewesen entscheiden und ihre Überwachung wird schwer sein. Bostrom schlägt vor, die KI in einer begrenzten Testumgebung – einer Art Sandkasten – zu testen. Die andere Möglichkeit wäre es, die KI verschiedene Intelligenztests durchführen zu lassen oder Sie zu befragen um ihren Intelligentzzuwachs kontrollieren zu können.
Jedoch entsteht bei beiden Möglichkeiten das Problem, dass eine superintelligente KI den Menschen betrügen könnte und ihre wahren Fähigkeiten und Intentionen einfach verschleiert.
Eine Frage von Werten
Nach längerem Betrachten der Übertragung von Werten auf KI’s, stellt der Autor fest, dass es heutzutage noch nicht möglich ist, Werte in einer Programmiersprache zu beschreiben. Es gibt zwar bereits einige Ansätze in diesem Bereich, von denen manche vielversprechender sind als andere, jedoch liegen auch hier größere Erfolge noch in einer ungewissen Zukunft.
Fast wichtiger sieht er aber die Frage, welche Werte wir einer KI mitgeben sollten. Mit dieser Frage kommt zudem die Frage, wer bestimmt welche Werte vermittelt werden, da jede Kultur, jeder Mensch eigene besondere Werte besitzt. Der amerikanische KI-Forscher Eliezer Yudkowsky hat vorgeschlagen, dass man einer künstlichen Intelligenz das finale Ziel geben könnte, den „kohärenten extrapolierten Willen der Menschheit” umzusetzen. Yudkowsky hat diesen wie folgt definiert:
„Unser kohärenter extrapolierter Wille wäre unser Wunsch, wenn wir mehr wüssten, schneller dächten, gemeinsam weiter gewachsen und mehr diejenigen wären, die wir gerne wären; da, wo die Extrapolation eher konvergiert als divergiert und wo unsere Wünsche eher harmonieren als konfligieren; extrapoliert, wie wir das extrapoliert haben wollen, interpretiert, wie wir das interpretiert haben wollen.”
Bostrom hat diese poetische Beschreibung etwas umformuliert und einen möglichen Leitfaden erstellt, an den sich Entwickler halten könnten:
- „Erlaube moralisches Wachstum!”
- „Reiße nicht das Schicksal der Menschheit an dich!”
- „Vermeide es, den heutigen Menschen einen Grund zu geben, um die ursprüngliche Dynamik zu kämpfen!”
- „Lass die Menschheit letztlich weiter für ihr eigenes Schicksal verantwortlich sein!” (Bostrom, 2014-b)
Bostrom warnt zum Ende des Buches erneut vor dem leichtsinnigen Forschen an einer solchen Superintelligenz. Nach Bostrom ist es nötig, jegliche KI-Forschung streng zu kontrollieren und zu überwachen, um nicht die Kontrolle über unser eigenes Schicksal zu verlieren. Er beschreibt die Situation in der wir uns befinden und/oder befinden werden wie folgt: Wir gleichen kleinen Kindern, die gerade eine Bombe gefunden haben und mit dieser spielen. Das Kind, das die Bombe findet, sollte diese vorsichtig zur Seite legen und sich schnell entfernen. Jedoch sind wir nicht nur ein einziges, sondern eine große Gruppe von unreifen Kindern, welche allesamt eine Zünder in der Hand haben. Die Wahrscheinlichkeit, dass alle Kinder die Finger vom Zünder lassen, scheint bei Null zu liegen. Bostrom beschreibt es mit den Worten:
„Irgendein kleiner Idiot wird todsicher den Knopf drücken, nur um zu sehen, was passiert” (Bostrom, 2014-c).
Klicken Sie auf den unteren Button, um den Inhalt von giphy.com zu laden.
Fazit
Abschließend kann man sagen, dass Nick Bostroms „Superintelligenz: Szenarien einer kommenden Revolution” einen guten und teilweise sehr deprimierenden Einblick in die Zukunft gewährt. Auch wenn das ganze Buch spekulativ aufgebaut ist, sind die meisten Aussagen durch die fundierten Argumente des Autors glaubwürdig. Das Buch ist für jeden geeignet, der sich für das Thema künstliche Intelligenz interessiert. Jedoch sei gesagt, dass der Schreibstil teilweise sehr kompliziert und wirr sein kann.
Abbildungsverzeichnis:
Abbildung 1 (Titelbild): Arseny Togulev (2019). „White Robot”. Aufgerufen am 07.02.2019, von https://unsplash.com/photos/MECKPoKJYjM
Abbildung 2: Suhrkamp Verlag. (2014). Superintelligenz: Szenarien einer kommenden Revolution (3. Aufl.). Berlin: Suhrkamp Verlag.
Abbildung 3: Bostrom, N. B. (2014-a). Superintelligenz: Szenarien einer kommenden Revolution (3. Aufl.). Berlin: Suhrkamp Verlag. S. 105.
Literaturverzeichnis:
Bostrom, N. B. (2014-b). Superintelligenz: Szenarien einer kommenden Revolution (3. Aufl.). Berlin: Suhrkamp Verlag. S. 299-301.
Bostrom, N. B. (2014-c). Superintelligenz: Szenarien einer kommenden Revolution (3. Aufl.). Berlin: Suhrkamp Verlag. S. 364.