Hilfe Warenkorb Konto Anmelden
 
 
   Schnellsuche   
     zur Expertensuche                      
Superintelligenz - Szenarien einer kommenden Revolution
  Großes Bild
 
Superintelligenz - Szenarien einer kommenden Revolution
von: Nick Bostrom
Suhrkamp, 2014
ISBN: 9783518739006
600 Seiten, Download: 6176 KB
 
Format: EPUB
geeignet für: geeignet für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Apple iPod touch, iPhone und Android Smartphones Online-Lesen PC, MAC, Laptop

Typ: A (einfacher Zugriff)

 

 
eBook anfordern
Leseprobe

2.?Wege zur Superintelligenz


 

 

 

 

Maschinen sind dem Menschen in puncto allgemeiner Intelligenz noch weit unterlegen – doch eines Tages (so haben wir argumentiert) werden sie superintelligent sein. Wie wird es dazu kommen? Dieses Kapitel geht mehreren denkbaren Wegen nach. Dazu sehen wir uns zunächst verschiedene Technologien an: Künstliche Intelligenz, Gehirnemulation, biologische Kognition, Mensch-Maschine-Schnittstellen sowie Netzwerke und Organisationen. Dann bestimmen wir, wie wahrscheinlich es ist, dass sie jeweils zur Superintelligenz führen werden. Das Vorhandensein mehrerer Wege erhöht die Wahrscheinlichkeit, dass zumindest einer zum Ziel führt.

 

Definieren wir eine Superintelligenz vorläufig als einen Intellekt, der die menschliche kognitive Leistungsfähigkeit in nahezu allen Bereichen weit übersteigt.1 Im nächsten Kapitel werden wir mehr dazu sagen und den Begriff einer Art »Spektralanalyse« unterziehen, um verschiedene Formen der Superintelligenz voneinander abzugrenzen, aber für den Moment wird diese grobe Charakterisierung genügen. Wichtig ist, dass die Definition nichts darüber sagt, auf welche Weise die Superintelligenz realisiert wird. Auch in Bezug auf Qualia legt sie sich nicht fest: Ob eine Superintelligenz subjektive bewusste Erfahrungen macht, mag für manche Fragen sehr wichtig sein (insbesondere für einige moralische Fragen), aber unser Augenmerk liegt auf den Ursachen und Wirkungen der Superintelligenz und nicht auf der Metaphysik des Geistes.2

Das Schachprogramm Deep Fritz ist dieser Definition nach keine Superintelligenz, weil es nur im Schachspiel herausragt; bestimmte Arten von bereichsspezifischen Superintelligenzen könnten jedoch von Bedeutung sein. Ist die Superintelligenz auf einen bestimmten Bereich beschränkt, werden wir das explizit erwähnen – zum Beispiel wäre eine »Ingenieurs-Superintelligenz« ein Intellekt, der die besten menschlichen Ingenieure bei weitem übertrifft. Im Allgemeinen reservieren wir den Begriff aber für Systeme, die über allgemeine Intelligenz im Übermaß verfügen.42

Aber wie lässt sich eine solche Superintelligenz erschaffen? Betrachten wir einige Möglichkeiten.

Künstliche Intelligenz


Der Leser darf an dieser Stelle keine Blaupause für die Programmierung einer künstlichen allgemeinen Intelligenz erwarten – und natürlich gibt es bisher auch keine. Aber selbst wenn ich im Besitz einer solchen Blaupause wäre, würde ich sie ganz sicher nicht publik machen. (Falls die Gründe dafür nicht bereits offensichtlich sind, werden sie in den folgenden Kapiteln klar werden.)

Einige allgemeine Merkmale des erforderlichen Systems lassen sich aber angeben. Es scheint heute klar zu sein, dass die Fähigkeit zu lernen ein integraler Bestandteil des Systems sein muss und nicht nachträglich hinzugefügt werden darf. Das Gleiche gilt für die Fähigkeit, effektiv mit Ungewissheit und probabilistischen Informationen umzugehen. Das Vermögen, auf irgendeine Weise nützliche Begriffe aus Sinnesdaten und internen Zuständen zu gewinnen und diese Begriffe in flexiblen kombinatorischen Darstellungen zum logischen und intuitiven Denken zu nutzen, gehört vermutlich ebenfalls zu den Hauptbestandteilen einer solchen Proto-KI.

Die frühen GOFAI-Systeme beschäftigten sich selten mit Lernen, Ungewissheit oder Begriffsbildung, vielleicht deshalb, weil die dafür nötigen Methoden zu jener Zeit noch kaum entwickelt waren. Das soll aber nicht heißen, dass die zugrundeliegenden Ideen besonders neu wären. Die Idee, ein einfacheres System mittels Lernen auf das Niveau menschlicher Intelligenz zu hieven, lässt sich mindestens bis zu Alan Turings Idee einer »Kind-Maschine« zurückverfolgen, über die er 1950 schrieb:

 

Warum sollte man nicht versuchen, statt ein Programm zur Nachahmung des Verstandes eines Erwachsenen eines zur Nachahmung des Verstandes eines Kindes herzustellen? Unterzöge man dieses dann einem geeigneten Erziehungsprozeß, erhielte man den Verstand eines Erwachsenen.3

 

Turing stellte sich das als iterativen Prozess vor:

 

Wir können nicht erwarten, auf Anhieb eine gute Kind-Maschine zu finden. Man muß mit einer solchen Maschine Lehrexperimente durchführen, um festzustellen, wie gut sie lernt. Man kann es dann mit einer anderen ver43suchen und sehen, ob sie besser oder schlechter lernt. Es besteht ein offensichtlicher Zusammenhang zwischen diesem Prozeß und dem Entwicklungsprozeß […]. Man darf jedoch hoffen, daß dieser Prozeß schneller vor sich geht als der Entwicklungsprozeß. Das Überleben des Tüchtigsten ist eine langsame Methode zum Messen von Vorteilen. Der Experimentator sollte durch seine Intelligenz in der Lage sein, den Prozeß zu beschleunigen. Ebenso wichtig ist die Tatsache, daß er nicht auf zufällige Mutationen angewiesen ist. Wenn er den Grund für irgendeine Schwäche feststellen kann, so kann er sich wahrscheinlich auch die Mutationsart vorstellen, die ihr abhilft.4

 

Wir wissen, dass blinde Evolutionsprozesse allgemeine Intelligenz auf menschlichem Niveau erzeugen können, da sie das schon mindestens einmal getan haben. Weitsichtige Evolutionsprozesse – das heißt genetische Programme, die von einem intelligenten menschlichen Programmierer entwickelt und gesteuert werden – sollten auf weit effektivere Weise zu ähnlichen Ergebnissen kommen. Dieser Gedanke wurde von einigen Philosophen und Wissenschaftlern, darunter David Chalmers und Hans Moravec, dafür ins Feld geführt, dass eine starke KI (also eine KI auf menschlichem Niveau) nicht nur theoretisch möglich, sondern sogar noch in diesem Jahrhundert realisierbar ist.5 Die Idee dabei ist folgende: Wenn wir die Fähigkeit der Evolution, Intelligenz hervorzubringen, mit derjenigen der KI-Forscher vergleichen, stellt sich heraus, dass die menschliche Technik ihr in einigen Hinsichten bereits weit überlegen ist und es in den übrigen wohl bald sein wird. Die Tatsache, dass die Evolution Intelligenz hervorbrachte, spricht daher dafür, dass wir in Kürze in der Lage sein werden, das Gleiche zu tun. Dementsprechend schrieb Moravec bereits 1976:

 

Die zahlreichen Beispiele von Intelligenz, die sich unter diesen Bedingungen entwickelt haben, sollten uns sehr zuversichtlich stimmen, bald dasselbe zu erreichen. Die Situation ist mit der Geschichte der Luftfahrt vergleichbar, wo Vögel, Fledermäuse und Insekten die Möglichkeit des Fliegens demonstrierten, bevor wir diese Fähigkeit meisterten.6

 

Man sollte sich allerdings davor hüten, daraus voreilige Schlüsse zu ziehen. Es stimmt, dass die Evolution das Fliegen erfand und dass menschlichen Ingenieuren das schließlich ebenfalls gelang (wenn auch auf ganz andere Art). Es gibt weitere Beispiele: Sonar, Orientierung am Erdmagnetfeld, chemische Waffen, Photorezeptoren und alle Arten von mechanischen und kinetischen Eigenschaften. Genauso gut lassen sich aber auch Bereiche aufzählen, in denen die menschlichen Ingenieure bislang 44hinterherhinken, etwa Morphogenese, Selbstreparaturmechanismen oder Immunabwehr. Moravec' Argument kann uns daher nicht »sehr zuversichtlich stimmen«, die starke KI »bald« zu entwickeln. Bestenfalls legt die evolutionäre Entwicklung der Intelligenz eine Obergrenze dafür fest, wie schwierig es ist, Intelligenz zu erschaffen – diese Obergrenze könnte aber weit jenseits unserer momentanen Fähigkeiten liegen.

Ein weiteres Argument in diese Richtung geht davon aus, dass wir die biologische Evolution nachahmen können, indem wir genetische Algorithmen auf ausreichend schnellen Computer ablaufen lassen. Diese Version des Evolutionsarguments empfiehlt also eine spezifische Methode zur Hervorbringung von Intelligenz.

Aber ist es wahr, dass wir demnächst über genügend Rechenleistung verfügen werden, um die relevanten evolutionären Prozesse zu rekapitulieren? Die Antwort hängt sowohl davon ab, wie schnell sich die Computertechnik in den nächsten Jahrzehnten weiterentwickelt, als auch davon, wie viel Rechenleistung für genetische Algorithmen erforderlich ist, die die gleiche Optimierungskraft haben wie der evolutionäre Prozess der natürlichen Selektion, der uns hervorbrachte. Obwohl unsere Überlegungen letztlich enttäuschend wenig Aufschluss geben werden, ist eine grobe Abschätzung dennoch nützlich (siehe Kasten 3), denn der Versuch macht zumindest auf einige interessante Unbekannte in der Gleichung aufmerksam.

 

Kasten 3: Was wäre nötig, um die Evolution zu wiederholen?

 

Nicht jedes Kunststück, das die Evolution im Lauf der Entwicklung der menschlichen Intelligenz vollbracht hat, ist für eine künstlich evolvierte maschinelle Intelligenz relevant; nur ein kleiner Teil der evolutionären Selektionskraft auf der Erde war der Intelligenz gewidmet. Genauer gesagt: Die Probleme, die menschliche Ingenieure nicht einfach umgehen können, machen womöglich nur einen winzigen Teil des evolutionären Selektionsprozesses aus. Ein Beispiel: Da wir unsere Computer mit elektrischem Strom betreiben, müssen wir den Zellstoffwechsel nicht neu erfinden, um intelligente Maschinen zu erschaffen – und das, obwohl die Evolution gerade darauf einen...



nach oben


  Mehr zum Inhalt
Kapitelübersicht
Kurzinformation
Leseprobe
Blick ins Buch
Fragen zu eBooks?

  Navigation
Belletristik / Romane
Geschichte
Kultur
Medizin / Gesundheit
Philosophie / Religion
Politik
Psychologie / Pädagogik
Ratgeber
Recht
Reise / Hobbys
Sexualität / Erotik
Technik / Wissen
Wirtschaft

  Info
Alle Bücher anzeigen
© 2008-2024 ciando GmbH | Impressum | Kontakt | F.A.Q. | Datenschutz