Aber wie lässt sich eine solche Superintelligenz erschaffen? Betrachten wir einige Möglichkeiten.
Der Leser darf an dieser Stelle keine Blaupause für die Programmierung einer künstlichen allgemeinen Intelligenz erwarten – und natürlich gibt es bisher auch keine. Aber selbst wenn ich im Besitz einer solchen Blaupause wäre, würde ich sie ganz sicher nicht publik machen. (Falls die Gründe dafür nicht bereits offensichtlich sind, werden sie in den folgenden Kapiteln klar werden.)
Einige allgemeine Merkmale des erforderlichen Systems lassen sich aber angeben. Es scheint heute klar zu sein, dass die Fähigkeit zu lernen ein integraler Bestandteil des Systems sein muss und nicht nachträglich hinzugefügt werden darf. Das Gleiche gilt für die Fähigkeit, effektiv mit Ungewissheit und probabilistischen Informationen umzugehen. Das Vermögen, auf irgendeine Weise nützliche Begriffe aus Sinnesdaten und internen Zuständen zu gewinnen und diese Begriffe in flexiblen kombinatorischen Darstellungen zum logischen und intuitiven Denken zu nutzen, gehört vermutlich ebenfalls zu den Hauptbestandteilen einer solchen Proto-KI.
Die frühen GOFAI-Systeme beschäftigten sich selten mit Lernen, Ungewissheit oder Begriffsbildung, vielleicht deshalb, weil die dafür nötigen Methoden zu jener Zeit noch kaum entwickelt waren. Das soll aber nicht heißen, dass die zugrundeliegenden Ideen besonders neu wären. Die Idee, ein einfacheres System mittels Lernen auf das Niveau menschlicher Intelligenz zu hieven, lässt sich mindestens bis zu Alan Turings Idee einer »Kind-Maschine« zurückverfolgen, über die er 1950 schrieb:
Warum sollte man nicht versuchen, statt ein Programm zur Nachahmung des Verstandes eines Erwachsenen eines zur Nachahmung des Verstandes eines Kindes herzustellen? Unterzöge man dieses dann einem geeigneten Erziehungsprozeß, erhielte man den Verstand eines Erwachsenen.3
Turing stellte sich das als iterativen Prozess vor:
Wir können nicht erwarten, auf Anhieb eine gute Kind-Maschine zu finden. Man muß mit einer solchen Maschine Lehrexperimente durchführen, um festzustellen, wie gut sie lernt. Man kann es dann mit einer anderen ver43suchen und sehen, ob sie besser oder schlechter lernt. Es besteht ein offensichtlicher Zusammenhang zwischen diesem Prozeß und dem Entwicklungsprozeß […]. Man darf jedoch hoffen, daß dieser Prozeß schneller vor sich geht als der Entwicklungsprozeß. Das Überleben des Tüchtigsten ist eine langsame Methode zum Messen von Vorteilen. Der Experimentator sollte durch seine Intelligenz in der Lage sein, den Prozeß zu beschleunigen. Ebenso wichtig ist die Tatsache, daß er nicht auf zufällige Mutationen angewiesen ist. Wenn er den Grund für irgendeine Schwäche feststellen kann, so kann er sich wahrscheinlich auch die Mutationsart vorstellen, die ihr abhilft.4
Wir wissen, dass blinde Evolutionsprozesse allgemeine Intelligenz auf menschlichem Niveau erzeugen können, da sie das schon mindestens einmal getan haben. Weitsichtige Evolutionsprozesse – das heißt genetische Programme, die von einem intelligenten menschlichen Programmierer entwickelt und gesteuert werden – sollten auf weit effektivere Weise zu ähnlichen Ergebnissen kommen. Dieser Gedanke wurde von einigen Philosophen und Wissenschaftlern, darunter David Chalmers und Hans Moravec, dafür ins Feld geführt, dass eine starke KI (also eine KI auf menschlichem Niveau) nicht nur theoretisch möglich, sondern sogar noch in diesem Jahrhundert realisierbar ist.5 Die Idee dabei ist folgende: Wenn wir die Fähigkeit der Evolution, Intelligenz hervorzubringen, mit derjenigen der KI-Forscher vergleichen, stellt sich heraus, dass die menschliche Technik ihr in einigen Hinsichten bereits weit überlegen ist und es in den übrigen wohl bald sein wird. Die Tatsache, dass die Evolution Intelligenz hervorbrachte, spricht daher dafür, dass wir in Kürze in der Lage sein werden, das Gleiche zu tun. Dementsprechend schrieb Moravec bereits 1976:
Die zahlreichen Beispiele von Intelligenz, die sich unter diesen Bedingungen entwickelt haben, sollten uns sehr zuversichtlich stimmen, bald dasselbe zu erreichen. Die Situation ist mit der Geschichte der Luftfahrt vergleichbar, wo Vögel, Fledermäuse und Insekten die Möglichkeit des Fliegens demonstrierten, bevor wir diese Fähigkeit meisterten.6
Man sollte sich allerdings davor hüten, daraus voreilige Schlüsse zu ziehen. Es stimmt, dass die Evolution das Fliegen erfand und dass menschlichen Ingenieuren das schließlich ebenfalls gelang (wenn auch auf ganz andere Art). Es gibt weitere Beispiele: Sonar, Orientierung am Erdmagnetfeld, chemische Waffen, Photorezeptoren und alle Arten von mechanischen und kinetischen Eigenschaften. Genauso gut lassen sich aber auch Bereiche aufzählen, in denen die menschlichen Ingenieure bislang 44hinterherhinken, etwa Morphogenese, Selbstreparaturmechanismen oder Immunabwehr. Moravec' Argument kann uns daher nicht »sehr zuversichtlich stimmen«, die starke KI »bald« zu entwickeln. Bestenfalls legt die evolutionäre Entwicklung der Intelligenz eine Obergrenze dafür fest, wie schwierig es ist, Intelligenz zu erschaffen – diese Obergrenze könnte aber weit jenseits unserer momentanen Fähigkeiten liegen.
Ein weiteres Argument in diese Richtung geht davon aus, dass wir die biologische Evolution nachahmen können, indem wir genetische Algorithmen auf ausreichend schnellen Computer ablaufen lassen. Diese Version des Evolutionsarguments empfiehlt also eine spezifische Methode zur Hervorbringung von Intelligenz.
Aber ist es wahr, dass wir demnächst über genügend Rechenleistung verfügen werden, um die relevanten evolutionären Prozesse zu rekapitulieren? Die Antwort hängt sowohl davon ab, wie schnell sich die Computertechnik in den nächsten Jahrzehnten weiterentwickelt, als auch davon, wie viel Rechenleistung für genetische Algorithmen erforderlich ist, die die gleiche Optimierungskraft haben wie der evolutionäre Prozess der natürlichen Selektion, der uns hervorbrachte. Obwohl unsere Überlegungen letztlich enttäuschend wenig Aufschluss geben werden, ist eine grobe Abschätzung dennoch nützlich (siehe Kasten 3), denn der Versuch macht zumindest auf einige interessante Unbekannte in der Gleichung aufmerksam.
Kasten 3: Was wäre nötig, um die Evolution zu wiederholen? Nicht jedes Kunststück, das die Evolution im Lauf der Entwicklung der menschlichen Intelligenz vollbracht hat, ist für eine künstlich evolvierte maschinelle Intelligenz relevant; nur ein kleiner Teil der evolutionären Selektionskraft auf der Erde war der Intelligenz gewidmet. Genauer gesagt: Die Probleme, die menschliche Ingenieure nicht einfach umgehen können, machen womöglich nur einen winzigen Teil des evolutionären Selektionsprozesses aus. Ein Beispiel: Da wir unsere Computer mit elektrischem Strom betreiben, müssen wir den Zellstoffwechsel nicht neu erfinden, um intelligente Maschinen zu erschaffen – und das, obwohl die Evolution gerade darauf einen... |