Freitag, März 29, 2024
StartZARONEWS PresseAgenturKünstliche “Superintelligenz” – Szenarien einer kommenden Revolution

Künstliche “Superintelligenz” – Szenarien einer kommenden Revolution

superinzelligent-skynet-terminator

Wenn eine uns feindlich gesinnte

Superintelligenz erst

einmal existiert, ist unser Schicksal besiegelt.


Eine Superintelligenz ist die größte und bedrohlichste Herausforderung, vor der die Menschheit je gestanden hat.

Der Mensch hält sich für die Krönung der Schöpfung. Doch sein Spitzenplatz ist von einer “Superintelligenz” bedroht, warnt der Philosoph und Physiker Nick Bostrom, Direktor des Future of Humanity Institute in Oxford. Einer Intelligenz, die den Menschen bei Weitem übertreffen könnte.

Bostrom diskutiert in seinem Buch»Superintelligenz« die Möglichkeiten, Chancen und Gefahren der starken Künstlichen Intelligenz. Schwache künstliche Intelligenz gibt es bereits zuhauf: Schachcomputer, Suchmaschinen und Spracherkennungssoftware, Navigationsgeräte, Autopiloten, PC-Spiele und Industriemaschinen, die nach bestimmten Algorithmen ablaufen und teils über extrem hohe Rechenkapazitäten verfügen. Sie alle funktionieren auf Knopfdruck, rechnen in einem bestimmten Aufgabenfeld und ruhen, wenn sie keinen Strom bekommen. Sie sind ein Produkt von Mathematikern, Informatikern und Ingenieurswissenschaftlern und dienen der Bewältigung des hochkomplexen menschlichen Alltags. Auch die Fußball spielenden Roboter oder das Equipment der ISS gehören in diese Kategorie.

Die starke künstliche Intelligenz, die Superintelligenz, gibt es nicht. Sie ist ein Phantasieprodukt derer, die von autonomen Maschinen träumen. Diese Forscher diskutieren, ob und wie es möglich ist, Intelligenzen zu schaffen, die mindestens die gleiche Leistung wie ein menschliches Gehirn haben. Ihr Forschungsziel ist es, den Weg für eine technologische Singularität zu ebnen. Das heißt, einen Zustand herbeizuführen, in dem Maschinen in der Lage sein werden, sich selbst weiter zu entwickeln und zu verbessern. Ab diesem Zeitpunkt, dem menschlichen Kontrollverlust über die Technik, wären dem Fortschritt der Intelligenz keine Grenzen mehr gesetzt, eine Art Maschinengott wäre denkbar.

“Wir sollten das menschliche Gehirn für das dümmst-mögliche System halten, das eine technologische Kultur entwickeln kann”, sagt Nick Bostrom. Doch es wird bedroht. In seinem neuen Buch “Superintelligenz: Szenarien einer kommenden Revolution” entwirft Bostrom mögliche Szenarien, wie die Geburt dieser Superintelligenz vonstatten gehen – und welche Folgen diese haben könnte.

“Es könnte vielleicht schon in diesem Jahrhundert passieren”, so Bostrom. “Das ist eine enorme Herausforderung und wir gehen damit so naiv um. Wie Kinder, die mit Dynamit SPIELEN.” Die Entstehung einer gefährlichen Superintelligenz ist ein Zukunfts-Albtraum wie aus einem Film. Das klingt zwar verrückt, nach wilder Science-Fiction, doch die Vision ist realer, als wir glauben möchten. Vor einer Superintelligenz, die sich nach ihrer “Geburt” gegen ihre Schöpfer – gegen uns – wenden könnte, warnt Nick Bostrom. Die “Superintelligenz”, schreibt er in seinem Buch, schlägt den Menschen – und alle Hochleistungsrechner, die es heute schon gibt. “Dieser Verstand übertrifft die Menschheit auf allen entscheidenden Gebieten. Dazu gehört wissenschaftlicher Einfallsreichtum, soziale Kompetenz und Klugheit.”

apathie-computer-zukunft

Angst vor der Übermacht der Maschinen

Wir machen die Maschinen immer intelligenter. Das erzeugt Ängste. Noch sind uns die Maschinen unterlegen. Doch wir machen sie immer intelligenter, nutzen Technik, Forschung, Fortschritt, damit wir uns nicht mehr anzustrengen brauchen. Wir können gar nicht anders: Der Mensch ist ein “Prothesengott”. So nannte ihn Sigmund Freud schon vor mehr als 100 Jahren. Körperlich ein Mängelwesen, aber so intelligent, dass er für sich erschafft, was er benötigt. Dabei sitzt ihm immer die Angst im Nacken, dass die Maschinen irgendwann die Übermacht GEWINNEN könnten, ein Gedanke, der so alt wie die Industrialisierung ist. “Dieses Gefühl, dass die Technik uns aus dem Ruder läuft, oder dass wir sozusagen eher Anhängsel der Technik sind und nicht souveräne Bediener von Werkzeugen, nimmt im Moment massiv zu, dadurch, dass das Verhältnis zwischen Mensch und Technik immer intimer wird”, sagt Christopher Coenen vom Institut für Technikfolgenabschätzung in Karlsruhe.

Ob Google-Brille oder Börsenkurse, immer stärker geben Maschinen und Algorithmen vor, wo es lang geht. Und Computer-Prozessoren werden immer schneller und besser. Bostrom sagt eine “Intelligenz-Explosion” voraus, die Geburtsstunde der “Superintelligenz”. Auf Basis des tatsächlichen Forschungsstandes skizziert er in seinem Buch “Superintelligenz” die wahrscheinlichsten Wege dorthin. “Einerseits könnte man sie künstlich erzeugen – mit Hilfe mathematischer Forschungsprogramme in der Theoretischen Computerwissenschaft – andererseits lernen wir von der Biologie des menschlichen Gehirns und könnten im Grenzfall vielleicht sogar ein einzelnes Gehirn auf dem Computer nachbilden, es kopieren”, sagt Bostrom.

Löscht die Superintelligenz die Menschheit aus?

Genau das passiert im Film “Transcendence” (2014) von Regisseur Wally Pfister. Forscher übertragen ein menschliches Gehirn auf den Computer – und bekommen ein geniales System. Im Film nimmt das eine schlimme Wendung. Die Superintelligenz droht, die Menschheit auszulöschen. Doch warum sollte eine künftige Superintelligenz böse sein? Kann man einer Maschine Moral beibringen? “Intelligenz und Werte sind voneinander unabhängig, jede Kombination ist möglich”, sagt Bostrom. “Wir können uns nicht darauf verlassen, dass wir eine künstliche Intelligenz erschaffen, die menschliche Werte beachtet, es sei denn, wir programmieren ihr dieses besondere ‘Feature’.”

Kann man Werte programmieren? Und wieso sollte sich ein Verstand, der unserem haushoch überlegen ist, nicht einfach darüber hinweg setzen? Kritiker sagen: Eine Superintelligenz wird irgendwann kommen, aber sie wird nicht eigenmächtig handeln, wie Bostrom es in seinem Buch behauptet. “Ich sehe nicht, wie aus einem Gerät etwas werden soll, was sich selbst Ziele setzt und dann frei handelt, irgendwelche politischen Intrigen spinnt, versucht, die Weltherrschaft zu übernehmen”, sagt Christopher Coenen. “Diese Szenarien sind an den Haaren herbei gezogen, solange wir nicht auch ein artifizielles Bewusstsein haben.” Kann ein Computercode ein Bewusstsein von sich entwickeln? Im schlimmsten Fall finden wir es heraus, wenn es soweit ist. Denn der Geist ist längst aus der Flasche gelassen: Weltweit wird in Richtung Superintelligenz geforscht, mit Millionen staatlicher Forschungsgelder gefördert. Im europaweiten “Human Brain Project2″ zum Beispiel wollen Forscher auf Basis des menschlichen Gehirns völlig neuartige Supercomputer bauen.

Traum: Superintelligenz soll Probleme lösen

Auch Nick Bostrom begrüßt im Grunde die Superintelligenz. Vielleicht könnte sie ja die großen Probleme der Menschheit lösen, Kriege, Altern, Krankheit, Tod. Das ist ein ewiger Menschheitstraum, für den sich eine neue Bewegung einsetzt: die “Transhumanisten”. Sie finden sich vor allem in der Computerindustrie. Mächtige Multimillionäre wie die Google-Gründer Larry Page und Sergey Brin wollen “Google für’s Gehirn”. Dafür rekrutierten sie den Transhumanismus-Guru Ray Kurzweil als Technischen Direktor. Auch Microsoft-Gründer Bill Gates fördert die Transhumanisten. Und wir? Wir geben ihnen mit jeder App und jeder Suchanfrage mehr Macht. Doch der Weg zur Superintelligenz verändert schon heute unser Leben.

“Das ist im Grunde genommen das Monster”, sagt Coenen. “Man denkt an Frankenstein, also an den technischen Apparat, der außer Kontrolle gerät. Das ist das, was uns in Science-Fiction-Filmen immer über den Weg läuft, diese ganzen Terminatoren. Aber das, was eigentlich unheimlich ist, ist, was die Technik mit unseren teilweise intimsten Sozialbeziehungen anstellt – und wie es die politischen Machtverhältnisse ändert.” Die Algorithmen verändern unser Leben. Und sie sind im Begriff zu einem Gegenüber zu werden, auf das wir noch nicht gefasst sind.

Vertreter der starken Intelligenz wie Bostrom halten diese Entwicklung für realistisch und stellen sich in ihren Schriften nicht nur technischen, sondern auch moralischen Fragen. Bostrom zeigt einige Szenarien eines posthumanen Zeitalters auf, die relevant sein könnten, sollte das Problem einer technologischen Singularität wirklich jemals auftreten. Voraussetzung wäre allerdings, dass Intelligenz grundsätzlich unabhängig von den Leistungen des menschlichen Gehirns ist. In einer Zeit, in der selbst die Gehirnforschung weit davon entfernt ist, das menschliche Gehirn vollkommen zu verstehen, ist das zumindest eine sehr gewagte These. Hinzu kommt das Problem, dass zwar im Bereich der schwachen künstlichen Intelligenz erhebliche Fortschritte erzielt werden, die starke künstliche Intelligenz aber inzwischen ein nahezu toter Forschungszweig ist, weil in den vergangenen Jahrzehnten kaum Erfolge erzielt worden sind. Fragen, wie es möglich sein soll, dass Maschinen eines Tages über Autonomie verfügen, einen freien Willen, Bewusstsein, Reflexions- und Urteilskraft besitzen und nicht bloß Rechenleistungen erbringen, sind nicht wirklich zu beantworten.

Empfohlene Artikel
- Advertisment -
Translate »