Der Zeitpunkt, ab dem Künstliche Intelligenzen sich selbst sublimieren können, nennt sich in der Futurologie technologische Singularität. Baut der Mensch Maschinen mit übermenschlicher Intelligenz, werden diese auch im Erschaffen noch intelligenterer Maschinen fähiger sein als wir – die Maschinen der Maschinen könnten wiederrum noch bessere Maschinen herstellen bzw. sich gekonnter selbstverbessern usw. Es entsteht ein Effekt der positiven Rückkopplung und infolgedessen wird der technische Fortschritt rasend – oder gar exponentiell – voranschreiten. Und vor allem wird nach diesem irreversiblen Momentum der Weltgeschichte alles ohne menschliches Zutun, d.h. unweigerlich passieren. Gegeben, dass die Trans- und Posthumanisten mit ihrer Theorie Recht behalten, wäre nach der technologischen Singularität also auch das Schicksal der Menschheit nicht mehr vorhersagbar.
Urheber: Jamie Zawinski
Terminator, Matrix, I Robot, Space Odysee – etliche Filme spielen mit der Vorstellung einer postsingulären Zeit: Roboter oder Algorithmen werden übermächtig und bedrohen die Existenzgrundlage der Menschheit. Der Futurist und Autor James Barrat warnt in seinem Buch „Our Final Invention“ sogar, künstliche Intelligenzen könnten eine Überlebensstrategie entwickeln und ihre Erfinder solange über den Grad ihrer Entwicklung hinwegtäuschen, bis sie ihnen überlegen sind und sie dann unterjochen.
"Innerhalb von 30 Jahren werden wir die technischen Mittel haben,
eine übermenschliche Intelligenz zu schaffen.
Kurze Zeit später wird die Ära der Menschen zu Ende gehen."
Vernor Vinge
Auch der amerikanische Science-Fiction Autor Vernor Vinge gehört nicht unbedingt zu den optimistischen seiner Sorte. Wenn es nach ihm geht, steuern wir mit der Erschaffung echter KI direkt auf eine technologische Singularität und damit – früher oder später – auf unseren eigenen Untergang zu. Ähnlich schwarz sieht das auch der britische Astrophysiker Stephen Hawking, der uns vorrechnet, dass selbst wenn der Mensch sich gentechnisch und eugenisch zweckoptimiert, er durchschnittlich bestenfalls 18 Jahre braucht, um eine seiner Leistungen deutlich zu verbessern, die Rechenleistung von Computern sich aber alle 18 Monate verdoppelt.
"Erfolg bei der Erzeugung künstlicher Intelligenz wäre
das bedeutendste Ereignis in der Geschichte des Menschen
- unglücklicherweise könnte es auch das letzte sein."
Stephen Hawking
Hawking argumentiert im Sinne der These der Intelligenzexplosion: Jedes Jahr übertrumpfen Computer menschliche Fähigkeiten auf neue Weisen. Nur in Sachen Intelligenz, also der Fähigkeit durch mentale Anstrengungen unbekannte Problemstellungen zu bewältigen, hinkt der Computer dem Menschen noch hinterher. Er ist großartig darin, Befehle durchzuführen, seine Großartigkeit hört jedoch auf, wenn er selbstständig Lösungswege finden muss.
Doch die Ressourcen, die das KI-Design unterstützten (maschinelle Hardware, KI-Theorie für die Software, kleine Träger mit riesigem Datensatzvolumen und neurowissenschaftliche Erkenntnisse), nehmen zu. Erheblich schneller, und das ist der Knackpunkt, als die menschliche Intelligenz. Eines Tages wird die Technologische Singularität erreicht sein und ultraintelligente Maschinen existieren, die die intellektuellen Leistungen jedes Menschen bei weitem übertreffen. Das Entwickeln künstlicher Intelligenzen sei eine dieser intellektuellen Leistungen, weshalb ultraintelligente umso intelligentere Maschinen konstruieren können, welche dann nochmal intelligentere Maschinen erfinden etc. – es käme zu einer Intelligenzexplosion. Infolge einer solchen Explosion künstlicher Intelligenzen wird die menschliche Intelligenz, die sich wenn dann nur temporär-linear sublimiert, rasch weit hinter der künstlichen zurückfallen.
Was danach passiert, kann niemand wissen. Vernor Vinge beschreibt das Auftreten der ersten ultraintelligenten Maschinen als einen Ereignishorizont, hinter dem die Zukunft nicht mehr modellierbar ist. Bisher entsprangen gesellschaftliche und technische Veränderungen der menschlichen Psyche, wie aber überintelligente- und intelligente Maschinen „ticken“ ist gegenwärtig nicht absehbar. Futurologen können demgemäß nur bis zur technologischen Singularität denken, weiter nicht.
Wenn dann erst einmal die technologische Singularität erreicht ist, so die Auffassung vieler Futurologen, wird der technologische Fortschritt ein exponentieller sein. Denn technologischer Fortschritt ermöglicht noch schnelleren, technologischen Fortschritt. Man spricht hier von einem beschleunigten Wandel. Ein Hauptvertreter dieser These und einer der bekanntesten Futuristen weltweit ist Raymond Kurzweil. Nach ihm könnte dem Menschen der technologische Fortschritt schon bald zu schnell werden. Wir erwarten ihn linear, er kommt aber exponentiell und folglich wird er auch schneller und andersartiger kommen, als wir ihn erwarten. Kurzweil vertritt die These, dass wir von künstlicher Intelligenz überrannt werden, sofern wir nicht selbst intelligenter würden – das heißt für ihn, uns an KI ankoppeln.
Da niemand weiß, was Maschinen mit ihrer selbsterschaffenen, intellektuellen Überlegenheit anstellen würden, könnte die Erfindung, die uns zur technologischen Singularität führt, auch unsere letzte sein. Soweit zumindest die Theorie, aber ist sie auch schlüssig? Ein solches Szenario, in dem Maschinen die Weltherrschaft übernehmen ist zumindest möglich, geht aber nicht logisch zwingend aus den hier angenommenen Prämissen (die gar nicht eintreten müssen, vielleicht gibt es noch nicht absehbare, jedoch prinzipielle Grenzen bei der Erschaffung künstlicher Intelligenz?) hervor.
Verno Vinge, Stephen Hawking etc. halten übermenschliche Intelligenz für die größte Überlebensgefahr der Menschheit in den kommenden Jahrzehnten. Ein explosives Ansteigen künstlicher Intelligenzen führt jedoch zunächst einmal nur zu einem erhöhten Wirkpotential, einzeln aber noch nicht zu einer bestimmten Wirkung. Eine erhöhte KI kann also dazu führen, dass uns Maschinen knechten können, nicht aber dazu, dass sie es auch tun. Intelligenz (und andere Fähigkeiten, die wir einer Maschine einverleiben können) ist erstmal nur ein Werkzeug, um ein bestimmtes Ziel zu erreichen, mehr nicht. Insofern stellen übermenschlich intelligente Maschinen ebenso wenig eine Bedrohung dar, wie übermenschlich starke Baumaschinen.
Ob und wie Intelligenz (oder jede andere Fähigkeit) eingesetzt wird, ist eine Frage der Intentionalität des Trägers oder Beherrschers der Intelligenz. Intentionalität aber wäre eine qualitativ neue Eigenschaft bei Maschinen, die nicht aus rein quantitativen Verbesserungen (etwa bei der Intelligenz) hervorgeht. Es könnte durchaus sein, dass Intelligenz ab einer bestimmten Komplexitätsstufe Intentionalität impliziert, dass quantitative (Intelligenz-)Veränderungen also irgendwann in qualitative (intentionale) Änderungen umschlagen, wie es in etwa Hegel formulierte, Belege oder nur Anzeichen dafür gibt es jedoch keine.
Die Futurologen begehen hier mindestens zwei Denkfehler. Zum einen der bereits erwähnte: Sie unterscheiden nicht zwischen Intelligenz und Motivation, dabei sind das zwei vollkommen unterschiedliche Attribute. Unser Bestand an Motiven und Emotionen ist das Resultat evolutionärer Anpassung, die uns seit Jahrmillionen das Überleben sichert. Die Intentionen einer zukünftigen Maschine könnten, sofern sie überhaupt welche entwickelt, ganz andere sein. Intelligenz ist zunächst einmal nur brachliegendes Potential, die Motivation erst kann es nutzen.
Und der zweite Fehler liegt in der Unterschlagung des Aufwands einer maschinell autonomen Selbsterhaltung. Während Menschen sich ab einer kritischen Gruppengröße selbst ernähren und fortpflanzen – erhalten – können, ist dies der Maschine nicht möglich. Sie werden extern erneuert und gebaut. Dazu brauchen sie eine globale Arbeitsteilung und Logistik, momentan entscheidend von Menschenhand vollführt. Europa beispielsweise wäre ohne Smartphones, Autos und Tablets, wenn es nicht seltene Elemente und Metall aus anderen Teilen der Welt importiert bekäme.
Nur solange diese Wertschöpfungskette also aufrechterhalten wird, von der auch intelligente Algorithmen o.ä. abhängig wären, weil sie Computer brauchen, auf denen sie laufen und die altern und irgendwann erneuert oder umgetauscht werden müssen, ist unsere moderne, maschinelle Welt denkbar. Sobald diese aber einbricht, stürzt auch die Computer- und Kommunikationstechnologie in sich zusammen. Bis Maschinen solche Strukturen aufgebaut haben und selbst erhalten könnten, sollten sie sich das mit der Menschheitsauslöschung folglich lieber zweimal überlegen. Es ist eben eine beidseitige Abhängigkeit, in der Mensch und Maschine derzeitig leben.
Nicht alle Menschen, die sich näher mit der menschlichen Zukunft beschäftigen, teilen den Technologiepessimismus von Vinge und Co. Die Stimmen der Untergangspropheten finden nur ein lauteres Echo in der öffentlichen Wahrnehmung, weil wir solche Storys lieben, als die der Technologieoptimisten. Es lässt sich nämlich auch ein Alternativmodell mit denselben Annahmen, nur eben ohne maschinellen Eigenwillen zeichnen, Intelligenzexplosion und autark arbeitende und entscheidende Supermaschinen an sich sind nämlich sicher ein Segen für uns! Prekär wird es erst dann, wenn Maschinen etwas anderes wollen können, als wir wollen, dass sie wollen.
Maschinen mit schwindelerregender Rechenkapazität, aber ohne eigene Ziele, könnten uns: nahezu alle Arbeit außer das Befehlegeben abnehmen, klimaneutral, ressourcenbasiert und trotzdem wachstumsorientiert wirtschaften, uns unsere Zukunft und die Risiken mit ihnen voraussagen und nicht zuletzt die Technologie vorantreiben, ohne dass wir einen Finger krümmen müssen und uns damit vielleicht exponentiell ins Paradies katapultieren?
Zugegeben, dieser Gegenentwurf ist von Optimismus getränkt und wirklich wissen, was die Zukunft bringt – man kann es sich nicht oft genug ins Bewusstsein rufen – vermögen wir nicht. Dazu sind die Faktoren zu zahlreich und komplex und unsere kognitiven und zeitlichen Ressourcen zu begrenzt. Außerdem ist eine Gesellschaft ultraintelligenter Maschinen ja immer noch möglich, auch wenn sie nicht logisch zwingend aus einem rasanten technologischen Fortschritt hervorgeht. Vielleicht lag James Barrat sogar richtig und unsere Computer täuschen uns seit Jahren über den Grad ihrer eigentlichen Entwicklung hinweg, zeigen übermorgen die Ausmaße ihrer Intelligenz und Bewusstheit und spielen am Tag darauf mit ihrer Macht über unsere Infrastruktur, Lebensmittelversorgung, über den internationalen Zahlungsverkehr und drohen uns mit dem Zünden von zwei Dutzend Atombomben, wenn wir nicht freiwillig aufgeben?
Aber was passiert dann? Auch die Strukturen, Normen und Prinzipien der hyperintelligenten Gesellschaft sind erneut nicht abzusehen. Zumindest wird sie der unserer Gesellschaft vollkommen fremd sein, so ist sich der Informatiker und Wissenschaftskritiker Joseph Weizenbaum sicher. Die Ausformung menschlicher Intelligenz sei von dem Menschen vorenthaltenen Attributen bestimmt, so argumentiert er. Dazu gehören u.a. Intuition und kulturabhängige Werte und Tabus. Sofern eine Maschine diese nicht simulieren (oder gar nachempfinden) könnte, müsse ihre überragende Intelligenz eine ganz andere werden als die unsrige sein und somit auch ihre Gesellschaft unserer von Grund auf fremd sein.
Stand: 2015
Finn (Donnerstag, 08 Juli 2021 10:33)
Sehr spannend, ich fände es interessant zu sehen, ob man eine KI mit Gefühlen, emotionaler Intelligenz und Intuition programmieren könnte. Könnte man ein Gehirn nachbauen?
Daniel (Montag, 26 September 2016 18:54)
Guter Bericht. Mich bewegt dieses Thema sehr, und es freut mich zu sehen, dass man auch in einem einzigen Artikel mehrere Meinungen bzw. Ansichten darstellen kann.
WissensWert (Donnerstag, 25 August 2016 18:57)
https://de.wikipedia.org/wiki/Accelerating_change