Der Mythos der fühlenden Maschinen

A human-like robot/Shutterstock
Quelle: Ein menschenähnlicher Roboter / Shutterstock

Einige der heutigen Top-Techies und Wissenschaftler äußern sich sehr öffentlich über apokalyptische Szenarien, die durch Maschinen mit Motiven entstehen könnten. Unter den Ängstlichen sind intellektuelle Schwergewichte wie Stephen Hawking, Elon Musk und Bill Gates, die alle glauben, dass Fortschritte auf dem Gebiet des maschinellen Lernens bald zu selbstbewussten KIs führen werden, die uns zerstören wollen – oder uns vielleicht apathisch entsagen wie Abschaum wird von einem Scheibenwischer vernichtet. In der Tat sagte Dr. Hawking der BBC: "Die Entwicklung der vollständigen künstlichen Intelligenz könnte das Ende der Menschheit bedeuten."

In der Tat gibt es wenig Zweifel, dass zukünftige KI in der Lage sein wird, erheblichen Schaden anzurichten. Zum Beispiel ist es vorstellbar, dass Roboter so programmiert werden können, dass sie als extrem gefährliche autonome Waffen funktionieren, wie es bisher nicht möglich war. Darüber hinaus ist es leicht, sich eine uneingeschränkte Softwareanwendung vorzustellen, die sich im gesamten Internet ausbreitet und unser effizientestes Medium, das sich auf den globalen Austausch stützt, stark beeinträchtigt.

Aber diese Szenarien unterscheiden sich kategorisch von denen, in denen sich Maschinen entscheiden, uns anzugreifen, uns zu besiegen, uns zu Sklaven zu machen oder uns auszurotten. In dieser Hinsicht sind wir unbestreitbar sicher. Noch trauriger ist, dass wir eines Tages nicht einmal Roboter haben werden, die sich dazu entschließen, sich mit uns anzufreunden oder uns Liebe zu zeigen, ohne dass wir dazu aufgefordert werden.

Dies liegt daran, dass solch ein absichtliches Verhalten von einer KI zweifellos einen Geist erfordern würde, da die Intentionalität nur entstehen kann, wenn etwas seine eigenen Überzeugungen, Wünsche und Motivationen besitzt. Die Art der KI, die diese Funktionen enthält, ist in der wissenschaftlichen Gemeinschaft als "Starke künstliche Intelligenz" bekannt. Eine starke KI sollte definitionsgemäß alle kognitiven Fähigkeiten des Menschen besitzen. Dies beinhaltet Selbstbewusstsein, Empfindungsvermögen und Bewusstsein, da dies alles Merkmale der menschlichen Wahrnehmung sind.

Auf der anderen Seite bezieht sich "schwache künstliche Intelligenz" auf nicht-empfindungsfähige KI. Die schwache KI-Hypothese besagt, dass unsere Roboter – die auf digitalen Computerprogrammen laufen – keine bewussten Zustände, keinen Geist, kein subjektives Bewusstsein und keine Handlungsfähigkeit haben können. Eine solche KI kann die Welt nicht qualitativ erfahren, und obwohl sie scheinbar intelligentes Verhalten zeigen kann, ist sie für immer durch das Fehlen eines Geistes begrenzt.

Ein Versagen, die Bedeutung dieser starken / schwachen Unterscheidung zu erkennen, könnte zu den existenziellen Sorgen von Hawking und Musk beitragen, da beide glauben, dass wir bereits auf einem guten Weg sind, eine starke KI (aka Künstliche Intelligenz) zu entwickeln. Für sie geht es nicht um "wenn", sondern "wann".

Tatsache ist jedoch, dass die derzeitige KI grundsätzlich schwache KI ist, und dies spiegelt sich in der totalen Abwesenheit jeglichen absichtlichen Verhaltens der heutigen Computer wider. Obwohl es da draußen einige sehr komplexe und relativ überzeugende Roboter gibt, die lebendig zu sein scheinen, enthüllen sie sich bei näherer Betrachtung als ebenso Motivlos wie der gewöhnliche Taschenrechner.

Das liegt daran, dass Gehirne und Computer sehr unterschiedlich arbeiten. Beide berechnen, aber nur einer versteht – und es gibt einige zwingende Gründe zu glauben, dass sich das nicht ändern wird. Es scheint, dass es ein technisches Hindernis gibt, das einer starken AI im Weg steht.

Turing-Maschinen sind keine denkenden Maschinen

Alle digitalen Computer sind binäre Systeme. Das heißt, sie speichern und verarbeiten Informationen ausschließlich in zwei Zuständen, die durch unterschiedliche Symbole dargestellt werden – in diesem Fall 1s und 0s. Es ist eine interessante Tatsache der Natur, dass Binärziffern verwendet werden können, um die meisten Dinge darzustellen; wie Zahlen, Buchstaben, Farben, Formen, Bilder und sogar Audio mit nahezu perfekter Genauigkeit.

Dieses Zwei-Symbol-System ist das grundlegende Prinzip, auf dem das gesamte digitale Computing basiert. Alles, was ein Computer tut, beinhaltet die Manipulation von zwei Symbolen in irgendeiner Weise. Als solche können sie als eine praktische Art von Turing-Maschine betrachtet werden – eine abstrakte, hypothetische Maschine, die durch Manipulation von Symbolen berechnet wird.

Die Operationen einer Turing-Maschine werden als "syntaktisch" bezeichnet, das heißt, sie erkennen nur Symbole und nicht die Bedeutung dieser Symbole – dh ihre Semantik. Selbst das Wort "erkennen" ist irreführend, weil es eine subjektive Erfahrung impliziert, daher ist es vielleicht besser, einfach zu sagen, dass Computer sensibel für Symbole sind, während das Gehirn semantisch verstehbar ist.

Es spielt keine Rolle, wie schnell der Computer ist, wie viel Speicher er hat oder wie komplex und auf hohem Niveau die Programmiersprache ist. Die Jeopardy und Chess spielenden Champions Watson und Deep Blue funktionieren grundsätzlich genauso wie deine Mikrowelle. Vereinfacht ausgedrückt kann eine strikte symbolverarbeitende Maschine niemals eine symbolverstehende Maschine sein. Der einflussreiche Philosoph John Searle hat diese Tatsache in seinem berühmten und höchst kontroversen "Chinesischen Raumargument" geschickt dargestellt, das seit seiner Veröffentlichung im Jahre 1980 überzeugt, dass "Syntax nicht ausreichend für Semantik ist". Und obwohl es einige esoterische Widerlegungen gibt (die häufigste ist die "Systems Reply"), überbrückt keiner die Lücke zwischen Syntax und Semantik. Aber selbst wenn man nicht allein aufgrund des chinesischen Raumarguments überzeugt ist, ändert dies nichts an der Tatsache, dass Turing-Maschinen symbolische Manipulationsmaschinen und keine Denkmaschinen sind – eine Position, die der große Physiker Richard Feynman vor über einem Jahrzehnt eingenommen hat.

Feynman beschrieb den Computer als "ein verherrlichtes, erstklassiges, sehr schnelles, aber dummes Ablagesystem", das von einem unendlich dummen Aktenführer (der zentralen Verarbeitungseinheit) verwaltet wird, der blind den Anweisungen folgt (dem Softwareprogramm). Hier hat der Angestellte kein Konzept von irgendetwas – nicht einmal einzelne Buchstaben oder Zahlen. In einer berühmten Vorlesung über Computer-Heuristiken äußerte Feynman seine ernsthaften Zweifel an der Möglichkeit wirklich intelligenter Maschinen. Er sagte: "Niemand weiß, was wir tun oder wie wir eine Reihe von Schritten definieren, die etwas Abstraktem wie Denken entsprechen."

Diese Punkte sind sehr überzeugende Gründe zu glauben, dass wir niemals Starke KI, dh wirklich intelligente künstliche Agenten, erreichen werden. Vielleicht werden selbst die genauesten Gehirnsimulationen keine Gedanken hervorbringen, noch werden Softwareprogramme Bewusstsein erzeugen. Es könnte einfach nicht in den Karten für einen strengen binären Prozessor enthalten sein. Es gibt nichts über die Verarbeitung von Symbolen oder Berechnungen, die subjektive Erfahrungen oder psychologische Phänomene wie qualitative Empfindungen erzeugen.

Wenn man dies hört, könnte man geneigt sein zu fragen: "Wenn ein Computer nicht bewusst sein kann, wie kann dann ein Gehirn?" Schließlich ist es ein rein physikalisches Objekt, das nach dem physikalischen Gesetz arbeitet. Es verwendet sogar elektrische Aktivität, um Informationen zu verarbeiten, genau wie ein Computer. Doch irgendwie erleben wir die Welt subjektiv – aus der Sicht der ersten Person, wo innere, qualitative und unaussprechliche Empfindungen auftreten, die nur uns zugänglich sind. Nehmen wir zum Beispiel an, wie es sich anfühlt, wenn man ein hübsches Mädchen sieht, ein Bier trinkt, auf einen Nagel tritt oder ein launisches Orchester hört.

Die Wahrheit ist, Wissenschaftler versuchen immer noch, all dies herauszufinden. Wie physikalische Phänomene, wie biochemische und elektrische Prozesse, Sensationen und vereinte Erfahrungen erzeugen, ist bekannt als "hartes Problem des Bewusstseins" und wird von Neurowissenschaftlern und Philosophen weithin anerkannt. Selbst der Neurowissenschaftler und populäre Autor Sam Harris – der Musks Bedenken bezüglich der Roboterrebellion teilt – erkennt das schwierige Problem an, wenn er feststellt, dass eine Maschine bewusst sei, sei "eine offene Frage". Leider scheint er nicht vollständig zu erkennen, dass für Maschinen, die eine existenzielle Bedrohung darstellen, die sich aus ihren eigenen Interessen ergibt, Bewusstsein erforderlich ist.

Obwohl das Problem des Bewusstseins zugegebenermaßen schwer ist, gibt es keinen Grund zu der Annahme, dass es von der Wissenschaft nicht lösbar ist. Was für Fortschritte haben wir bisher gemacht?

Bewusstsein ist ein biologisches Phänomen

Ähnlich wie ein Computer kommunizieren Nervenzellen miteinander, indem sie elektrische Signale auf binäre Weise austauschen. Entweder ein Neuron feuert oder nicht, und so werden neuronale Berechnungen durchgeführt. Aber im Gegensatz zu digitalen Computern enthalten Gehirne eine Vielzahl analoger zellulärer und molekularer Prozesse, biochemischer Reaktionen, elektrostatischer Kräfte, global synchronisierter Neuronenbeschuss bei spezifischen Frequenzen und einzigartige strukturelle und funktionelle Verbindungen mit unzähligen Rückkopplungsschleifen.

Selbst wenn ein Computer genau eine digitale Darstellung all dieser Merkmale erstellen könnte, was an sich schon viele ernsthafte Hindernisse mit sich bringt, ist eine Simulation eines Gehirns immer noch kein physisches Gehirn. Es besteht ein grundlegender Unterschied zwischen der Simulation eines physikalischen Prozesses und dem physikalischen Prozess selbst. Dies mag vielen maschinellen Lernforschern als strittiger Punkt erscheinen, aber wenn man es ausführlich betrachtet, erscheint es alles andere als trivial.

Simulation gleicht nicht der Duplizierung

Die Schwäche-AI-Hypothese besagt, dass Computer nur das Gehirn simulieren können, und nach Meinung einiger, wie John Searle – der die Begriffe Starke und Schwache KI geprägt hat – unterscheidet sich die Simulation eines bewussten Systems sehr von der echten. Mit anderen Worten, die Hardware der "Maschine" ist wichtig, und bloße digitale Darstellungen biologischer Mechanismen haben keine Macht, etwas in der realen Welt zu bewirken.

Betrachten wir ein anderes biologisches Phänomen wie die Photosynthese.Photosynthese bezeichnet den Prozess, mit dem Pflanzen Licht in Energie umwandeln. Dieser Prozess erfordert spezifische biochemische Reaktionen, die nur bei einem Material mit spezifischen molekularen und atomaren Eigenschaften möglich sind. Eine perfekte Computersimulation – eine Emulation – der Photosynthese wird niemals in der Lage sein, Licht in Energie umzuwandeln, egal wie genau und egal, welche Art von Hardware Sie dem Computer zur Verfügung stellen. Es gibt jedoch tatsächlich künstliche Photosynthesemaschinen. Diese Maschinen simulieren nicht nur die physikalischen Mechanismen, die der Photosynthese in Pflanzen zugrunde liegen, sondern duplizieren die biochemischen und elektrochemischen Kräfte mit photoelektrochemischen Zellen, die photokatalytische Wasserspaltung durchführen.

In ähnlicher Weise wird eine Simulation von Wasser nicht die Qualität von 'Nässe' besitzen, die ein Produkt einer sehr spezifischen molekularen Bildung von Wasserstoff- und Sauerstoffatomen ist, die durch elektrochemische Bindungen zusammengehalten werden. Die Liquidität ergibt sich als ein physikalischer Zustand, der sich qualitativ von demjenigen unterscheidet, der von jedem Molekül allein ausgedrückt wird.

Selbst die heiße neue Bewusstseinstheorie aus der Neurowissenschaft, Integrated Information Theory, macht deutlich, dass eine perfekt genaue Computersimulation eines Gehirns kein Bewusstsein wie ein echtes Gehirn haben würde, genauso wie eine Simulation eines Schwarzen Lochs Ihren Computer und Raum nicht verursacht implodieren. Die Neurowissenschaftler Giulio Tononi und Christof Koch, die die Theorie begründet haben, sprechen zu diesem Thema keine Worte:

"IIT impliziert, dass digitale Computer, selbst wenn ihr Verhalten funktionell unserem entspricht, und selbst wenn sie treue Simulationen des menschlichen Gehirns ausführen würden, so gut wie nichts erfahren würden."

In diesem Sinne können wir immer noch darüber spekulieren, ob nicht-biologische Maschinen, die Bewusstsein unterstützen, existieren können, aber wir müssen erkennen, dass diese Maschinen möglicherweise die wesentlichen elektrochemischen Prozesse (was auch immer diese sein mögen), die im Gehirn während des Bewusstseins auftreten, duplizieren müssen Zustände. Wenn dies ohne organische Materialien möglich ist, die einzigartige molekulare und atomare Eigenschaften haben, würde es vermutlich mehr als Turing-Maschinen erfordern, die rein syntaktische Prozessoren (Symbolmanipulatoren) sind, und digitale Simulationen, denen die notwendigen physikalischen Mechanismen fehlen.

Der beste Ansatz, um eine starke KI zu erreichen, besteht darin, herauszufinden, wie das Gehirn zuerst vorgeht, und den größten Fehler der Maschine-Lern-Forscher zu denken, dass sie eine Abkürzung um sie herum nehmen können. Als Wissenschaftler und Menschen müssen wir optimistisch sein, was wir erreichen können. Gleichzeitig dürfen wir nicht allzu zuversichtlich sein, dass wir uns in falsche Richtungen lenken und uns blind machen, dass wir wirklich Fortschritte machen.

Der Mythos der starken KI

Seit den 1960er Jahren behaupten KI-Forscher, dass Starke KI gleich um die Ecke ist. Aber trotz monumentaler Steigerung von Computerspeicher, Geschwindigkeit und Rechenleistung sind wir nicht näher als zuvor. Fürs Erste, genau wie die Hirngespinste der Vergangenheit, die apokalyptische KI-Szenarien darstellen, bleiben wirklich intelligente Roboter mit einer inneren bewussten Erfahrung eine fantasievolle Fantasie.