Das emotionale Leben intelligenter Maschinen

Welche einzige Frage werde ich am häufigsten zu Emotion AI gestellt?

Richard Yonck/Shutterstock

Quelle: Richard Yonck / Shutterstock

Es ist etwas mehr als ein Jahr her, seit mein Buch Heart of the Machine veröffentlicht wurde , eine eingehende Untersuchung der möglichen technischen und sozialen Auswirkungen von affective computing, einem Zweig der Informatik, der sich auf Systeme konzentriert, die lesen, interpretieren, replizieren können und anderweitig mit unseren Emotionen interagieren. In dieser Zeit hatte ich die Gelegenheit, bei Festivals, öffentlichen Lesungen, Konferenzen, Denkfabriken und natürlich in Buchhandlungen über diese aufstrebende Technologie zu sprechen. Bei all dieser Interaktion mit den Lesern und der Öffentlichkeit gab es eine Frage, die bei Weitem am häufigsten gestellt wurde: “Bedeutet dies, dass diese Geräte, Computer oder Roboter Emotionen erleben können, wie wir es tun?”

Obwohl dies ausdrücklich im Buch angesprochen wird, antworte ich immer mit einem eindeutigen “Nein, tut es nicht”. Wenn es Zeit gibt, werde ich das sogar erklären, während diese Maschinen und Programme irgendwann etwas erleben werden, das den menschlichen Emotionen ähnelt In Zukunft wird dies aus verschiedenen wichtigen Gründen nicht mehr so ​​sein wie für Menschen. Dennoch finde ich es faszinierend und sogar ein wenig erhellend, dass die menschliche Psyche die erste Frage auf so vielen Menschen ist.

Geht es uns darum, unsere Einzigartigkeit als emotional intelligente Wesen zu erhalten? Sind wir besorgt, dass die “irrationale” Natur der Emotionen dazu führen könnte, dass Amis laufen? Haben wir Angst vor der Idee, dass Maschinen eines Tages mit uns auf den persönlichsten Ebenen interagieren könnten? Oder ist es anders herum? Ist es möglich, sogar wahrscheinlich, dass viele von uns tatsächlich die Entwicklung emotionaler Maschinen sehen wollen? Wünschen sich einige von uns insgeheim, eine Verbindung zu suchen, von der viele Menschen glauben, dass sie gerade in ihrem Leben fehlt?

Es lohnt sich, dies etwas genauer zu untersuchen. Zuallererst hatte die KI-Forschung schon lange das Ziel, etwas zu erreichen, das der menschlichen Intelligenz entspricht – was oft als starke KI oder künstliche allgemeine Intelligenz (kurz: AGI) bezeichnet wird. Bis jetzt war die überwiegende Mehrheit der Erfolge in viel engeren Anwendungen zu finden – üblicherweise als enge KI bezeichnet. Sprachbefehle, Gesichtserkennung, Schachspiel, Poker, sogar autonome Fahrzeuge – das alles sind eng fokussierte Anwendungen der künstlichen Intelligenz. Es gibt wenig gesunden Menschenverstand oder allgemeines Wissen, selbst innerhalb eines Programms, das so leistungsfähig ist wie die Version von Watson, die Jennings und Rutter, die allzeit menschlichen Champions der Spielshow Jeopardy , übertrumpft . Alle diese Programme sind auf die Ausführung in einer sehr spezifischen Domäne beschränkt und sollten sie über die Grenzen dieser Domäne hinaus angewendet werden, brechen sie oder versagen. Dies ist in der Computerprogrammierung als Software-Sprödigkeit bekannt .

Interessanterweise hat die Forschung gezeigt, dass ein großer Teil des menschlichen Intellekts seine Flexibilität des Denkens und der Fähigkeit, Entscheidungen zu treffen, auf die Tatsache, dass wir emotionale Wesen sind, verdankt. Unser Geschick, zu bestimmen, wo wir unseren kurz- und langfristigen Fokus setzen sollten, unsere Fähigkeit, eine Fülle von Details und Daten zu durchsuchen, unsere Fähigkeit, sich an ständig wechselnde Umstände anzupassen, wird von den Werten unseres Unternehmens bestimmt und gemildert Emotionen stellen sich auf diesen Moment und diese Situation.

Die HBO-Serie, Westworld, ist ein gutes Beispiel dafür. Obwohl die Show Fiktion ist, macht es einen guten Job, die Bedeutung von Emotionen im Intellekt seiner Android- Hosts hervorzuheben. Erst nachdem emotionale Verbindungen eingeführt wurden, werden diese Gastgeber nicht mehr von den menschlichen Gästen zu unterscheiden sein, sie entwickeln nicht nur Bewusstsein, sondern auch einen wilden Lebenswillen. Ohne unsere Emotionen wären wir sehr wie diese Gastgeber, wahre Automaten, viel fragiler in unseren täglichen Handlungen und Entscheidungen, als wir wirklich sind. Natürlich ist es auch ohne unsere Emotionen höchst unwahrscheinlich, dass wir so lange als eine Art überlebt hätten.

Ist es also möglich, dass das Einbringen des Äquivalents von Emotionen in AIs dazu beitragen könnte, etwas von der bereits besprochenen Sprödigkeit zu lösen? Vielleicht, obwohl das ein sehr großer Schritt ist, sowie eine herausfordernde Idee zu beweisen, ohne es tatsächlich zu implementieren und zu testen. Aber es bringt eine weitere sehr wichtige Überlegung: Wie würden wir eine solche Strategie umsetzen? Trotz all der erstaunlichen Geschwindigkeit und Fähigkeit der Maschinenintelligenz ist es doch auf einem völlig anderen Substrat aufgebaut als die menschliche Intelligenz. Dies bedeutet, dass Sie und ich von einer biologischen Basis ausgehen, ausgehend von Aminosäuren, die zu Proteinen, Zellen, Organen, Systemen und schließlich zu einem ähnlich abgeleiteten kognitiven Kommandozentrum führen, das als Gehirn bekannt ist, mit all seinen Neuronen, Dendriten, Axonen, Ganglien und Hunderte verwandter Zellen, Cortexes und Prozesse. Computer und AIs dagegen beginnen mit “dotiertem” Silizium oder anderen Halbleitermaterialien. Diese werden inkrementell in Transistoren und andere Elemente organisiert, die wiederum zu Schaltungen, Registern, Bussen, Speicher und Prozessoren werden, die durch Softwareroutinen, Module, APIs und Benutzerschnittstellen betrieben werden. Solche Maschinen bewegen und manipulieren Bits, im Gegensatz zu unserem Körper, der Moleküle, Hormone, Neuropeptide und elektrische Potentiale verwendet. Während wir uns bemühen können, biologische Prozesse mit Silizium zu imitieren, ist es unwahrscheinlich, dass wir Erfolg haben, wenn wir dies direkt tun. Wie dem auch sei, der Großteil unserer früheren Erfolge bei der KI hing davon ab, diese Einschränkung zu erkennen. In fast allen dieser Fälle haben wir unser Engineering so angepasst, dass Aufgaben durch Methoden erreicht werden, die besser zu den verwendeten Werkzeugen und Materialien passen.

Dies bedeutet nicht, dass die Inspiration aus der Natur, die so genannte Biomimikry, nicht nützlich sein kann. Dieser Ansatz hat jedoch seine Grenzen, insbesondere wenn er auf verschiedene Substrate angewendet wird. Zum Beispiel, während die ersten Flugzeugentwürfe sich von Vögeln inspirieren ließen, hatten die Gebrüder Wright darauf bestanden, den Vogelflug getreu nachzuahmen, sie wären niemals vom Boden aufgestanden. Stattdessen arbeiteten sie mit den Materialien, die ihnen damals zur Verfügung standen, um allgemeinere Kräfte wie Auftrieb, Widerstand und Schub zu manipulieren, um sie erfolgreich in die Luft zu bringen.

Solche Unterschiede begrenzen, was wir tun können, um Emotion in einem nichtbiologischen Substrat zu emulieren. Vielleicht am wichtigsten ist, dass, während es signifikante kognitive Komponenten gibt, die sich in unsere Erfahrung von Emotionen integrieren, diese überwiegend aus dem endokrinen System unseres Körpers stammen, dem chemischen Botenstoffsystem, das so viel Tierverhalten steuert. Offensichtlich haben Computer keine Körper und Roboter haben keine Hormone, die als Reaktion auf Umwelt- und Situationsbedingungen aktiviert werden. Regelbasierte Systeme können und wurden gebaut, um diese Eigenschaft der Biologie nachzuahmen, aber sind wieder viel brüchiger als tatsächliche biologische Botschaftssysteme.

Das soll nicht heißen, dass die Aufgabe unmöglich ist. Vielleicht könnten bestimmte Arten von neuronalen Netzen, wie generative adverse Netzwerke (GANs), eines Tages trainiert werden, um die Auslöser und Verhaltensweisen eines endokrinen Systems nachzuahmen. Ich weiß das nicht mit Sicherheit, obwohl ich annehme, dass mit der Zeit so etwas machbar sein könnte. Dennoch würden diese immer noch sehr verschieden von den chemischen Botenstoffen sein, auf die sich die Menschen verlassen, und wären somit nur Annäherungen davon, wie unser Körper und Geist auf äußere und innere Bedingungen reagiert.

Es gibt viele andere Gründe dafür, dass Maschinenintelligenz niemals die gleiche wie menschliche Intelligenz sein wird, selbst wenn sie letztendlich menschliche Niveaus erreicht oder sogar überschreitet. In der Zwischenzeit sind noch sehr große Hürden zu überwinden, bevor dieser Tag, vielleicht um die Mitte dieses Jahrhunderts, eintrifft. (Dies ist der Mediankonsens mehrerer Umfragen von KI-Forschern, obwohl Sie Meinungen finden können, die von fünf Jahren in der Zukunft zu nie reichen.)

Werden Ersatz-Emotionen benötigt, um KI über eine gewisse begrenzte Ebene der allgemeinen Intelligenz hinaus zu bringen? Ich glaube, dass es wahrscheinlich ist, obwohl es auch zahlreiche andere Herausforderungen gibt, die es zu überwinden gilt. Aber vielleicht noch wichtiger ist es vielleicht, dass die Modellierung eines Aspekts der maschinellen Intelligenz in menschlichen zentrierten emotionalen Systemen diesen Systemen schließlich erlauben kann, ähnliche Werte wie unsere eigenen zu teilen. Abgesehen von verschiedenen Bedenken bezüglich unfreundlicher oder unbekümmerter superintelligenter KIs ist dies extrem wichtig, weil wir diese Maschinen entwickeln werden, um die zunehmend komplexen Systeme in unserer schnell voranschreitenden Welt zu kontrollieren. Diese Strategie wäre sehr in unserem Interesse. Mit zunehmender Häufigkeit wird es keine Zeit für menschliches Eingreifen geben, wenn unsere industrielle und elektronische Infrastruktur in Zukunft bedroht ist. Aus diesem Grund werden wir gezwungen sein, immer mehr Kontrolle über unsere Maschinen zu haben, um Schritt zu halten, und wir müssen ihnen vertrauen können. Wir müssen mehr tun als zu hoffen, dass ein System, das spontane Entscheidungen trifft, unseren eigenen Prioritäten entspricht, unabhängig davon, ob dieses System einen Passagierjet steuert oder eine hochtoxische chemische Raffinerie betreibt.

Also, um zu wiederholen: Nein, Maschinen werden Emotionen nicht so erleben wie wir, nicht für eine sehr lange Zeit, wenn überhaupt. Aber in viel kürzerer Zeit können wir feststellen, dass die Entwicklung von Methoden zur Emulation menschlicher Emotionen in AIs von beträchtlichem Nutzen ist, was zu intelligenten Maschinen führt, die zumindest ein bisschen wie wir fühlen können. Und wer weiß? Wenn wir es gut genug machen, vielleicht in ein oder zwei Jahrzehnten, könnten einige von ihnen sogar unsere neuen besten Freunde sein.

Verweise

Bostrom, N. Superintelligenz. Wege, Gefahren, Strategien . Oxford Universitätspresse. 2014.

Damasio, A. Descartes Fehler: Emotion, Vernunft und das menschliche Gehirn , Putnam. 1994.

Yonck, R. Herz der Maschine: Unsere Zukunft in einer Welt der künstlichen emotionalen Intelligenz. Arcade Verlag, NY. 2017.

Yonck, R. ” Zu einer Standardmetrik der maschinellen Intelligenz”; World Future Review . 4: 61-70. Mai 2012.