Wann werden genau Computer Ape-Shi * und übernehmen?

In der Kultserie Mystery Science Theatre 3000 der 1990er Jahre werden wir von zwei Aliens und einem Kerl behandelt, der sich durch schreckliche alte B-Movies wie Project Moonbase witzelt . Zum Beispiel, in ihrer Episode, die den Film von 1963, Die Schleim-Leute sieht : Oben von den Eingeweiden der Erde, ruft die Hauptperson den Operator auf dem Münztelefon an einem verlassenen Flughafen von LA, und einer der Roboter improvisiert, "Hi. Das ist die menschliche Rasse. Wir sind nicht im Moment. Bitte sprechen Sie deutlich nach dem Geräusch der Bombe. "

Mystery Science Theatre 3000 ist jetzt weg, aber wenn Sie Spaß an apokalyptischen Science-Fiction-Geschichten haben, werden Sie mehr als genug davon haben, die Reaktionen zu beobachten und sich an den futuristischen Proklamationen von Ray Kurzweil an seiner Earthbase Singularity University zu beteiligen. Kurzweils bekannteste Proklamation ist, dass wir uns schnell der "Singularität" nähern, dem Moment, in dem die künstliche Intelligenz die menschliche Intelligenz übertrifft (oder bald darauf). Nach dem Klang dieser Bombe wird künstliche Intelligenz eine immer bessere künstliche Intelligenz erzeugen, und alle Arten von Anfall werden die Shan treffen.

Es gibt keinen Mangel an Skepsis in Bezug auf die Einzigartigkeit. Um meinen Boden zu sichern und zu riskieren, die erste menschliche Batterie zu sein, die nach der Singularität installiert wurde, werde ich Ihnen sagen, warum es keine Singularität gibt. Nicht bis zum Jahr 2028, nicht bis zum Jahr 2045, keine Zeit in den nächsten 500 Jahren – weit danach werde ich für unsere kommenden Meister als Batterie oder sogar als Kompost verwendet werden.

Was ist los mit der Idee einer bevorstehenden Singularität? Sind die Rechenfähigkeiten nicht exponentiell gewachsen?

Ja. Und wir werden in der Tat in der Lage sein, immer neue künstliche Intelligenz zu schaffen.

Das Problem ist, welche intelligentere KI wir bauen sollten?

In der Evolution geraten wir oft in die Falle, uns eine lineare Leiter von Tieren vorzustellen – von Bakterien bis Menschen -, wenn es sich tatsächlich um einen Baum handelt. Und in AI können wir in eine ähnliche Falle fallen. Aber es gibt keine lineare Kette von immer intelligenteren KIs. Stattdessen gibt es ein sehr komplexes und sich verzweigendes Netzwerk möglicher AIs. Für jede KI gibt es viele andere, die weder mehr noch weniger intelligent sind – sie sind nur unterschiedlich intelligent. Und so kann die KI auf vielerlei Art und Weise Fortschritte machen, und die neuen Intelligenzen werden oft streng miteinander nicht vergleichbar sein. … und der menschlichen Intelligenz absolut nicht vergleichbar. Nicht intelligenter als Menschen und nicht weniger. Nur Ausländer.

Diese außerirdischen künstlichen Intelligenzen mögen gelegentlich ordentlich sein, aber größtenteils werden wir Menschen nicht nach ihnen schreien. Wir sind biologisch unfähig (oder zumindest daran gehindert), außerirdische Intelligenz zu schätzen, und wenn wir gebaut würden, würden wir höflich lächeln und es ignorieren. Und obwohl ein großer Teil unserer Verachtung gegenüber diesen Alien-KIs auf unserem Vorurteil und irdischen Provinzialismus beruhen würde, gibt es auch gute Gründe zu erwarten, dass Alien-Alien wahrscheinlich wertlos sind. Wir sind an KI interessiert, die das macht, was wir tun, aber es ist viel besser. Alien-KI wird dazu neigen, etwas Erstaunliches zu tun, aber nicht das, was wir tun.

Aus diesem Grund streben die meisten KI-Forscher nach "säugetierähnlichen" künstlichen Intelligenzen, die der menschlichen Intelligenz hinreichend ähnlich sind, um einen Vergleich zu ermöglichen. "Ah, diese KI ist eindeutig weniger intelligent als ein Mensch, aber intelligenter als ein Hund. Und diese KI ist so intelligent, dass es mir unangenehm ist, mir brasilianisch zu geben. "KI-Forscher wollen nicht außerirdische Intelligenzen, sondern irdische mallesque Intelligenzen mit kognitiven und Wahrnehmungsmechanismen erschaffen, die wir zu schätzen wissen. Super-Smart AI wird nicht zu einer Singularität führen, es sei denn, es ist super-smart und grob säugetierähnlich.

Aber um eine säugetierähnliche künstliche Intelligenz aufzubauen, müssen wir die Gehirne von Säugetieren verstehen, einschließlich unserer. Insbesondere müssen wir das Gehirn zurückentwickeln – dh bestimmen, was es tut , seine Funktionen . Ohne ein Reverse Engineering sind KI-Forscher in der Position eines Ingenieurs gefragt, ein Gerät zu bauen, aber keine Informationen darüber, was es tun soll.

Reverse Engineering ist in der Tat Teil von Kurzweils naher Zukunft: Das Gehirn wird in ein paar Jahrzehnten zurückentwickelt, glaubt er. Als neurobiologischer Reverse-Engineer bin ich nur ermutigt, wenn ich Forscher finde – ob auf einer Mondbasis oder in den Eingeweiden der Erde -, die das adaptive Design des Gehirns ernst nehmen, was in den Neurowissenschaften oft ignoriert oder aktiv missbilligt wird. Eine ähnliche vordergründige Anerkennung des Reverse Engineering findet man im IBM Cat-Brain und den European Blue Brain-Projekten.

Und es gibt dein Problem für den mehr als zehnjährigen Zeitrahmen für die Singularität! Reverse-Engineering etwas so astronomisch komplex wie das Gehirn ist, astronomisch schwierig – möglicherweise die schwierigste Aufgabe im Universum. Fortschritte beim Verständnis der vom Gehirn ausgeführten Funktionen sind nicht einfach mit mehr Rechenleistung verbunden. In der Tat ist die Bestimmung der Funktion, die von irgendeiner Maschine (ob Gehirn oder Computerprogramm) ausgeführt wird, überhaupt nicht berechenbar (es ist eines dieser Unentscheidbarkeitsresultate aus dem 20. Jahrhundert).

Um zu verstehen, was ein biologischer Mechanismus erfordert, braucht man mehr, als nur das Fleisch in die Finger zu bekommen. Sie müssen auch das Verhalten des Tieres und die Ökologie verstehen, in der es sich entwickelt hat. Biologische Mechanismen, die von der Evolution entwickelt wurden, um unter natürlichen Umständen eine Sache zu tun, können unter nicht natürlichen Umständen oft viele andere unmenschliche Dinge tun, aber nur die ersteren sind relevant für das Verständnis, wofür die Mechanismen sind.

Um das Gehirn zu verstehen, muss man die "Natur" verstehen, in der das Tier sitzt. Und so erfordert der Fortschritt in der KI jemanden, der sich von Ihrem traditionellen KI-Forscher unterscheidet, der in Algorithmen, Logik, neuronalen Netzen und oft Linguistik steckt. AI-Forscher brauchen diese Art von Computerhintergrund, aber sie müssen auch die Ansichten der alten Ethologen wie Nikolaas Tinbergen und Konrad Lorenz besitzen.

Aber die Charakterisierung des Verhaltens und der Ökologie komplexer Tiere muss auf die altmodische Art und Weise erfolgen – Beobachtung auf dem Feld und dann das Testen kreativer Hypothesen über die biologische Funktion. Es gibt keine Abkürzungen, um das Gehirn rückzuentwickeln – es wird keine raffinierte Zukunftsmaschine geben, um in biologische Mechanismen zu blicken und zu erkennen, wofür sie sind.

Reverse Engineering wird sich weiter entwickeln, und ein exponentielles Wachstum der Technologie wird sicherlich bei der Aufgabe helfen – aber es wird nicht zu einem exponentiellen Wachstum in der Geschwindigkeit führen, mit der wir unsere Gehirne zurückentwickeln. 2025 und 2045 – und ich vermute 3000 – werden vorbeiziehen, und das meiste, was unsere Gehirne tun, wird immer noch vage und geheimnisvoll sein.

Mark Changizi ist Professor für menschliche Kognition an 2AI und der Autor von The Vision Revolution (Benbella Books) und dem kommenden Buch Gespannt: Wie Sprache und Musik Natur nachgeahmt und Menschenaffen transformiert (Benbella Books).