David Chalmers und die Singularität, die wahrscheinlich nicht kommen wird

David Chalmers ist ein Philosoph des Geistes, am bekanntesten für seine Argumentation über die Schwierigkeit dessen, was er das "harte Problem" des Bewusstseins nannte, das er typischerweise durch ein Gedankenexperiment mit Zombies diskutiert, die genau wie Menschen handeln und sprechen habe keinen bewussten Gedanken (ich habe in meinem Essay über "Die Zomifizierung der Philosophie" klar dargelegt, was ich von so etwas halte).

Gestern hatte ich das Vergnügen, Chalmers live im Graduate Center der City University von New York live zu erleben. Er erzählte nicht von Zombies, sondern von seinen Gedanken über die sogenannte Singularität, den angeblichen Moment, in dem die künstliche Intelligenz die menschliche Intelligenz übertreffen und entweder zur Hölle oder zur nächsten glorreichen Phase der menschlichen Evolution führen wird – je nachdem, ob Normalerweise sieht man das Glas halb leer oder halb voll. Das Gespräch machte mir klar, was Chalmers Problem ist (abgesehen von seinem wirklich schlechten Haarschnitt): Er liest zu viel Science-Fiction und ist offensichtlich nicht in der Lage, aus der notwendigen Aussetzung des Unglaubens herauszukommen, wenn er in die reale Welt zurückkommt. Lassen Sie mich erklären.

Das Argument von Chalmers (und anderen Befürwortern der Möglichkeit einer Singularität) beginnt mit der einfachen Beobachtung, dass Maschinen in den letzten Jahren eine außerordentliche Rechenleistung erreicht haben, ein Trend, den man auf eine Explosion der Intelligenz in naher Zukunft extrapolieren kann. Schade, dass, wie jeder Statistiker 101 wissen sollte, die Extrapolation eine sehr schlechte Möglichkeit ist, Vorhersagen zu treffen, es sei denn, man kann einigermaßen sicher sein, die zugrundeliegenden kausalen Phänomene zu verstehen (was wir im Fall von Intelligenz nicht tun). (Ich stellte Chalmers eine Frage in diesem Zusammenhang, und er bestritt, das Wort Extrapolation überhaupt benutzt zu haben. Ich habe mit mehreren Kollegen über Wein und Käse gesprochen, und alle bestätigten, dass er es tat – mehrmals.)

Wie dem auch sei, Chalmers fuhr fort, sein Hauptargument für die Singularität zu präsentieren, die ungefähr so ​​lautet:

1. Es wird bald KI (dh künstliche Intelligenz) geben
2. Es wird dann bald einen Übergang von AI zu AI + geben
3. Es wird dann bald einen Übergang von AI + zu AI ++ geben

Daher wird es AI ++ geben

Auf alle drei Prämissen und die Schlussfolgerung folgte eine in Klammern gesetzte Aussage, dass jeder nur "abwesende Petzer" enthält, dh abwesend, was einem der oben genannten Punkte im Wege steht.

Chalmers war offensichtlich sehr stolz auf seine Argumentation, aber ich hatte das Gefühl, dass nur wenige Menschen beeindruckt waren, und das war ich auch nicht. Zunächst einmal weigerte er sich konsequent zu definieren, was AI ++, AI + oder sogar AI eigentlich bedeuten. Dies ist, in einer philosophischen Rede, eine ziemlich schwere Sünde, weil die philosophische Analyse erst dann auf den Weg kommt, wenn wir einigermaßen klar darüber sind, worüber wir sprechen. Tatsächlich zielt ein Großteil der philosophischen Analyse darauf ab, Konzepte und ihre Beziehungen zu klären. Sie wären bei der Suche nach irgendeiner philosophischen Analyse in Chalmers 'Rede hart (und zunehmend frustriert) gewesen.

Zweitens hat Chalmers keinen einzigen Grund für irgendeinen seiner Schritte angegeben, sondern einfach jede Prämisse angegeben und hinzugefügt, dass wenn AI möglich ist, dann gibt es keinen Grund zu der Annahme, dass AI + (was auch immer das ist) nicht möglich, tatsächlich wahrscheinlich, und bald. Aber, mein Freund, wenn Sie eine neue Behauptung machen, liegt die Beweislast bei Ihnen, zu argumentieren, dass es gute Gründe dafür gibt zu glauben, dass das, was Sie vorschlagen, wahr sein könnte, nicht für den Rest von uns, um zu beweisen, dass dies nicht der Fall ist . Die Beweislast zu verlagern, ist der älteste Trick in der rhetorischen Werkzeugkiste, und nicht einer, den ein Philosoph, der sich selbst respektiert, vor seinen Kollegen (oder anderswo sonst) einsetzen sollte.

Drittens, beachten Sie den Haftungsausschluss in Klammern, dass eine der Prämissen, sowie die Schlussfolgerung, nicht wirklich halten wird, wenn ein "Defeater" in die Quere kommt. Als Chalmers während der Q & A gefragt wurde, was er mit den Schiedsrichtern meinte, sagte er ziemlich viel, was Menschen oder die Natur auf die Entwicklung künstlicher Intelligenz werfen könnten. Aber wenn das der Fall ist, und wenn wir nicht mit einer Klassifizierung und Analyse solcher Defeater versehen sind, dann lautet das ganze Argument: "X ist wahr (es sei denn, etwas beweist, dass X nicht wahr ist)." Nicht so beeindruckend.

Der andere Elefant im Raum ist natürlich das Konzept der "Intelligenz", künstlich oder menschlich. Dies ist ein notorisch schwieriges Konzept zum Auspacken und noch mehr zum quantitativen Messen (was notwendig wäre, um den Unterschied zwischen AI und AI + oder AI ++ zu erkennen). Mehrere Leute bemerkten dieses Problem, einschließlich mir selbst in der Q & A, aber Chalmers beiseite Kavalierly beiseite und sagen, dass seine Argumentation nicht auf menschliche Intelligenz oder Rechenleistung oder Intelligenz im weiteren Sinne, sondern nur auf eine unbestimmte Menge "G", die Er assoziierte schnell mit einer nicht spezifizierten Menge kognitiver Fähigkeiten durch eine ebenso unspezifische mathematische Kartierungsfunktion (fügte hinzu, dass "mehr Arbeit getan werden müsste", um eine solche Vorstellung zu konkretisieren – kein Scherz). "Ja wirklich?" Aber warten Sie mal, wenn wir diese ganze Diskussion über die Singularität mit einem Argument basierend auf der Extrapolation von Rechenleistung beginnen würden, sollte sich unsere Diskussion nicht auf die Rechenleistung beschränken? (Was natürlich nicht dasselbe ist wie Intelligenz.) Und wenn wir über KI sprechen, wofür steht das "Ich" da drin, wenn nicht Intelligenz – vermutlich von einer menschenähnlichen Art?

Tatsächlich besteht das Problem der KI-Bemühungen im Allgemeinen darin, dass wir nach jahrzehntelangen Versuchen kaum Fortschritte zu verzeichnen haben, wahrscheinlich aus dem guten Grund, dass die menschliche Intelligenz nicht algorithmisch ist, zumindest nicht im selben Sinne wie Computerprogramme. Ich rufe ganz bestimmt nicht Mystik oder Dualismus hervor, ich denke, dass Intelligenz (und Bewusstsein) das Ergebnis der Aktivität eines physischen Gehirnsubstrats sind, aber gerade die Tatsache, dass wir Maschinen mit einer gewissen Rechenleistung und Geschwindigkeit bauen können übertrifft jene des menschlichen Geistes, und doch sind sie nicht annähernd "intelligent", sollte es ziemlich klar machen, dass das Problem nicht Rechenleistung oder Geschwindigkeit ist.

Nach dem Einsatz des oben erwähnten, höchst fragwürdigen "Arguments", wurde es in Chalmers 'Worten bizarr. Er fuhr fort, uns zu sagen, dass A ++ durch simulierte Evolution in einer virtuellen Umgebung geschehen wird – und dadurch eine verschwommene und verwirrte Mischung aus verschiedenen Begriffen wie natürliche Selektion, künstliche Selektion, physische Evolution und virtuelle Evolution hervorbringt.

Das brachte natürlich die Frage auf, wie wir die Singularität kontrollieren und "sie" davon abhalten, uns in die Auslöschung zu treiben. Die bevorzugte Lösung von Chalmers besteht entweder darin, das "Lecken" von AI ++ in unsere Welt zu verhindern oder für moralische Werte während des (virtuellen) evolutionären Prozesses auszuwählen. Dumm ich, ich dachte, dass der einfachste Weg, die Bedrohung von AI ++ zu stoppen, wäre, einfach die Maschinen, die die vermeintliche virtuelle Welt betreiben, zu trennen und damit fertig zu werden. (Übrigens, was bedeutet es für eine virtuelle Intelligenz zu existieren? Wie "leckt" es in unsere Welt? Wie ein Star Trek Hologramm verrückt geworden?)

Dann eskalierte die Ebene der unbegründeten Absurdität noch schneller: Vielleicht sind wir tatsächlich ein Beispiel für virtuelle Intelligenz, sagte Chalmers, und unser Schöpfer könnte sich darauf vorbereiten, uns abzuweisen, weil wir vielleicht bald in seine / ihre Welt auslaufen . Aber wenn nicht, dann sollten wir darüber nachdenken, wie wir uns in AI ++ integrieren können, was natürlich durch "Hochladen" unserer neuralen Struktur (Chalmers 'Empfehlung ist ein Neuron nach der anderen) in die virtuelle Intelligenz geschehen könnte – wiederum, was auch immer das ist könnte bedeuten.

Schließlich hat Chalmers – offensichtlich durch seine eigene Sterblichkeit beunruhigt (naja, wer ist das nicht?) – die Hoffnung geäußert, dass A ++ die Technologie (und das Interesse, nehme ich an) das Gehirn zurückentwickeln könnte, vielleicht aus einer Sammlung von Scans, Bücher und Videos von ihm, und bringen ihn wieder zum Leben. Du siehst, er glaubt nicht, dass er lange genug leben wird, um die Singularität tatsächlich zu erleben. Und das ist der einzige Teil des Vortrags, dem wir tatsächlich zugestimmt haben.

Der Grund, warum ich so lange von Chalmers abgrundtiefer Leistung sprach, ist, dass gerade dies der Art ist, die der Philosophie einen schlechten Namen gibt. Es ist schön zu sehen, dass Philosophen ein ernsthaftes Interesse an der Wissenschaft haben und ihre Werkzeuge und Perspektiven an den Tisch der wichtigen gesellschaftlichen Debatten über die Zukunft der Technologie bringen. Aber der Versuch wird zu einem nicht besonders lustigen Witz, wenn ein bekannter Philosoph mit einem wirklich schlechten Argument beginnt und am jährlichen Kongress mehr Kuckuck als Trekkie-Fans hört. Nun, wenn Sie mich entschuldigen, werde ich zurück zur nächsten Episode von Battlestar Galactica gehen, wo Sie alle grundlegenden Ideen, die von Chalmers besprochen werden, auf eine viel unterhaltsamere Art und Weise präsentieren können als seine Rede.