Wie man ein Turing-Turnier gewinnt

Ein Artikel in der heutigen Tageszeitung Daily Telegraph sagt sehr viel über Computer aus, die in der Lage sein müssen, mentalistische Fähigkeiten – und insbesondere das volle Sprachverstehen – zu erwerben, die ich kürzlich gemacht habe. Aber wenn Computer so konstruiert werden könnten, dass sie die Sprache ihrer Benutzer verstehen und ihre Absichten interpretieren, dann scheint es wenig Grund zu geben, warum sie nicht auch mental werden sollten, um Bücher zu lesen – und vielleicht noch wichtiger, um sie zu verstehen .

Wikimedia commons
Quelle: Wikimedia Commons

Die Fortschritte in der maschinellen Lesefähigkeit, die wir uns vorstellen, wären das automatisierte Äquivalent der sogenannten Hyperlexie . Dies ist das Gegenteil von Dyslexie und beschreibt die frühzeitige Fähigkeit zu lesen, oft ohne viel Einblick in die Bedeutung eines Textes, und oft in Verbindung mit ASD gefunden. Der verstorbene Kim Peek (links) war extrem hyperlexisch und hatte sich bis zu seinem 16. Lebensmonat das Lesen selbst beigebracht. Tatsächlich zeigten Tests, dass er linke und rechte Seiten eines offenen Buches mit linken und rechten Augen gleichzeitig und mit 98 Prozent Verständnis in 8 bis 10 Sekunden lesen konnte. Dank solch erstaunlicher Fähigkeiten gelang es ihm in einer Stunde und 25 Minuten durch Tom Clancys Roman Die Jagd auf den Roten Oktober zu kommen , und vier Monate später war er immer noch in der Lage, wörtliche Zitate als Antwort auf spezifische Fragen des sachlichen Details zu geben!

Obwohl er diese erstaunliche, maschinenähnliche Fähigkeit hatte, Text wörtlich zu reproduzieren, fand Peek es sehr schwierig, den Inhalt dessen, was er in seinen eigenen Worten gelesen hatte, zu erzählen, und zeigte in einer Weise, die typisch für Hyperlexie ist, schwerwiegende Defizite beim Verständnis anstatt zu wiederholen, war das, was er gelesen hatte, beunruhigend. Und hier findet sich wieder eine fesselnde Parallele in Computern, die heutzutage auch hyperlexisch sind, in dem Sinne, dass sie Ihnen Text vorlesen können, ohne dass es überhaupt einen Sinn hat!

Die grundlegende Schwierigkeit für das Computerdesign in Bezug auf das Entwickeln der Fähigkeit einer Maschine, ein Buch zu lesen und zu verstehen, steht in engem Zusammenhang mit der Fähigkeit, die Sprache einer Person zu verstehen. Beide beruhen auf Sprachfähigkeiten, insbesondere aber auf der Fähigkeit, mentalistische Terminologie zu verstehen und mentale Zustände wie Glauben, Wissen und Intention zu schätzen. Sobald jedoch eine solche Terminologie für einen Computer durch die Entwicklung einer mentalistischen Benutzerschnittstelle zugänglich wurde, wie es in dem vorherigen Beitrag vorgeschlagen wurde, würde dies auch das riesige Depot menschlichen Wissens sein, das in den Büchern der Welt kodiert ist. Das eigentliche Problem ist das beträchtliche Maß an gesundem Menschenverstand, das man auch braucht, um zu interpretieren, was man liest: nicht nur, was Wörter im Wörterbuch bedeuten, sondern was sie in ihrem sozialen, kulturellen und psychologischen Kontext bedeuten.

Wie bei autistischen Menschen kann auch von Computern erwartet werden, mentalistische Defizite zu haben, wenn es ums Verstehen geht – und nirgendwo so offensichtlich wie in Bezug auf einen anderen grundlegenden Aspekt des Mentalismus, wo man Defizite im Autismus findet: die Wertschätzung von Humor. Nach einem Vortrag, den er hielt, fragte ein Zuschauer Kim Peek nach der Adresse von Abraham Lincoln in Gettysburg, auf die Peek antwortete. "Will's House, 227 Nord West Front Street. Aber er blieb nur eine Nacht dort – er hielt die Rede am nächsten Tag. "Das Lachen, das diese Bemerkung begrüßte, überraschte Peek zunächst, aber nachdem er den Witz selbst gesehen hatte, fuhr er den Kommentar regelmäßig für seine komische Wirkung zurück.

Wenn man einen intelligenten Computer über Lincolns Gettysburg-Adresse befragt, könnte man leicht verstehen, wie das System genau denselben Fehler machen könnte. Aber da solche Missverständnisse sehr wahrscheinlich sind, werden Softwareingenieure mit dem Problem konfrontiert, wie man mit derartigen Zusammenbrüchen in der Kommunikation zwischen Benutzer und Maschine umgeht, und hier wäre eine naheliegende Lösung, die Natur nachzuahmen und der Maschine einen Fähigkeit, über seine eigenen Fehler zu lachen (ganz zu schweigen davon, dass die Witze des Benutzers amüsant sind). Als Mindestanforderung müßte eine kompetente mentalistische Schnittstelle in der Lage sein, Ironie zu schätzen (ein weiteres großes Defizit bei Autisten), und ein wahrhaft intelligentes System müßte den Humor in all seinen Formen verstehen, wenn es versuchen würde, es zu verstehen seine menschlichen Benutzer.

Und auf jeden Fall wird unbeabsichtigte Heiterkeit wahrscheinlich von sprechenden Computern erzeugt, wie von kleinen Kindern. Ingenieure, die ihre mentalistischen Benutzerschnittstellen in dieser Hinsicht erwachsener erscheinen lassen, würden sicherlich auf Entwicklungen aufbauen, die bereits zur Entwicklung der Fähigkeit des Systems, mit Humor umzugehen, beitragen, und dies würde nicht nur die Vermeidung kindlicher Solekismen und lächerlicher Doppelgänger erfordern Enthusiasten , aber Wertschätzung von echten Witzen und vielleicht sogar die Fähigkeit, sie zu erzählen. In der Tat könnte man sich sogar vorstellen, dass der Sinn für Humor des Systems ein benutzerdefinierter Parameter ist: mit Einstellungen, die von der wahnsinnig verrückten bis zur knappen Teutonic reichen!

Vergleichbare Einschränkungen in Bezug auf die Fähigkeit von Computern, kontextbezogenes Wissen mit gesundem Menschenverstand zu handhaben, bedeutet, dass Turing-Tests, die entwickelt wurden, um zu sehen, ob die Antworten eines Computers von denen einer Person unterschieden werden können, im Hinblick auf das Diskussionsthema nicht vollständig offen sind. Maschinen haben sich sehr gut mit Wein, Politik und Religion als Gesprächsstoff getan (vermutlich, weil es sich um Themen handelt, über die man völligen Unsinn reden und trotzdem ernst genommen werden kann). In der Tat hat ein Programm sogar einen Turing-Test bestanden, bei dem fünf von zehn Richtern davon überzeugt waren, dass es sich um einen menschlichen Psychotherapeuten handelte (zugegebenermaßen etwas, das ebenso viel über Psychotherapie aussagen könnte wie über die Intelligenz einer Maschine)!

Wenn jedoch Computer so leicht Zugang zu einem beliebigen Gegenstand wie irgend einem Menschen erlangen und sich Wissen darüber aneignen könnten, wäre es nicht notwendig, die Versuchspersonen im Test einzuschränken – und vermutlich auch nicht, auf die eine Person ihr eigentümlich menschliches Wissen anwenden könnte beurteilen, ob das System, mit dem sie interagieren, auf einer Maschine läuft oder nicht. Im Gegensatz dazu, wenn die Computerkompetenz eine höhere Ordnung als die des menschlichen Richters hätte, könnte die Maschine den Vorteil haben.

Aber natürlich könnte die Maschine immer noch versagen – vielleicht, weil sie zu viel zu wissen schien oder im Vergleich mit dem durchschnittlichen Menschen immer noch etwas "autistisch" wirkte. Selbst wenn solche Systeme für völlig normale Personen noch nicht durchgehen könnten, könnten sie leicht zu den Maschinenäquivalenten von autistischen Spionen wie Kim Peek werden. Sein Fachwissen war in erster Linie ein enzyklopädisches Wissen von Hunderten von Büchern, und vermutlich könnte ein mentalistisch programmierter Computer, der eine äquivalente Menge lesen könnte, vergleichbare Leistungen erzielen und sich als eine ähnliche Art von Gelehrter präsentieren. Tatsächlich deuten diese Überlegungen auf einen offensichtlichen Trick für Programmierer hin, die eine Turing-Test-Software schreiben wollen: Erklären Sie sowohl die Stärken als auch die Schwächen des kognitiven Stils Ihres Systems, indem Sie ihn als autistischen Gelehrten maskieren!

(Extrahiert und kondensiert aus meinem vierteiligen Buch Der Diametrische Geist: Einsichten in KI, IQ, Gesellschaft und Bewusstsein: eine Fortsetzung des Imprinted Brain .)