Computer haben kein soziales Urteil

istock subsciption
Quelle: istock subscription

Ein neuer Fender Bender, bei dem ein Google Self-Driving Car von einem Bus angefahren wurde, während er versuchte, sich davor zu verschmelzen, hat die autonome Autoindustrie in den Schatten gestellt. Als Beispiel für die Demoralisierung, die der Unfall verursacht hat, hat ein Google-Chef erklärt, dass es drei Jahrzehnte dauern könnte, um das durch diesen Rückschlag aufgedeckte Problem zu lösen. Das Problem ist, dass der Computer des Autos vorhergesagt hat, dass der Bus anhalten würde, um das sich verschmelzende Auto davor fahren zu lassen, aber der Busfahrer hat sich nicht wie vorhergesagt verhalten. Google übernahm die Verantwortung für den Unfall und stellte gleichzeitig fest, dass der menschliche Fahrer durch (meine Worte) unhöflich zum Unfall beigetragen habe. (Für einen Bericht über den Google-Unfall und seine Folgen siehe folgenden Link: theverge.com).

Als er kürzlich diese Geschichte mit einem selbstfahrenden Autofan diskutierte, sagte er, das wahre Problem sei die öffentliche Reaktion. Er wies darauf hin, dass Kotflügeln in Autos, die von Menschen betrieben werden, extrem häufig vorkommen, ohne große Besorgnis auszulösen, und dass das Ziel eines vollständig autonomen Autos näher an der Realität liegt, als die meisten Menschen erkennen. Das PR-Problem ist offensichtlich ein Problem, obwohl ich es als eng verbunden mit der Chimäre der Perfektionierung der Unfallvermeidungsquest sehe. In einer kürzlich durchgeführten AAA-Umfrage gaben 75% der Fahrer an, dass sie nur äußerst ungern die vollständige Kontrolle über ihr Autofahren abgeben würden. Wahrscheinlich würde die Zahl der Skeptiker erheblich sinken, wenn sich selbstfahrende Autos als absolut sicher erweisen würden. Ein paar tödliche oder fast tödliche Unfälle könnten meiner Meinung nach dazu führen, dass die selbstfahrende Autoinitiative für lange Zeit, vielleicht für immer, im Regal steht. Glaubt irgendjemand außer einem Software-Visionär wirklich, dass eine solche Sicherheitsperfektion jemals erreichbar ist, oder dass eine weit verbreitete öffentliche Akzeptanz in Ermangelung nahezu perfekter Perfektion jemals wahrscheinlich ist? Auf die Gefahr hin, mich in die gleiche Kategorie wie die Skeptiker zu stellen, die über die Demonstration von Äther oder einer Reihe anderer Innovationen lachten, ist meine Antwort auf die autonom treibenden Unternehmer "träume".

Diejenigen, die glauben, dass selbstfahrende Autos sind in der Nähe eines Grundstücks Punkt zu dem Tesla-Modell-S voll Elektroauto, das eine selbstfahrende ("Autopilot") -Modus hat, die ein Fahrer aktivieren kann. Laut meinem Freund. Man kann heute in einem selbstfahrenden Tesla Hunderte von Kilometern auf der Interstate fahren und dabei ablenkende Dinge wie das Lesen einer Zeitung machen. Als ich diese Überraschung fand, überprüfte ich die Behauptung und fand sie etwas übertrieben. Laut Teslas Gründer und CEO Elon Musk muss die selbstfahrende Option (die er als eine unvollkommene Beta-Version bezeichnet) immer mit den Händen am Steuer benutzt werden, was sicherlich das Lesen einer Zeitung ausschließen würde. Musk räumte kürzlich einige katastrophale Vorfälle ein, aber er gab den Fahrern die Schuld, die diese Warnung ignorierten, indem sie ihre Hände vom Steuer nahmen. Bei diesen Vorfällen handelte es sich hauptsächlich um sogenannte nicht-soziale (dh Gelände-lesende) Fehler, aber fast jede Fahrentscheidung, insbesondere wenn andere Fahrzeuge Teil des Geländes sind, macht eine gewisse soziale Beurteilung des Betreibers erforderlich, unabhängig davon, ob der Betreiber ein solcher ist Mensch oder ein Computer. (Für einen Bericht über einige Tesla-S Beinahe-Misses, siehe technologyreview.com).

Unterstützung für die Behauptung, dass man heute Hunderte von Meilen auf Tesla-Autopiloten fahren kann, findet sich in einer gut beachteten Überlandreise, die in einem Tesla-S gemacht wurde, der die Reise in Rekordzeit machte. Was jedoch nicht allgemein bekannt ist, ist, dass es während der Reise drei Zwischenfälle gab, bei denen ein schwerer Unfall nur knapp abgewendet wurde. Bei einem dieser Vorfälle erreichte das Auto eine Kurve mit 90 Meilen pro Stunde (weit über der Höchstgeschwindigkeit) und das Auto hätte die Kontrolle verloren, wenn der Mensch nicht schnell die Kontrolle übernommen hätte. Das Problem schien zu sein, dass der Computeralgorithmus des Autos es forderte, der Spur oder der Mittellinienmarkierung in einer Standardentfernung zu folgen, aber erfahrene Fahrer wissen, dass man eine hohe Geschwindigkeit korrigieren muss (zusätzlich zur Verlangsamung), indem man eine Kurve näher als üblich an der Spitze der Straße, um den Grad der Radumdrehung zu reduzieren, die erforderlich ist, um die Kurve sicher zu bewältigen. Die Schlussfolgerung hier scheint zu sein, dass das Auto noch nicht sicher mit hoher Geschwindigkeit autonom arbeiten kann. Ein weiterer Beinahe-Unfall ereignete sich, als das Auto durch die Aktion eines anderen Autos verwirrt wurde und die Mittellinie der Straße überquerte und den Tesla-S in den Gegenverkehr lenkte und was eine tödliche Frontalkollision hätte sein können.

Interessanterweise hat Google den Busfahrer teilweise für seinen Unfall verantwortlich gemacht. Tesla hat jedoch seine Kunden für solche Vorfälle verantwortlich gemacht und die Besitzer gewarnt, dass die finanzielle Haftung im Falle eines Unfalls im Autopilot-Modus vollständig beim Fahrer liegt. Dazu sage ich "viel Glück, Elon, das einem Richter zu sagen, wenn ein schwer verletzter Kunde oder die Familie des toten Eigentümers Sie verklagt." Tatsächlich haben einige Kommentatoren Tesla aus ethischen und rechtlichen Gründen dazu gebracht, einen unvollkommenen Autopiloten zur Verfügung zu stellen wenn es vorhersehbar ist, dass viele Besitzer fälschlicherweise davon ausgehen, dass es sich um ein voll funktionsfähiges und damit völlig sicheres, selbstfahrendes Fahrzeug handelt. Tesla's Motive für die Serienproduktion ein eindeutig unfertiges Produkt? Das wahrscheinlichste Ego (Musks Behauptung, dass er bei der KI-Rasse der Konkurrenz von Google und anderen Konkurrenten voraus ist) und natürlich monetär (Leute dazu zu bringen, die ziemlich teuren Produkte des Unternehmens zu kaufen).

Während es scheint, dass nicht-soziale Situationen (wie mehrdeutige, verwirrende oder schlecht entworfene Mittellinien oder Auf-Rampen) eine sehr harte Nuss für die selbstfahrende Autoindustrie bleiben, glaube ich, dass das Haupthindernis für ihren letztendlichen Erfolg liegt im sozialen Bereich. Wie der Busunfall illustriert, beruhen die Entscheidungen eines selbstfahrenden Autos zum Teil auf Vorhersagen darüber, was der Fahrer eines anderen Autos wahrscheinlich tun wird, aber wenn wir etwas über menschliches Verhalten wissen, ist es nicht vollständig vorhersehbar, rational oder höflich (zum Beweis) Dazu braucht man nur die jüngsten politischen Entwicklungen im Nahen Osten oder in den Vereinigten Staaten zu betrachten. Darüber hinaus können Fahrer, die die Straße mit einem autonomen Fahrzeug teilen, Sehprobleme haben, in einem beeinträchtigten, unaufmerksamen oder erregten Zustand sein oder es fehlt ihnen an Fahrkompetenz, was dazu führen kann, dass sie plötzliche gefährliche Bewegungen machen, die keinen anderen Computer als vielleicht den größten der Welt haben Super-Computer wird jemals in der Lage sein, sich schnell genug anzupassen. Tatsache ist, dass ein erfahrener und kompetenter Fahrer immer das Verhalten und die Absichten anderer Fahrer "liest" und in Sekundenbruchteilen reagiert, die nicht auf Wahrscheinlichkeiten beruhen, sondern auf Echtzeit-Schlussfolgerungen und Wahrnehmungen.

Eine Illustration für die soziale Urteilsbasis für viele Unfälle findet sich in der Erfahrung von jugendlichen Fahranfängern, deren Eltern aus gutem Grund sehr hohe Versicherungsprämien zahlen. Meine Haarschneiderin erzählte mir kürzlich die Geschichte ihres 18-jährigen Sohnes, der innerhalb der ersten fünf Tage nach Erhalt seiner Lizenz zwei (glücklicherweise) leichte Unfälle hatte. Keiner von ihnen war technisch sein Fehler, aber die Tatsache bleibt, dass beides wahrscheinlich nicht passiert wäre, wäre er ein oder zwei Jahre älter gewesen. Bei einem der Unfälle fuhr der junge Mann mit, als ein Auto von einer Einfahrt rechts in die Straße einbog und in die Beifahrertür des Neophyten-Fahrers eindrang. Die Erklärung des jungen Mannes ist, dass er sich auf den bevorstehenden Weg konzentrierte und die Möglichkeit eines solchen Ereignisses nicht in Betracht zog. Mit ziemlicher Sicherheit gab es subtile Hinweise, wie das andere Auto, das auf die Straße zusteuert und aussah, als könnte es aussteigen. Es ist auch wahrscheinlich, dass er selbst unbewusst zu dem Problem beigetragen hat, etwa indem er scheinbar dem anderen Auto signalisiert hätte fahren können. Ein erfahrener und sorgfältiger Fahrer ist auf solche (im Wesentlichen sozialen) subtilen Signale eingestellt und ist sich der Notwendigkeit bewusst, einen fortlaufenden Strom von Risikobewertungsberechnungen zu betreiben. Ein unerfahrener Fahrer, wie dieser junge Mann, ist zutiefst egozentrisch, da er beim Autofahren nur seine eigene Sichtweise betrachtet, und auch bei vielem anderen. Meiner Meinung nach ist mir nicht klar, wie ein computergesteuertes Auto besser wäre als ein Neuling, der solche subtilen sozialen Signale liest und ausstrahlt.

Softwareentwickler sind gut darin, physische Probleme zu lösen, aber sie haben soziale Urteilsprobleme noch nicht oder nur wenig beachtet. Das Bewusstsein für diese Realität wurde mir vor einigen Jahren auf einer jährlichen Konferenz in Colorado vermittelt, die sich mit der Anwendung von Technologie für Menschen mit kognitiven Behinderungen beschäftigt. Bei allen gelehrten Vorträgen ging es um die Anwendung von Software und Hardware bei physischen Problemen, beispielsweise bei Mobilitätsproblemen. Als ich an der Reihe war, sprach ich über einen Film, den das Publikum gerade über einen geistig behinderten Mann gesehen hatte, der von seinen lieben Nachbarn unterstützt wurde und es ihm ermöglichte, weiterhin in seinem New Yorker Wohnhaus zu leben. Jede der Herausforderungen, die sein Fortbestehen in dem Gebäude gefährdeten, war gesellschaftlicher Natur, wie seine extreme Leichtgläubigkeit (mein besonderes Interesse), die sich darin widerspiegelt, dass er den Anwohnern den Schlüssel zu seiner Wohnung verlieh (die die Nachbarn terrorisierte, stahl) Dinge und beschädigte das Gebäude auf verschiedene Arten). Als ich die Computer-Behörden (einige legendäre) herausforderte, die auf der Konferenz versammelt waren, um zu sagen, wie Technologie solche sozialen Urteils (und Einsamkeits-) Verhaltensweisen lösen könnte, war die Antwort eine der Stille.

Die selbstfahrende Bewegung ist nicht nur als automobiles Phänomen interessant, sondern auch als Illustration von Entwicklungen auf dem Gebiet der künstlichen Intelligenz (KI). Google ist ein Beispiel für ein Unternehmen, das extrem bullisch ist in Bezug auf die Fähigkeit seiner Informatiker, die Fortschritte bei der Miniaturisierung von Chips zu nutzen, um die menschliche Funktionsweise durch KI zu verbessern. Vielleicht ist das führende Beispiel einer solchen Einstellung Raymond Kurzweil – ein genialer Erfinder vieler selbsternannter Computergeräte (und jemand, der als ein moderner Thomas Edison gilt) – der nun Vollzeit als Google-Resident-Zukunftsforscher arbeitet. Kurzweil hat mehrere Bücher geschrieben und in vielen Vorträgen seine optimistische Sicht auf die Zukunft des "Transhumanismus" (der Einsatz immer raffinierterer Technologien zur Verbesserung der menschlichen Intelligenz) und die "Singularität" (der Einsatz von Technologie zur Veränderung der menschlichen Biologie, etwa durch Heilung) preist Krankheit und Verlängerung der menschlichen Lebensspanne). Zentral für diese Konzepte ist Kurzweils etwas kontroverse Überzeugung, dass das Wesen der Intelligenz die Mustererkennung ist (etwas, wozu Computer gut sind) und dass Informatiker schließlich in der Lage sein werden, eine verbesserte Version des menschlichen Gehirns zu konstruieren. Kompetentes Autofahren, das stark von der Mustererkennung abhängt, scheint somit eine offensichtliche Erweiterung des KI-Konzepts zu sein. Ein Problem mit großen Genies (wie Kurzweil) und großen Unternehmen (wie Google) ist, dass sie oft Schwierigkeiten haben zu wissen, wann sie ein "Problem zu weit" übernommen haben. Meine eigene Überzeugung ist, dass ein selbstfahrendes Auto dazu in der Lage ist Das Erkennen und Reagieren auf die Hunderten von Herausforderungen, die sich aus sozialer und physischer Beurteilung ergeben, um sicher von Punkt A nach Punkt B zu gelangen, wird sich als ein Problem herausstellen, das zu Kurzweils Lebenszeit nicht gelöst werden kann, selbst wenn es ihm gelingt, seine Biochemie zu verändern [aus einer Höhe von 200] Pillen pro Tag) und lebt für weitere hundert Jahre.

Copyright Stephen Greenspan