AI’s tiefes Problem

Nach dem Vorbild des menschlichen Gehirns ist Deep Learning undurchsichtig

Public Domain Archive

Quelle: Öffentliches Domänenarchiv

Künstliche Intelligenz wird zum Teil am menschlichen Gehirn modelliert; und es gibt ein tiefes Problem mit diesem Ansatz. Maschinelles Lernen ist eine Teilmenge der künstlichen Intelligenz (KI), bei der Computerprogramme ohne explizite Programmierung automatisch aus Daten lernen. Teilweise von der menschlichen Biologie inspiriert, ist Deep Learning eine Methode des maschinellen Lernens, bei der Schichten künstlicher Neuronen, sogenannte Knoten, in einem künstlichen Gehirn, einem neuronalen Netzwerk, zum Einsatz kommen. Neurowissenschaftler und Psychologen müssen erst noch vollständig verstehen, wie das menschliche Gehirn funktioniert. In ähnlicher Weise gibt es ein großes Problem mit tiefem Lernen; Wissenschaftler wissen nicht wirklich genau, wie tiefes Lernen ihre Entscheidungen trifft. In beiden Fällen liegt der Mangel an Transparenz in der Komplexität.

Das menschliche Gehirn ist komplex; Forscher schätzen, dass ein männliches menschliches Gehirn im Durchschnitt 86 Milliarden Neuronen hat [1]. Humane Neuroanatomie-Lehrbücher messen die Zahl gewöhnlich näher bei 100 Milliarden Neuronen. Ähnlich wie das menschliche Gehirn besteht Deep Learning aus dicht miteinander verbundenen Verarbeitungsneuronen oder Knoten, die in mehreren Schichten angeordnet sind. Deep Learning erfordert keine explizite Programmierung, da es aus großen Mengen von Eingabedaten lernen soll. Zum Beispiel hat Googles Programm für das tiefe Lernen gelernt, Katzenbilder zu erkennen, nachdem sie 10 Millionen YouTube Video-Thumbnails gefüttert haben, ohne die Bilder hart zu kodieren oder zu kennzeichnen [2].

Um zu verstehen, warum tiefes Lernen außerordentlich komplex ist, muss man den funktionalen Prozess selbst verstehen. Neuronale Netzwerke finden Muster in großen Datenmengen und entwickeln dann die Fähigkeit zur Konzeptualisierung und Verallgemeinerung. Riesige Datenmengen werden in die künstlichen neuronalen Netze eingespeist. Die erste Knotenschicht verarbeitet die Daten und bewegt sich dann zu den nachfolgenden Knotenschichten, bis die letzte Schicht erreicht ist, und es wird eine einzige Entscheidung getroffen. Bei der Verarbeitung werden Gewichte für die Knoten und für die Stärke der Verbindung zwischen Knoten wie den Synapsen des Gehirns mathematisch berechnet. Das neuronale Netz erzeugt ein Modell mit mehr als Milliarden, wenn nicht Billionen von Parametern, die auf komplizierten Verbindungen zwischen den Knoten beruhen. Es ist diese inhärente Komplexität im Modell, die es unmöglich macht, genau zu bestimmen, wie tief das Lernen seinen Output produziert.

Die Undurchsichtigkeit des tiefen Lernens wird in verschiedenen Bereichen der Ethik, der Rechtswissenschaft und der Qualitätskontrolle problematisch. Zum Beispiel bewegt sich die Autoindustrie mit Hilfe von Deep-Learning-Technologie schnell in Richtung autonomer Fahrzeuge. Im Falle eines Unfalls gibt es keine definitive Möglichkeit, die Gründe für die Entscheidungen neuronaler Netze in einem autonomen Fahrzeug zu verstehen. Wer ist in solchen Fällen schuld? Die Frage stellt ein ethisches und juristisches Dilemma für alle Beteiligten dar, einschließlich der Verletzten, Fahrgäste, Versicherungsgesellschaften und Automobilhersteller. Wie beurteilt ein Verbraucher die Qualität eines autonomen Fahrzeugs, ohne den Entscheidungsprozess des Fahrers zu verstehen?

Ein anderes Beispiel ist der Einsatz von Deep Learning zur Bildanalyse im Gesundheitswesen für bestimmte Krebsarten und diabetische Retinopathie [6]. Würdest du der Krankheitsdiagnose eines Deep Learning-Modells vertrauen, ohne zu wissen, warum es gemacht wurde? Ein menschlicher Arzt kann seine Argumentation und Logik erklären, wenn er vom Patienten befragt wird. Dies ist beim tiefen Lernen nicht der Fall.

Das Ausmaß des Transparenzproblems von AI wächst und wird erst in Zukunft mit zunehmender Automatisierung ein größeres Problem darstellen. Der jüngste Durchbruch bei Kommerziellen und Forschungsdurchbrüchen bei KI ist größtenteils auf erhöhte Rechenleistung über GPU-Beschleuniger zurückzuführen, um eine massive Parallelverarbeitung zu erreichen, im Gegensatz zu einer zentralen Verarbeitungseinheit (CPU), die Informationen seriell und sequentiell verarbeitet [5]. Zum Anstieg der KI tragen auch das dezentrale cloudbasierte Computing und die Verfügbarkeit großer Datenmengen bei. Maschinelles Lernen wird für Spracherkennung, autonome Fahrzeuge, Bildverarbeitung, Handschrifterkennung und mehr verwendet. Das Niveau von AI-Power und Raffinesse wurde demonstriert, als Google DeepMinds AlphaGo-Programm, ein Deep-Learning-Modell, die besten menschlichen Go-Spieler der Welt besiegte [3]. Deep-Learning-Algorithmen sind Teil der Spracherkennungstechnologie von Apple, Microsoft, Amazon und Google [4]. KI wird weltweit in vielen Branchen eingesetzt und unterstreicht damit die Wichtigkeit, seine Undurchsichtigkeit zu verbessern.

Wissenschaftler und Forscher arbeiten derzeit daran, die so genannte KI-Black Box zu entmystifizieren. niemand weiß genau, wie tiefes Lernen zu seinen Entscheidungen kommt. Die Ironie ist, dass die künstliche Intelligenz dem Gehirn nachempfunden ist und dadurch die unerkennbare Komplexität der menschlichen Wahrnehmung erbt.

Verweise

1. Frederico Azevedo et al., “Gleiche Anzahl von neuronalen und nicht-neuronalen Zellen machen das menschliche Gehirn zu einem isometrisch hochskalierten Primatengehirn.” Journal of Comparative Neurology . 2009 10. April.

2. Clark, Liat. “Googles künstliches Gehirn lernt, Katzen-Videos zu finden.” Wired Großbritannien . 06.26.12.

3. Gibney, Elizabeth. “Was Googles Go-Algorithmus als nächstes tun wird.” Nature . 15. März 2016.

4. Parloff, Roger. “Warum Deep Learning Ihr Leben plötzlich verändert.” Fortune . 28. September 2016.

5. NVIDIA. “Was ist GPU-beschleunigtes Rechnen?” Abgerufen 20. Februar 2018, von http://www.nvidia.com/object/what-is-gpu-computing.html

6. Weidman Metis, Seth. “4 tiefe Lerndurchbrüche Führungskräfte sollten verstehen.” VentureBeat . 23. Januar 2018.