Ist künstliche Intelligenz antifragil?

Das iatrogene Potenzial des menschlichen Eingriffs in künstliche Intelligenz

istockphoto

Quelle: istockphoto

Wir befinden uns mitten in der Artificial Intelligence Revolution (AIR), der nächsten großen Epoche in der Geschichte der technologischen Innovation. Künstliche Intelligenz (KI) gewinnt weltweit nicht nur in der wissenschaftlichen Forschung, sondern auch in Wirtschaft, Finanzen, Konsumgütern, Kunst, Gesundheitswesen, Esport, Popkultur und Geopolitik an Bedeutung. Da die KI immer mehr durchdringt, ist es wichtig, auf Makroebene zu prüfen, ob die KI durch eine Störung gewonnen wird. Antifragile ist ein Begriff und Konzept, das von Nassim Nicholas Taleb, einem ehemaligen quantitativen Händler und selbsternanntem “Flaneur”, zum Autor des New York Times- Bestsellers von “Der schwarze Schwan: Die Auswirkungen des höchst unwahrscheinlichen” gemacht wurde „Genaues Gegenteil von fragil“, das „über die Widerstandsfähigkeit oder Robustheit hinausgeht“ in „Antifragile: Dinge, die aus der Unordnung kommen“. Laut Taleb gewinnen antifragile Dinge nicht nur „vom Chaos“, sondern „brauchen es, um zu überleben und zu gedeihen . ”Ist KI Antifragil? Die Antwort ist möglicherweise nicht so intuitiv, wie es scheint.

Die jüngsten Fortschritte bei der KI sind zum großen Teil auf die Verbesserung der Mustererkennungsfähigkeiten durch tiefes Lernen zurückzuführen, einer Teilmenge des maschinellen Lernens, bei der es sich um eine KI-Methode handelt, für die keine explizite Programmierung erforderlich ist. Das Lernen wird durch das Zuführen von Datensätzen durch zwei oder mehr Schichten nichtlinearer Verarbeitung erreicht. Je höher das Volumen und je schneller der Durchsatz bei der Datenverarbeitung ist, desto schneller lernt der Computer.

Eine schnellere Verarbeitung wird hauptsächlich durch die parallelen Verarbeitungsfunktionen der GPU (Graphics Processing Units) erreicht, im Gegensatz zur seriellen Verarbeitung von CPUs (Central Processing Unit). Interessanterweise hat das Computerspielen dazu beigetragen, die Fortschritte im Bereich des tiefen Lernens zu beschleunigen, und spielt daher auch eine Rolle im gegenwärtigen AI-Boom. GPUs, die ursprünglich hauptsächlich zum Rendern von Grafiken für Computerspiele verwendet wurden, sind heute ein wesentlicher Bestandteil der Deep Learning-Architektur. Stellen Sie sich zur Veranschaulichung vor, es gibt drei Eiswagen, bei denen Kunden aneinandergereiht sind, und nur einen Scooper. Bei der seriellen Verarbeitung zielt der Scooper darauf ab, alle Wagen gleichzeitig zu bedienen, indem er zwischen den Wagen springt, die jeweils einige Kegel herausnehmen, bevor der nächste gewartet wird. Bei der parallelen Verarbeitung gibt es mehrere Scoopers statt nur eines. Ein versierter Kunde teilt die Bestellung gleichzeitig auf die Karren auf, um schnellere Ergebnisse zu erzielen.

Durch das hohe Datenvolumen und die große Auswahl an Daten wird ein tiefes Lernen ermöglicht. Der Zugriff auf große und vielfältige Datensätze, einschließlich Ausreißern, ist für die Minimierung von verzerrten oder qualitativ minderwertigen Ausgaben unerlässlich. Das Trinken aus dem sprichwörtlichen Feuer von Daten ist kein Grund für tiefes Lernen, sondern eher ein gewünschtes Szenario. Maschinelles Lernen lebt von Big Data und bringt Ordnung aus dem Chaos der Informationen. KI-Deep-Learning-Vorteile durch Datenvielfalt.

Die inhärente Antifragilität des Tiefenlernens ist das potenzielle Risiko versehentlicher nachteiliger Folgen, die sich aus iatrogenen Effekten aufgrund fehlerhafter menschlicher Behandlung ergeben. In “Antifragile” verwendet Taleb den Begriff “iatrogen” anstelle des Ausdrucks “schädliche unbeabsichtigte Nebenwirkungen”, die aus “naivem Interventionismus” resultieren. Obwohl AI ein maschinenbasiertes System ist, wird es letztlich vom Menschen geschaffen und verwaltet. Es gibt viele potenzielle unbeabsichtigte Konsequenzen, die sich aus dem Eingreifen des tiefen Lern-Datensatzes und der Algorithmen der KI ergeben könnten. Schimmelbrot in den leistungsfähigsten Toaster der Welt geben und trotzdem einen suboptimalen Toast ergeben.

Cami Rosso

Quelle: Cami Rosso

Das klassische Informatik-Sprichwort von „Garbage In, Garbage Out“ (GIGO) schwingt mit tiefem Lernen. Menschliche Bediener entscheiden weitgehend über die Größe des Datensatzes, die Quelle (n), die Auswahl, das Timing, die Häufigkeit, das Markieren und das manuelle Überschreiben des AI-Systems. Programmierer, die die AI-Algorithmen erstellen, definieren die Kriterien und Metriken, die für die Systemrangfolge, Priorisierung, Zuordnung, Klassifizierung und Filterung verwendet werden. Wenn ein bemerkenswerter Datenpunkt fehlt, können Programmierer eingreifen, indem sie synthetische Datenpunkte erstellen. Menschliche Programmierer entscheiden über Optimierungsalgorithmen. Der potenzielle iatrogene Effekt einer menschlichen Intervention kann eine verzerrte Ausgabe, eine unterlegene Mustererkennung, verzerrte Ergebnisse, fehlerhafte Algorithmen, unangemessene Gewichtungen, ungenaue Attribute und falsche Positive oder Negative umfassen. Frisches Brot in den Toaster geben, aber die Heizstufe während des Vorgangs zu hoch oder zu niedrig einstellen, kann dies zu unbeabsichtigten Ergebnissen führen, beispielsweise zu verbranntem oder zu wenig gegartem Toast. Obwohl das tiefe Lernen von KI zwar antifragil ist, neigt der menschliche Faktor dazu, zerbrechlich zu sein.

Dies wirft die Frage auf, ob künstliche Intelligenz verwendet werden kann, um die Punkte menschlichen Eingriffs zu ersetzen – ein selbstregulierendes KI-System. Theoretisch ist das möglich. KI kann erstellt werden, um andere KI-Programme zu erstellen und zu verwalten. Zum Beispiel können individuelle spezialisierte KI-Programme erstellt werden, die sich auf Aufgaben konzentrieren, z. B. Daten für Trainingssätze auswählen, Datenausreißer markieren, falsche oder negative Ergebnisse vorhersagen, synthetische Datenpunkte für Algorithmen vorschlagen und viele andere Funktionen. Stellen Sie sich ein Haupt-KI-System vor, das ein Netzwerk spezialisierter KI-Programme verwaltet. Während der Verarbeitung aktiviert die übergreifende KI die spezialisierte KI, um die Aufgabe auszuführen, für die ein menschlicher Eingriff erforderlich war.

Dies ist ein großes, komplexes System, und es gibt viele Vorbehalte gegen diesen Ansatz des selbstregulierenden KI-Lernens. Zu den beunruhigendsten Merkmalen eines sich selbst regulierenden KI-Lernsystems für tiefgreifende KI zählt die erhöhte Wahrscheinlichkeit des “Schmetterlingseffekts” – das Konzept, dass kleine Unterschiede in einem dynamischen System große, weitreichende Folgen auslösen können. Edward Lorenz, ein MIT-Professor für Meteorologie, ist der Vater der Chaos-Theorie und des Schmetterlingseffekts. Der Begriff Schmetterlingseffekt wurde von Lorenz in seinem Artikel “Vorhersagbarkeit: Bringt der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas aus?” [1]. In diesem Fall könnte der geringe menschliche Eingriff in die Einrichtung eines selbstregulierenden AI-Systems in einem seiner modularen AI-Komponentenprogramme massive Unterschiede in der Gesamtausgabe des AI-Systems verursachen.

Nun haben wir festgestellt, dass die Deep-Learning-Technologie der KI selbst von Natur aus antifragil wirkt, ihre Achillesferse, die potenziellen iatrogenen Auswirkungen menschlicher Eingriffe, jedoch eine Quelle systemischer Schwachstellen und Zerbrechlichkeit ist. Die Schaffung eines selbstregulierenden AI-Systems ist angesichts der Anfälligkeit für den Lorenz-Schmetterlingseffekt noch anfälliger. Alle menschlichen Fehler in der ursprünglichen Systemeinrichtung in einer ihrer ursprünglichen Komponenten, sei es Daten oder algorithmisch, könnten massiv sein Ausgabefehler. Die am besten entwickelten AI-Algorithmen mit den besten Datensätzen sind immer noch anfällig für menschliche Fragilität. Die KI wird von Natur aus fragil sein. Die Art und Weise, wie Menschen das KI-System verwalten, bestimmt ihre allgemeine Robustheit und Fehlertoleranz. Der künftige Erfolg der KI wird von der Fähigkeit von Mensch und Maschine abhängen, Best Practices im Laufe der Zeit gemeinsam zu „lernen“ – und sich in Symbiose entwickeln.

Copyright © 2018 Cami Rosso Alle Rechte vorbehalten.

Verweise

1. Dizikes, Peter. „Wenn der Schmetterlingseffekt flog“. MIT Technology Review . 22. Februar 2011.