Moral und Tribalismus: Das Problem mit dem Utilitarismus

Das Problem des Utilitarismus ist das gleiche Problem, das man bei der Verwendung einer Optimierungsfunktion hat – was ist, wenn der andere Stamm nicht dieselbe Optimierungsfunktion hat? In seinem Buch Moral Tribes plädiert Joshua Greene für eine duale Prozessbeschreibung der menschlichen Moral – ein emotionaler (* 1) Prozess, der bestimmte Verhaltensweisen antreibt, die Mitglieder einer Gruppe in die "kooperieren-kooperieren" -Ecke des Gefangenendilemmas treiben (* 2) und bietet Kontrollen gegen Mitglieder der Gruppe, die überstürzt, und einen kognitiven (* 3) Prozess, der ein Ziel maximiert. Joshua Greene argumentiert, dass das durch den kognitiven Prozess maximierte Ziel eine Form von Maximalglück oder Utilitarismus ist.

Greene weist richtigerweise darauf hin, dass das emotionale (Pawlowsche) System sehr gut ist, um das Verhalten innerhalb eines Stammes zu kontrollieren, aber dass es auch eine Außenseiterfeindlichkeit hervorbringt, die der Moral zwischen den Stämmen offensichtlich nicht förderlich ist. Greene schlägt dann vor, dass wir das mehr kognitive System benutzen müssen, um zwischen diesen Stämmen zu vermitteln. Er schlägt vor, dass irgendeine Art von Glückmaximierungsfunktion die einzig mögliche Antwort ist. (* 4)

Das Problem ist, dass Sie davon ausgehen müssen, dass der andere Stamm Ihre Definition der Optimierungsfunktion teilt. Wenn ein Stamm sagt, dass alle Menschen (Sneetches) mit Sternen auf ihren Bäuchen (Link Dr. Seuss) echte Menschen sind, und alle Sneetches ohne sind, dann kann man sie nicht davon überzeugen, diese nicht-bauchigen-Sneetches gehen zu lassen .

Nehmen wir Greenes Beispiel der Sklaverei. Wenn du glaubst, dass nicht-bauchige Sneetschen in der Gesamtsumme der Glückseligkeit nicht zählen, dann kannst du Glück erhöhen, indem du nicht-bauchige-Sneetschen-Sklaven dazu bringst, den Sternenbauch-Sneetchen zu dienen. Wenn ich einen Roboter bauen könnte, um all die harte Arbeit zu erledigen, könnte ich ein leichtes Leben führen, wäre das in Ordnung? Ich bin mir ziemlich sicher, dass Greene nichts gegen die Verwendung von automatischen Staubsaugern (Roomba) zum Reinigen von Böden hat. Aber was wäre, wenn der Roboter empfindungsfähig wäre? Ist es in Ordnung, mit Pferden Kutsche zu ziehen? Im amerikanischen Bürgerkrieg und im Zweiten Weltkrieg sahen wir uns mit Kulturen konfrontiert, die bestimmte Bevölkerungsgruppen von der Summe des Glücks trennten. Wie gehen wir mit diesen Stämmen um?

Historisch gab es zwei Lösungen für das Problem des Stammes. Ein Mechanismus, um die Stämme in einen zu integrieren (zB Integration in den USA in der zweiten Hälfte des 20. Jahrhunderts) und die gleiche Strafe für die Defektion anzuwenden ("altruistische Bestrafung" genannt, weil man einige der Ressourcen opfert, um den Abfall zu bestrafen) in der Gruppe Ebene statt der individuellen Ebene. Ich würde argumentieren, dass beide Optionen für das Problem zwischen den Stämmen realistischer sind als der Utilitarismus.

Zusätzlicher Messwert:

  • Moralitätskapitel (23) des Verstandes innerhalb des Gehirns
  • Moralische Stämme, Joshua Greene
  • Zu anderen, Elliott Sober und David Sloan Wilson

* 1 Im Geist im Gehirn nenne ich dieses Aktionsauswahlsystem das Pawlowsche System – es ist eine Reihe von speziesspezifischen Aktionsrepertoires, die gelernt werden können, in geeigneten Situationen freigesetzt zu werden. Das Pawlowsche System lernt die Situationen, in denen diese Aktionen ausgelöst werden. Kategorisierungen dieser Handlungsrepertoires sind die Emotionen (Lust, Wut, Angst, Liebe, Ekel, etc.)

* 2 Das Gefangenendilemma ist eine Beschreibung eines grundlegenden Spiels, um die Frage zu klären, wann wir zusammenarbeiten und wann wir uns gegenseitig betrügen. Die schnelle Beschreibung ist, dass jeder Spieler zwei Möglichkeiten hat (kooperieren oder defekt). Beide kooperierende Spieler sind besser für jeden als beide Spieler defekt, aber wenn ein Spieler defekt ist und der andere kooperiert der Spieler, der Defekte besser als beide kooperiert, und der Spieler, der kooperiert, ist schlechter.

* 3 Im Geist im Gehirn nenne ich dieses Handlungsauswahlsystem das deliberative System – eine Fähigkeit, potentielle zukünftige Ergebnisse zu durchsuchen und diese imaginierten Ergebnisse zu bewerten, um festzustellen, was am besten ist. Es ist langsam und umständlich, aber sehr flexibel.

* 4 Ich werde die üblichen Probleme von Wie definierst du Glück? (Wie Greene bemerkt, können wir ziemlich selbstsichere Schätzungen einfach durch Fragen erhalten, und außerdem müssen wir nur die Veränderung des Glücks kennen, um zu entscheiden, ob etwas gut ist oder nicht – es ist gut, wenn es die gesamte Zufriedenheit erhöht) und die üblichen Probleme Wie gehst du mit dem Vorschlag um, dein Kind für ein Dutzend unbekannter Kinder auf der ganzen Welt zu tauschen? (Dies ist ein Konflikt zwischen Greenes emotionalen und kognitiven Moralvorstellungen.)