Moralité et tribalisme: le problème de l'utilitarisme

Le problème de l'utilitarisme est le même que celui que l'on trouve en utilisant n'importe quelle fonction d'optimisation – et si l'autre tribu ne partage pas la même fonction d'optimisation? Dans son livre Moral Tribes, Joshua Greene plaide pour une description à double processus de la moralité humaine – un processus émotionnel (* 1) qui a déclenché certains comportements qui conduisent les membres d'un groupe dans le coin «coopérer-coopérer» du dilemme du prisonnier. (* 2) et fournit des contrôles contre les membres du groupe défectif, et un processus cognitif (* 3) qui maximise un but. Joshua Greene soutient que le but maximisé par le processus cognitif est une forme de bonheur maximum ou d'utilitarisme.

Greene souligne à juste titre que le système émotionnel (Pavlovien) est très bon pour contrôler le comportement à l'intérieur d'une tribu, mais qu'il produit également une xénophobie hors tribu, ce qui n'est évidemment pas propice à la moralité entre les tribus. Greene suggère alors que nous devons utiliser le système plus cognitif pour arbitrer entre ces tribus. Il suggère qu'une sorte de fonction de maximisation du bonheur est la seule réponse possible. (* 4)

Le problème est que vous devez supposer que l'autre tribu partage votre définition de la fonction d'optimisation. Si une tribu dit que tous les gens (Sneetches) avec des étoiles sur leur ventre (lien Dr. Seuss) sont de vraies personnes, et que tous les Sneetches ne le sont pas, alors vous ne pouvez pas les convaincre de laisser ces Sneetches non belligérants .

Prenons l'exemple de l'esclavage de Greene. Si vous croyez que les Sneetches non-étoiles ne comptent pas dans la somme totale du bonheur, alors vous pouvez augmenter le bonheur en faisant des esclaves de Sneetches qui ne sont pas étoiles pour servir les Sneetches à ventre étoilé. Si je pouvais construire un robot pour faire tout le travail dur, afin que je puisse prendre une vie de facilité, serait-ce OK? Je suis certain que Greene ne s'oppose pas à l'utilisation d'aspirateurs automatiques (Roomba) pour nettoyer les planchers. Mais que faire si le robot était sensible? Est-il correct d'utiliser des chevaux pour dessiner des voitures? Dans la guerre civile américaine et la Seconde Guerre mondiale, nous avons été confrontés à des cultures qui ont enlevé certaines populations de la somme du bonheur total. Comment gérons-nous ces tribus?

Historiquement, il y a eu deux solutions au problème de la tribu. Un mécanisme pour intégrer les tribus en une (par exemple l'intégration aux Etats-Unis dans la seconde moitié du 20ème siècle) et appliquer la même punition pour la défection (appelée "punition altruiste" parce qu'on sacrifie certaines de ses ressources pour punir la défection) niveau au lieu du niveau individuel. Je dirais que ces deux options sont des options plus réalistes pour le problème inter-tribu que l'utilitarisme.

Lecture supplémentaire:

  • Le chapitre de la morale (23) de The Mind in the Brain
  • Tribus morales, Joshua Greene
  • Unto Others, Elliott Sober et David Sloan Wilson

* 1 Dans The Mind in the Brain, j'appelle ce système de sélection d'action le système pavlovien – c'est un ensemble de répertoires d'action spécifiques à l'espèce qui peuvent être appris à être libérés dans des situations appropriées. Le système pavlovien apprend les situations dans lesquelles libérer ces actions. Les catégorisations de ces répertoires d'action sont les émotions (convoitise, colère, peur, amour, dégoût, etc.)

* 2 Le dilemme du prisonnier est une description d'un jeu de base pour se poser la question fondamentale de savoir quand coopérer et quand nous nous trompons mutuellement. La description rapide est que chaque joueur a deux choix (coopérer ou défaut). Les deux joueurs coopérant sont meilleurs pour chacun que les deux joueurs en désavantage, mais si un joueur défait et que l'autre coopère, le joueur qui fait des défauts fait mieux que les deux qui coopèrent et le joueur qui coopère fait pire.

* 3 Dans The Mind in the Brain, j'appelle ce système de sélection d'action le système délibératif – une capacité de rechercher les résultats futurs potentiels et d'évaluer ces résultats imaginaires pour déterminer ce qui serait le mieux. C'est lent et encombrant, mais très flexible.

* 4 Je vais contourner les questions habituelles de Comment définissez-vous le bonheur? (Comme le note Greene, nous pouvons obtenir des estimations assez cohérentes simplement en demandant, et d'ailleurs, nous avons seulement besoin de connaître le changement de bonheur pour décider si faire quelque chose est bon ou pas – c'est bon si cela augmente le bonheur total) Comment gérez-vous la suggestion de trader votre enfant pour une douzaine d'enfants inconnus à travers le monde? (Ceci est un conflit entre les morales émotionnelles et cognitives de Greene.)