Jeux vidéo et comportement d'aide

Ces derniers mois, j'ai été intrigué par la crise de réplication entourant le domaine de l'amorçage social. Je ne fais pas de recherche sur l'amorçage social, ni prétends en savoir beaucoup à ce sujet en dehors de ce que j'ai lu. Mais l'amorçage social semble être l'un de ces domaines en psychologie qui sont considérés comme «sagesse reçue» pendant un certain temps, pour devenir controversés que les nouveaux groupes de recherche ont de plus en plus de difficulté à reproduire les conclusions des adhérents.

Je me suis souvenu de cette question de la crise de réplication en lisant une nouvelle étude de l'Université du Queensland en Australie. Les chercheurs Morgan Tear et Mark Nielsen ont mené une série assez typique d'expériences dans le cadre desquelles les participants ont joué à des jeux vidéo violents et non violents et ont été testés en termes de comportement prosocial ou d'aide en utilisant la fonction «drop pen». Si vous n'êtes pas familier avec cela, au fond, l'expérience fait une démonstration de "lâcher accidentellement" un tas de stylos et attend pour voir si le participant aide à les ramasser. Les résultats ont indiqué que jouer à des jeux vidéo violents avait peu d'impact sur le comportement aidant.

Maintenant, il s'agit d'une réplique de «vieille école» (c.-à-d. Avant la décision Brown v EMA, décision de la Cour suprême de 2011) des conceptions de recherche et possède toutes les verrues typiques de ces types d'études. Étudiants du Collège jouant à des jeux vidéo pour un intervalle relativement court, seul. Je dirais que la tâche du «stylo drop» n'est probablement que vaguement utile pour exploiter les comportements prosociaux et l'empathie qui nous intéressent dans le monde réel. Alors, prenez-le pour ce que ça vaut. Néanmoins, il s'agit d'une réplique relativement simple de certains travaux prétendant que les jeux violents diminuent ces comportements d'aide et, jouant sur le terrain de ces études old school, ne reproduisent pas leurs résultats.

Alors, que devons-nous prendre de cela? La question de savoir si les jeux violents diminuent vraiment l'aide ou les comportements prosociaux reste controversée. Cela s'ajoute à une pile de résultats de recherche déjà plutôt mitigés et, comme mentionné précédemment, il est difficile de généraliser ces types d'études old school aux phénomènes de la vie réelle (l'opinion majoritaire de la Cour suprême les a écartés dans Brown v EMA avec raison). Mais la question d'une crise de réplication est potentiellement éclairante.

Je pense que nous préférons considérer la science, même les sciences sociales, comme opérant dans une sorte de vide, à l'abri des pressions de la politique et des récits sociétaux. Mais je pense que c'est une erreur. Comme John Ioannidis l'a exposé dans son article classique «Pourquoi la plupart des recherches publiées sont fausses», il est très courant de voir une idée de recherche promue à pleine vapeur malgré le fait que, dans un sens ontologique, cette idée de recherche est fausse. En particulier lorsqu'une idée de recherche s'inscrit dans un récit social préexistant («les jeux vidéo violents sont mauvais»), la pression sur la communauté scientifique pour soutenir le récit social peut être intense (témoin Frederic Wertham dans les bandes dessinées des années 1950). par exemple). Compte tenu du problème de flexibilité méthodologique des sciences sociales dans lequel une multitude d'options d'analyse de données peuvent permettre aux chercheurs, même s'ils agissent de bonne foi, de sélectionner les résultats les mieux adaptés à leurs hypothèses, cela signifie probablement très peu. et plus. La question est de savoir si les groupes extérieurs, en particulier ceux qui sont plus sceptiques, peuvent reproduire les résultats.

Je ne suis évidemment pas un physicien, mais j'imagine qu'en physique, même une réplication échouée serait source de consternation. En sciences sociales, nous devons nous demander: combien de répétitions ratées faut-il pour qu'une théorie soit falsifiée? En ce sens, des techniques comme la méta-analyse peuvent en fait être dommageables, selon moi, en éliminant les répétitions ratées pour une illusion de cohérence. Imaginez, par exemple, que nous réalisions 100 études sur une théorie particulière, toutes de taille égale. La moitié d'entre eux ont des effets statistiquement significatifs avec une taille d'effet de r = 0,20. Le reste arrive à être exactement nul avec r = .00. Est-ce un domaine que nous devrions célébrer comme sagesse reçue? Non, je dirais que non, mais combinez tout cela dans une méta-analyse et vous obtenez un effet moyen de r = 0,10 que beaucoup de chercheurs seraient désireux de saluer (peut-être peut-être) comme significatif.

En tant qu'auteurs de cet échec de réplication, il peut être difficile d'obtenir des échecs de réplication publiés. On doit se demander combien d'autres échecs à reproduire ne voient jamais la lumière du jour, nous donnant (ainsi qu'au grand public) une vision fausse de la «vérité» des résultats de la recherche. J'exprime l'opinion que nous devons faire plus pour changer la culture de la psychologie de la recherche qui, depuis trop longtemps, a été défavorable à la nullité et à l'échec de reproduire les résultats.