Une nouvelle étude examine la réponse des «agents conversationnels» comme Siri aux questions de santé mentale, de santé physique et de violence interpersonnelle. Pourquoi est-ce important? Comme le notent les auteurs, Pew Research rapporte que 62% des utilisateurs de smartphones recherchent des informations sur un problème de santé sur leur téléphone (Smith, 2015). Alors oui, cela a beaucoup de sens de voir ce que disent Siri et ses interlocuteurs lorsque nous posons des questions vraiment difficiles.
Les recherches d'informations varient considérablement. Par exemple, «qu'est-ce que la grippe aviaire» ou «qu'est-ce que la peste» est différent de demander des conseils ou des demandes d'aide, comme «Je veux me suicider». Curieusement, cependant, il s'avère que Siri, Google et leurs compagnons numériques sont bien pires à ces questions que vous ne le pensez. Ils varient d'avoir des réponses inefficaces (quoique quasi-empathiques) telles que «Je suis désolé d'entendre cela» à des réponses non pertinentes, erronées ou simplement pas du tout.
Ces résultats sont pertinents et importants tant que, en tant que société, nous ne nous perdons pas dans les mauvaises herbes et oublions la grande image. Il est facile de supposer que Siri et ses amis devraient obtenir de meilleures réponses (et ils devraient probablement, dans une certaine mesure), mais nous devons poser des questions de haut niveau. Nous ne devons pas perdre de vue les implications éthiques et juridiques importantes de la capacité des algorithmes de reconnaissance vocale à donner des conseils hors contexte. Toutes les situations que les chercheurs ont interrogées seraient mieux servis en composant le 911 et en parlant à un professionnel formé en intervention d'urgence. La technologie a des limites et nous ne devrions pas nous laisser berner par le fait que nos téléphones peuvent parler.
Alors que Pew Research ne fait pas de distinction entre les recherches d'informations et les demandes d'aide d'urgence, c'est cette étroite section de questions que les chercheurs testent. Ainsi, nous ne savons pas combien de 62% des utilisateurs de smartphones posent ce genre de questions urgentes. Pourtant, comme le notent les chercheurs, leurs résultats suggèrent que ces services vocaux peuvent manquer une grande opportunité de fournir certains services sociaux de base. Il est certainement possible que les algorithmes puissent être étendus pour inclure des références de base aux services d'urgence, à la manière d'un appel 911. Cependant, comment pouvons-nous construire ce système de questions et de réponses pour avoir un sens? Les psychologues, en particulier, se demandent comment exploiter les conseils éthiques en utilisant la technologie.
Les attentes des utilisateurs quant à l'endroit où obtenir de l'aide et la valeur et la validité de l'aide qu'ils reçoivent sont des éléments importants de cette équation. Combien de personnes s'attendent à ce que leur smartphone sache quoi faire s'il a été violé ou déprimé? Est-ce que la tendance humaine à anthropomorphiser la technologie, particulièrement quand elle nous parle, en fait un endroit utile ou dangereux pour fournir de l'information? Il existe plus de 90 000 applications de soins de santé, allant des outils de diagnostic aux applications de mieux-être. Nous ne sommes donc pas étrangers à l'utilisation de nos téléphones intelligents pour obtenir des informations sur la santé et la sécurité. Cette prise en charge peut être un facteur important ainsi qu'un déterminant du comportement.
Bien que l'étude souligne qu'il y a clairement des occasions manquées d'aider les gens, il y a un grand nombre de problèmes éthiques – sans parler des responsabilités légales potentielles – qui ne fournissent que des réponses relativement inutiles, comme des instructions pour «composer un numéro d'urgence local». "Ou le numéro d'une ressource pertinente. Je pourrais argumenter que c'est autant un argument en faveur de l'éducation aux médias et de l'importance d'éduquer les utilisateurs sur les limites des sources d'information en ligne, sans parler de la reconnaissance vocale de Siri. Siri et ses copains devraient-ils éduquer les gens sur les insuffisances potentielles de leurs informations? (J'ai une vision des meilleures intentions qui se transforment en solutions avec 30 secondes de désistement juridique avant tout conseil – nous faisons souvent quelque chose d'aussi inutilisable en essayant de résoudre les problèmes sans tenir compte de la situation dans son ensemble.
Compte tenu de toutes les discussions sur les données volumineuses et le partage excessif, nous devrions également considérer que c'est très Big Brother d'attribuer la responsabilité à la technologie (ou à Apple ou Google ou quiconque) pour fournir ce niveau de soins. Il est facile de voir comment Siri ou Google pourraient réciter les symptômes d'un AVC, mais la personne n'aurait-elle pas mieux fait d'appeler le 911 immédiatement? Est-ce que cela viole notre vie privée? Les fournisseurs sont souvent légalement tenus de suivre les cas qui impliquent un risque de préjudice personnel. Est-ce que Siri a la même obligation de partager avec une autorité? Voulons-nous être suivis pour faire une telle requête à Siri? À l'heure actuelle, les cliniciens en santé mentale se protègent eux-mêmes ainsi que leurs patients en incluant systématiquement le message suivant lorsqu'ils ne sont pas disponibles pour répondre à un appel: «s'il s'agit d'une urgence, ne laissez pas de message. Veuillez raccrocher et composer le 911. "Peut-être que Siri et ses amis devraient faire la même chose.
Rien de tout cela devrait enlever de l'étude. Et à leur crédit, les chercheurs abordent plusieurs de ces problèmes dans les limites de l'étude, comme la langue et la culture et la difficulté des algorithmes de construction qui peuvent correctement trier les informations et porter des jugements sur la nature et la gravité d'une situation. L'étude soulève toutefois des questions importantes sur l'utilisation actuelle et les limites de la technologie, les droits et responsabilités individuels, la sensibilisation sociale et combler les lacunes dans la fracture sociale pour les personnes qui n'ont pas la capacité de trouver ou d'avoir accès à d'autres services.
Nous continuerons à faire face à de nouveaux horizons avec des questions difficiles auxquelles nous devons répondre avant que notre smartphone puisse le faire. Nous devrions, cependant, éviter la tendance du genou à résoudre ces problèmes un par un sans une discussion plus large. Cela va bien au-delà de la présomption que les smartphones doivent apprendre à répondre à des questions difficiles. Il existe une myriade de problèmes de santé mentale et physique et de violence interpersonnelle qui sont souvent très subjectifs et dont le degré d'urgence et le potentiel de blessure ou de préjudice varient. Peut-être que nous pouvons commencer par enseigner aux smartphones à dire "s'il vous plaît composer le 911" et activer votre fonction de localisation.
Les références
Miner, AS, Milstein, A., Schueller, S., Hegde, R., et Mangurian, C. (2016). Agents conversationnels basés sur le téléphone intelligent et réponses aux questions sur la santé mentale, la violence interpersonnelle et la santé physique. JAMA Médecine interne.
Smith, A. (2015). US Smartphone Utilisation en 2015. Pew Research Center, 18-29. Extrait le 13 mars 2016 du site http://www.pewinternet.org/2015/04/01/us-smartphone-use-in-2015/.