Le Big Data rencontre la santé comportementale

Dr. Big Brother, diagnostiquant que vous l’aimez ou non.

Pixabay

Source: Pixabay

À qui appartiennent les données que vous générez, lorsque vous vous engagez en ligne et par voie électronique? Qu’en est-il des informations créées à votre sujet? Avez-vous la possibilité de voir ces informations, et encore moins de les supprimer ou de les contrôler? À bien des égards, cela semble être l’une des batailles sociales et juridiques les plus ambitieuses des temps modernes. Maintenant, ces données atteignent un endroit où la confidentialité et la protection de la vie privée sont les plus fortes: votre santé mentale.

Lorsque Facebook a révélé que Cambridge Analytica, et une foule d’autres groupes, avaient eu accès à des données concernant des millions d’utilisateurs de Facebook, nous avons commencé à comprendre l’étendue de ce problème. À l’aide de données générées par et à propos de personnes individuelles, ces entreprises ont été en mesure de diriger des publicités ciblées et des engagements électroniques visant à influer sur la manière dont les gens votent, achètent et dépensent.

BJ Fogg est psychologue à la Stanford University, qui a créé le Stanford Persuasive Technology Lab, où les chercheurs développent des techniques pour «changer les humains» et «changer ce que les gens pensent et ce que font les gens». et les efforts modernes visant à utiliser la technologie de manière plus sophistiquée pour influer sur les comportements, y compris la santé. Ces efforts mènent à des logiciels et à des dispositifs plus performants et exigeants pour l’attention et le temps des utilisateurs. En gardant les gens collés aux écrans et aux appareils, en utilisant plus fréquemment des logiciels et des plates-formes de médias sociaux, les publicités placées sur ces plates-formes sont plus exposées et génèrent davantage de revenus.

Dopamine Labs est un autre groupe, qui utilise le “piratage cérébral” pour augmenter l’engagement des utilisateurs et “donner à vos utilisateurs des éclats de dopamine parfaits … Une explosion de dopamine ne fait pas que se sentir bien. (Ce n’est pas vraiment comme ça que fonctionne la dopamine, mais tout le monde aime utiliser la dopamine pour sonner intelligemment …)

Pixabay

Source: Pixabay

Les documents divulgués sur Facebook ont ​​montré que l’entreprise était capable d’identifier et de réagir lorsque les utilisateurs, en particulier les adolescents, se sentaient peu en sécurité, sans valeur, stressés, anxieux ou dépassés. En 2014, Facebook a fait l’objet de critiques lorsqu’il a mené une expérience sur des utilisateurs, afin de tester et d’inspirer les effets que cela pourrait créer grâce à la «contagion émotionnelle» et de modifier les signaux émotionnels reçus par les utilisateurs.

Peut-être que ce n’est pas tout mauvais, cependant? Après tout, Facebook utilise désormais un système d’intelligence artificielle pour détecter et identifier les utilisateurs susceptibles de se suicider. Si elle est détectée, une personne qui fait des déclarations suicidaires peut être contactée par un modérateur de Facebook ou recevoir des informations sur les ressources locales ou les premiers intervenants (police ou pompiers). Dans certains cas, les membres de l’équipe de sécurité Facebook contactent même les premiers intervenants et le 911 où se trouve l’utilisateur Facebook, et les informent du risque de suicide qu’ils ont détecté. Dans ces cas, les premiers intervenants peuvent alors faire une «vérification de bonne personne» et rendre visite à la personne identifiée. C’est un outil commun utilisé par les professionnels de la santé mentale lorsqu’ils prennent conscience du risque chez un patient. Notez que les utilisateurs de Facebook ne peuvent actuellement pas se retirer de ce processus et n’ont pas consenti à ce que leur santé mentale et leur risque de suicide soient surveillés. En tant que clinicien agréé, lorsque je rencontre un patient, je dois expliquer à l’avance que si je crois qu’il représente un danger pour lui-même ou pour les autres, je suis chargé de les signaler. Enfouies dans les nouvelles conditions d’utilisation de Facebook, notez qu’elles utilisent leurs données pour “détecter quand quelqu’un a besoin d’aide”, bien que les informations détaillées auxquelles Facebook se connecte ne permettent pas .

Mindstrong Health, une autre start-up de Palo Alto, dispose d’une plate-forme qui surveille l’utilisation des smartphones par les personnes pour détecter les signes de dépression. Il a été co-fondé par le Dr Thomas Insel, ancien directeur de l’Institut national de la santé mentale. La société participe également à des recherches sur les signes électroniques de traumatisme.

Ce sont toutes des questions impliquant des données générées par l’utilisateur, où les comportements de la personne réelle sont analysés. Mais qu’en est-il des données vous concernant et de votre santé mentale? Ces données sont également disponibles. Il a fait l’objet de nombreuses violations de données, à la VA, d’organisations de soins gérés et de prestataires de soins de santé. Les données sur vous, vos diagnostics de santé mentale et les traitements que vous avez reçus, y compris les médicaments, sont tout à fait à portée de main.

Pixabay

Source: Pixabay

D’autres groupes collectent et partagent également des informations sur vous et vos besoins en matière de santé comportementale. Trois sont plusieurs nouveaux logiciels et projets électroniques dotés de plates-formes permettant aux intervenants d’urgence et aux forces de l’ordre de créer des bases de données sur les citoyens ayant des problèmes ou des besoins de santé comportementale. RideAlong, un projet intéressant basé à Seattle, a réfléchi sérieusement à la manière dont les responsables de l’application de la loi peuvent accéder aux informations qu’ils conservent dans leur système ou les modifier, et a décidé que les informations sur les diagnostics, par exemple, ne devaient pas être identifiées. Cependant, il n’existe pas encore de dispositions permettant à une personne de connaître ou de modifier des informations les concernant qui sont stockées dans ce système. J’ai entendu des représentants de cette entreprise et, tout en prenant la confidentialité au sérieux, ils veulent également fournir aux forces de l’ordre un outil leur permettant de partager des informations – à propos de vous.

Collective Medical Technologies est une société de l’Oregon dotée d’une plateforme similaire qui crée, suit et partage une base de données contenant des informations fiables sur les personnes qui se rendent aux urgences des hôpitaux. La base de données ne peut être consultée que par les prestataires de soins de santé et les prestataires de soins gérés, mais contient des informations sur les raisons pour lesquelles les patients se rendent aux urgences, les traitements reçus et les techniques utiles pour les déstabiliser. Un prestataire de santé comportementale tel que moi-même (divulgation équitable, et l’organisation que je dirige, sont désormais des fournisseurs de soins de santé participant à ce projet) peut même être averti si l’un de mes patients se présente au service des urgences. pour tendre la main et s’engager dans leur traitement. Encore une fois, ces données étant générées sur des personnes, et non par la personne, et partagées par des entités soumises à des lois de confidentialité, les personnes elles-mêmes ne doivent pas consentir et peuvent même ne pas savoir qu’elles ou leurs données se trouvent dans ce système.

Les données sur vos antécédents de diagnostics et de traitements de santé comportementale sont utilisées pour guider les décisions prises à votre égard par les forces de l’ordre, les entreprises technologiques, les sociétés d’assurance de soins gérés, les États et les nombreux autres groupes ayant accès à ces informations. Cet historique peut vous aider à obtenir un meilleur accès au support, mais il peut également être utilisé pour limiter vos options et vos choix. Dr. Big Brother, diagnostiquant que vous l’aimez ou non.

Pixabay

Source: Pixabay

En tant que prestataire de services de santé comportementale impliqué dans les politiques à l’échelle de l’État et à l’échelle nationale, j’ai vu cette récente augmentation de l’exploration et de l’analyse des données s’étendre au monde de la santé comportementale. Je suis en conflit avec tout cela, pour être parfaitement honnête. Je peux certainement voir de nombreux endroits où cette information peut sauver des vies, prévenir des tragédies et aider les gens à obtenir de l’aide. Mais je me souviens toujours de la science-fiction dystopique où l’état ou les systèmes d’intelligence artificielle détectent des signes de malheur et font des efforts pour changer ou modifier ces personnes et leurs sentiments. Avons-nous le droit d’être malheureux? Si des artistes et des génies célèbres comme Van Gogh, Robin Williams, Anthony Bourdain – tous des individus ayant des antécédents de besoins connus en matière de santé comportementale – avaient été détectés et traités, ils n’étaient peut-être pas morts et continuaient à produire un travail incroyable. Mais quel droit auraient-ils eu, de faire le choix d’être malade mentalement et de rester seul?

Des données sur votre santé comportementale, mentale et émotionnelle sont collectées et analysées. Des ensembles de données volumineuses comme celui-ci seront utilisés. Ces informations ne sont pas collectées juste pour qu’elles puissent y rester. Comment cela va-t-il être utilisé, et avec la permission de qui, tout cela fait partie d’une grande question effrayante à laquelle nous ne participons pas actuellement.