L'IA peut-elle détecter l'orientation sexuelle à partir de photos?

Wikimedia Commons
Source: Wikimedia Commons

Une nouvelle étude de Stanford prétend être en mesure d'identifier si vous êtes gay ou hétéro juste en analysant une photo de votre visage. Non seulement cela – il prétend déterminer l'orientation sexuelle avec plus de précision que les gens.

D'une part, ceci est en ligne avec les progrès de l'Intelligence Artificielle (ou AI, pour faire court) qui est capable de détecter les attributs personnels à partir des données en ligne. D'un autre côté, il a des implications inconfortables sur la vie privée et des répercussions sur la phrénologie.

D'abord, observons l'étude. Il a analysé les photos d'un site de rencontres. Il a regardé les hommes et les femmes blancs qui ont identifié comme gay ou hétéro. Cela excluait les personnes de couleur, les bisexuels, les personnes transgenres et toute personne ne se trouvant pas sur le site. L'algorithme a examiné les caractéristiques faciales et les caractéristiques des photos:

La recherche a révélé que les hommes et les femmes homosexuels avaient tendance à avoir des caractéristiques, des expressions et des «styles de toilettage» sexospécifiques, ce qui signifiait essentiellement que les hommes gais semblaient plus féminins et vice versa. Les données ont également identifié certaines tendances, notamment que les hommes gais avaient des mâchoires plus étroites, des nez plus longs et un front plus large que les hommes hétérosexuels, et que les femmes gaies avaient des mâchoires plus grandes et un front plus petit que les femmes hétérosexuelles. (résumé de The Guardian)

Y a-t-il un lien génétique qui fait que les homosexuels semblent physiquement différents des hétérosexuels? Certains chercheurs en IA voudront peut-être le penser parce que l'algorithme le suggère, mais il est impossible que cette étude soit proche de cette conclusion. Tant de personnes ont été exclues de cette étude. Qu'est-ce qu'il capture vraiment sont des normes de beauté pour ce site de rencontres en ligne particulier.

Cependant, si les gens croient que l'algorithme peut détecter l'orientation sexuelle, cela ouvre la porte à une surveillance et à des hypothèses incorrectes. Allons-nous commencer à faire courir les gens à travers l'algorithme et à tirer des conclusions à leur sujet? Et si cela se faisait dans des endroits comme la Tchétchénie où les homosexuels sont activement exécutés ou emprisonnés?

Ce que ce projet met en évidence, ce sont les raisons éthiques qui pèsent sur les chercheurs en IA. Je suis un informaticien qui crée une IA qui découvre des choses sur les gens. Cependant, je ne ferais pas personnellement une étude comme celle-ci. Il parle vraiment de l'ensemble de données que les chercheurs ont, plutôt que du trait qu'ils ont étudié, mais il a de vastes implications sociétales si les gens croient les résultats. La vraie inquiétude au sujet de l'IA ne devrait pas être que c'est si bon que nous faisons face à une prise de contrôle de style Skynet. C'est plutôt que les gens avec le pouvoir font des suppositions incorrectes sur ce que l'IA peut faire et ils l'utiliseront pour prendre des décisions qui changeront la vie des gens qui n'ont aucun recours et qui n'ont jamais consenti à son utilisation.