Commission de l'éthique en science et en technologie

L’automutilation et l’anorexie sur les réseaux sociaux

15 février 2019 Internet, Santé, Technologies de l'information et des communications

Partager cette page

Au début février, après des années d’inaction, Instagram annonçait vouloir retirer de sa plateforme les images explicites d’automutilation. Il s’agit d’un des derniers d’une série d’événements qui soulèvent la question du contrôle des contenus véhiculés sur les médias sociaux.

En 2017, le suicide d’une fille de 14 ans a attiré l’attention sur certains contenus sur Instagram. Les parents avaient alors découvert que leur fille était abonnée depuis un certain temps à des comptes d’utilisateurs qui publiaient des images explicites d’automutilation et des commentaires qui en faisaient la promotion. Par ailleurs, des observateurs reprochent à Facebook de tolérer des groupes fermés véhiculant le même type de message. Dans un article de la BBC, une autre jeune fille de 16 ans raconte comment elle est devenue dépendante à ce type de contenu dès l’âge de 12 ans. Elle publiait elle-même sur son compte Instagram des photos de blessures qu’elle s’infligeait alors que certains de ses 8000 abonnés l’encourageaient à aller toujours plus loin. Son père a signalé des contenus et alerté la compagnie mais rien n’a été fait.

Après des années de pression exercée par des parents, des groupes de défense et des experts, Instagram a finalement décidé de retirer les publications d’automutilation. Pour les critiques, c’est trop peu, trop tard. En effet, ce geste aurait dû être posé depuis longtemps. De plus, d’autres types de contenus dangereux circulent sur la plateforme, notamment ceux faisant la promotion de l’anorexie (cf. communauté pro-ana). Des utilisateurs y exposent leur maigreur extrême, donnent des conseils et encouragent leur abonnés à suivre des règles sévères de restriction alimentaire.

On retrouve ainsi sur les médias sociaux, tantôt une esthétisation et une romantisation de la souffrance et de la mort, tantôt des images extrêmement violentes et subversives, des éléments qui sont séduisants pour les jeunes. Selon des experts, l’exposition à des images explicites et à des commentaires faisant la promotion de l’automutilation et de l’anorexie peuvent déclencher ou exacerber ces problèmes chez les personnes vulnérables de manière à causer de sérieux torts à certains utilisateurs (non-malfaisance).

Le manque d’initiatives proactives de la part des plateformes de médias sociaux soulève la question de la responsabilité morale et sociale des entreprises. Certains font valoir que, puisque les plateformes ne sont qu’un lieu de diffusion et qu’ils ne produisent pas les contenus, ils ne sont pas responsables de ce qui circule sur leurs infrastructures. Mais les entreprises sont-elles vraiment libérées de toute obligation morale et juridique de surveiller et contrôler les contenus circulant sur leurs plateformes? À cet égard, la loi québécoise stipule que les intermédiaires tels que les médias sociaux ne sont pas obligés de surveiller ce qui se passe sur leurs plateformes. « Ce n’est que lorsqu’ils ont connaissance du caractère illicite d’un document se trouvant sur leurs environnements qu’ils peuvent être tenus responsables », comme lorsqu’un utilisateur signale une publication ou un commentaire.

Par ailleurs, il faut rappeler que l’autonomie des utilisateurs est au fondement de la philosophie à l’origine d’Internet. Elle renvoie à la capacité à exprimer et à recevoir librement une diversité d’idées, d’informations et d’identités. Il y a donc une résistance de la part de plusieurs Internautes lorsqu’il s’agit de contrôler Internet, ceux-ci y voyant une forme de censure.

Cependant, un mécanisme à l’œuvre sur les moteurs de recherche et les réseaux sociaux vient remettre en question la prétendue neutralité des plateformes et l’autonomie des utilisateurs : la personnalisation des résultats de recherche et de l’offre de contenu sur Internet. À partir de différentes données collectées sur chaque Internaute (amis, historique de navigation et de recherche, clics, interactions virtuelles, etc.), des algorithmes sélectionnent les contenus qui lui seront prioritairement accessibles. Ainsi, chaque utilisateur en vient peu à peu à être enfermé dans une bulle qui lui est propre et qui l’isole d’une grande partie de la diversité offerte initialement sur Internet. C’est un phénomène qu’on appelle la « bulle de filtres » ou « bulle informationnelle ». Appliquée au cas qui nous occupe, la personnalisation de l’expérience Internet fait en sorte que les réseaux sociaux renforcent les tendances de personnes vulnérables en proposant prioritairement des contenus semblables à ceux déjà consultés et des contacts ayant les mêmes comportements et idéations morbides.

L’exposition à des comportements morbides sur les réseaux sociaux peut être conçue comme un problème de santé publique. Ainsi, on retrouve une tension entre la liberté économique des entreprises (la recherche de la profitabilité), leurs responsabilités morales, l’autonomie des Internautes et le bien-être des utilisateurs vulnérables.

Si on priorise la protection des personnes vulnérables (dont certaines sont très jeunes) et qu’on accepte de retirer certains contenus néfastes des plateformes, il faut trouver des manières de procéder. Premièrement, les technologies de détection automatisée peuvent faire une partie du travail. Cependant, celles-ci n’arrivent pas à détecter le sarcasme ou faire la distinction entre les utilisateurs qui font l’apologie d’un comportement néfaste et ceux qui offrent du soutien aux personnes aux prises avec ces problèmes. Deuxièmement, on peut tenter de bloquer des termes de recherche et des mots-clics (hashtags), mais les utilisateurs trouvent rapidement d’autres mots codés pour contourner l’obstacle. Troisièmement, on peut aussi vouloir compter sur le signalement des contenus indésirables par les utilisateurs. Cependant, dans le cas qui nous occupe, les contenus doivent être activement recherchés et il est peu probable que quelqu’un tombe dessus par hasard. De plus, sur Facebook, les contenus se trouvent souvent dans des groupes fermés inaccessibles aux autres utilisateurs. Enfin, on peut mettre en place, en complément avec les algorithmes de détection, des équipes d’inspecteurs humains, quoique l’ampleur des contenus à couvrir et leur renouvellement constant rend la tâche extrêmement laborieuse.

Mise à part la question de la faisabilité de la surveillance et de la détection, se pose la question de la volonté des plateformes d’agir de manière rigoureuse et diligente. Plusieurs critiques mettent en doute l’efficacité de l’autorégulation. Par exemple, dans l’un des cas exposé plus haut, le père avait signalé des contenus et avait même contacté Instagram, sans qu’aucune mesure ne soit prise. Face à l’incurie des entreprises, plusieurs pays ont décidé, ou envisage, de légiférer de manière à donner plus de responsabilités aux plateformes.

Si l’enregistrement des fichiers de témoins est activé sur votre navigateur, la visite de ce site placera un fichier de témoins sur votre ordinateur, ou un fichier de témoins sera lu si vous avez déjà visité ce site auparavant. Notre utilisation des fichiers de témoins vise uniquement à améliorer votre expérience comme utilisatrice ou utilisateur sur le site Web de la Commission.