Facebook vient de sortir un nouvel ensemble de services, en collaboration avec Forefront, pour tenter de lutter contre les comportements suicidaires via le réseau social.
Fondamentalement, les utilisateurs pourront signaler à Facebook des publications (statut, images, etc.) qui pourraient suggérer des pensées ou des comportements suicidaires. Facebook et ses partenaires examineront les rapports, puis suggéreront les meilleures options (messages automatiques, références, etc.). Il ne s’agit pas vraiment d’une initiative nouvelle, car Facebook disposait déjà d’un système d’alerte au risque de suicide, mis en place avec des organisations comme les Samaritains en 2011, et d’un ensemble de directives déjà disponibles en ligne.
Réseaux sociaux et suicide : une interconnexion
Le suicide est l’un des faits sociaux les plus marquants. Au niveau sociétal, le taux de suicides peut être augmenté ou diminué en fonction de plusieurs facteurs, comme l’explique Durkheim.
Dans certains pays, le suicide est le principal ennemi public ; au Japon, le suicide est la première cause de décès chez les personnes dans la vingtaine et la trentaine. UNE mala vida qui doit être mis au défi pour soutenir des générations plus optimistes et l’ensemble du système.
Un problème massif qui pourrait en théorie être abordé grâce à l’aide des réseaux sociaux. En fait, comme les conversations numériques ont de plus en plus d’impact sur les individus via leurs applications de médias sociaux et de messagerie préférées, et comme nos personnalités sont plus interfacées via des plateformes numériques, il y a un intérêt raisonnable pour la société à puiser dans ce terrain social vivant.
Les nouvelles fonctionnalités de Facebook entrent sur le champ de bataille des « idées suicidaires »
Les idées suicidaires sont définies comme « avoir des pensées d’automutilation avec une intention suicidaire variable» (Goldney, 2008). Il y a donc un débat au sein de la communauté scientifique pour savoir si « l’idéation passive » pourrait être moins risquée que « l’idéation active ». Dans le cas de Facebook, le nouvel ensemble d’outils cible l’idéation active, lorsque les utilisateurs quittent publiquement une empreinte numérique.
Cependant, comme l’a démontré Robert I. Simon, MD (Georgetown University School of Medicine, Washington, DC) :
« Lorsqu’un patient signale des idées suicidaires passives, des idées suicidaires actives sont invariablement présentes. Aucune ligne claire ne les sépare. Les idées suicidaires, actives ou passives, contiennent un mélange dynamique de pensées et de sentiments ambivalents le long d’un continuum de gravité. trouble psychiatrique du patient »
En d’autres termes, le problème doit être abordé à un stade très précoce. Compte tenu du fait que seule une minorité de personnes expriment leur point de vue via les médias sociaux, il est très insuffisant de détecter uniquement les risques des individus lorsqu’ils expriment publiquement une déclaration prétendument suicidaire. Dans certaines cultures, exprimer des pensées suicidaires est un tabou. Seuls de très petits groupes de personnes partagent leurs opinions profondes sur leurs profils Facebook ; avec des adolescents utilisant moins intensivement Facebook et trouvant de nouveaux crochets pour se cacher dans les médias sociaux, cette initiative semble un peu insuffisante. Après tout, Facebook veut connecter le monde entier et travaille actuellement sur la réalité virtuelle. Avant de le faire, essayer de façonner une expérience utilisateur plus basique doit être configuré pour être légitime, lorsque Facebook demandera aux utilisateurs de donner encore plus au réseau. Pour n’en citer que quelques-uns : notre fantasme, notre représentation physique et les liens de nos relations.
Un nouvel ensemble de fonctions qui pourraient être conceptuellement erronées
Ce qui est décevant à mon avis, ce sont les réponses systémiques et mécaniques que Facebook apporte avec le système actuel. Tout comme les utilisateurs peuvent signaler ou « signaler » un contenu qui semble « abusif » (et il n’y a pas d’échelle tangible, car cela dépend des valeurs et des perceptions des utilisateurs), un utilisateur devrait être en mesure de signaler et de signaler à Facebook quelque chose qui ne va pas avec un ami. C’est très perturbant – si un humain voit un autre humain parmi ses amis se sentir mal, la première chose à faire est probablement de communiquer directement ou d’essayer d’entrer en contact avec d’autres amis, ou via une association. Dans le cas de Facebook, les utilisateurs suspects vont recevoir un message très étrange – très déshumanisé. Le type de contenu que vous recevez des outils CRM lorsque les marques veulent vous inciter à cliquer sur un lien :
Et on devine les réactions qu’aura un utilisateur, avec ce genre de message. Pire encore : les nouvelles fonctionnalités pourraient être conceptuellement erronées.
Comme le décrivent deux études, ce n’est pas parce qu’un utilisateur de réseau social est actif sur Facebook ou Mixi (Japon) qu’il est plus connecté aux personnes qui pourraient s’en soucier.
« Les chercheurs ont découvert que les personnes qui ont régulièrement des pensées suicidaires ont à peu près le même nombre d’amis que les personnes du groupe témoin. Cependant, les personnes sujettes aux pensées suicidaires sont beaucoup moins susceptibles d’être membres de triangles d’amitié, ce qui signifie qu’elles ont moins d’amis qui sont aussi amis les uns avec les autres.
En outre, la recherche a révélé que les personnes sujettes aux pensées suicidaires sont susceptibles d’être membres de plus de groupes communautaires que celles du groupe de contrôle, ce qui peut être le résultat de passer plus de temps en ligne et d’un désir d’interagir. »
http://cacm.acm.org/news/153354-spotting-suicidal-tendencies-on-social-networks/fulltext
« Nous avons constaté que le nombre de communautés auxquelles appartient un utilisateur, l’intransitivité (c’est-à-dire la rareté des triangles incluant l’utilisateur) et la fraction de voisins suicidaires dans le réseau social, ont le plus contribué aux idées suicidaires dans cet ordre ».
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0062262
Demander à des personnes socialement déconnectées mais hyperactives numériquement de réagir positivement au « drapeau » des personnes de leur réseau, semble tout à fait compliqué.
Facebook possède maintenant WhatsApp et a investi beaucoup d’argent dans la fonction Messenger. Un peu comme Google lit notre e-mail sur Gmail pour faire correspondre les annonceurs aux utilisateurs, pourquoi Facebook ne pourrait-il pas parcourir et analyser automatiquement davantage notre contenu pour suggérer subtilement un contenu anti-suicidaire ? De nouveaux schémas pourraient être mis en place et identifiés pour suggérer des moyens plus subtils d’influencer les utilisateurs pour lutter contre leurs tendances suicidaires.