En mars 2017, Facebook a lancé un projet ambitieux de prévention des suicides grâce à l'intelligence artificielle.
Après une série de suicides qui ont été diffusés en direct sur la plateforme, l'effort visant à utiliser un algorithme pour détecter de potentiels signes d'automutilation était censé résoudre de manière proactive un problème grave.
Mais plus d'un an après, suite à une série de scandales sur la protection de la vie privée mettant en cause l'utilisation des données, Facebook a décidé de créer et de stocker des données sur la santé mentale de ses utilisateurs pouvant faire l'objet d'une action sans le consentement de ces derniers. Cette décision a incité de nombreux experts en protection de la vie privée à se demander si l'on pouvait faire confiance à Facebook pour enregistrer des conclusions sur les détails les plus intimes de sa vie.

Lire l'article de Benjamin Goggin sur Business Insider France