Lorsque l'algorithme que vous voulez mourir ......

Une triste histoire, Molly Russell en 2017, fille britannique de 14 ans a choisi de surprise à se suicider, il peut être difficile d'imaginer ce que les filles ressemblent à de petites choses peuvent faire une ruine apporté sans expérience.

Après la découverte, dans la recherche en ligne a des photos de suicide et auto-mutilation avant le suicide Molly, ces photos sortent même recommandé par certains de sa plate-forme sociale préférée. Même dans les quelques mois après la mort de Molly Lane, Pinterest est encore poussé automatiquement à son certains e-mail, le contenu est aussi des images liées à l'auto-mutilation, et même ouvert Instagram Molly, courant d'alimentation est également rempli avec beaucoup de contenu pertinent.

Après la tragédie, le père de Molly pensait Instagram et Pinterest est en train de tuer le complice de sa fille.

J'ai toujours insisté sur le fait que l'innocence de la technologie. Mais les algorithmes pensent que vous voulez mourir quand, comment devrions-nous faire?

Molly gens tragédie ont une frustration indescriptible, même une certaine colère. Par conséquent donné naissance à un nouvel argument --Instagram Pinterest et d'autres plates-formes sociales intensifie les jeunes « crise de santé mentale. » taux de suicide chez les adolescents britannique est le double de celui d'il y a huit ans, les médias sociaux est considéré comme l'une des raisons pour lesquelles la « génération de suicide » britannique de la hausse.

la mort de Molly, tant de gens ont remarqué le problème des données que l'on appelle grand, algorithmes. Le ministre britannique de la Santé a déclaré Matt Hancock que les médias sociaux ont besoin pour effacer ces contenus extrêmement négatifs, plutôt que de le faire devront faire face à des litiges importants. Avant cela, les règles que contre Instagram le suicide « d'embellissement » et autodestructeurs, et a maintenant une interdiction directe.

Mais l'interdiction simple ne résout pas ces problèmes, la plate-forme de réseaux sociaux non seulement l'hébergement de ces contenus négatifs, mais aussi sous la direction de l'algorithme de recommandation, le contenu sera finalement présenté aux personnes les plus susceptibles d'être affectés. Il a recommandé un comportement plus agressif, plutôt que de simplement la disponibilité. De plus en plus la littérature académique confirme: si elle est auto-mutilation, les rumeurs, les terroristes de recruter ou une sorte de théorie du complot, la plate-forme ne fait pas seulement le contenu facile à trouver, car il y a des algorithmes, dans une certaine mesure, la plate-forme sociale aider à élargir la diffusion de ces contenus.

Nous avons essayé d'explorer Instagram, Pinterest et Tumblr, etc. Comment puis-je recommande ce contenu négatif aux utilisateurs, a constaté que ces plates-formes sociales ont des règles limitées pour le suicide, la teneur en classe auto-mutilation, pour le rendre plus difficile de trouver des utilisateurs en masquant certains des mots clés ou tags, mais ceux-ci le contenu existe toujours, mais il recommandera également algorithme selon certaines règles. Il appelle « quelque chose vous » sur Pinterest, qui sont entraînés dans l'algorithme utilisé pour déterminer le contenu d'intérêt pour l'utilisateur en fonction du navigateur de l'utilisateur. Pour les entreprises, préfèrent appeler « recommandation intelligente », « service personnalisé », etc., il est considéré comme une utilisation pour améliorer l'expérience.

Par exemple, lorsque vous effectuez une recherche d'inspiration d'amélioration de l'habitat, et bientôt dans le flux, vous verrez toutes sortes d'échantillons de peinture images connexes, mais également recommandé plus designer d'intérieur amateur. Cela signifie que lorsque les utilisateurs recherchent un contenu plus souvent négative comme le suicide ou l'automutilation, l'algorithme déterminera plus vous aimez ce genre de choses, alors vous le recommander à différentes façons.

Comme le père de Molly découvre l'algorithme de recommandation de la plate-forme sociale ne discrimine pas. La plate-forme sociale pour afficher le contenu « vous », il peut lui-même violer leurs règles prédéterminées.

Imaginez, si vous essayez de trouver ce type de contenu automutilation négatif dans la plate-forme sociale humaine, l'algorithme de recommandation du système après avoir appris de cette tendance, mais il est recommandé pour votre soleil de contenu positif, apprenez à votre remodelage état d'esprit sain, l'algorithme suggéré était probablement pas ce que vous voulez voir le contenu, mais il vous mènera à un état plus correct, peut-être c'est ce que l'algorithme devrait vraiment le faire.

Dans le monde Internet d'aujourd'hui, beaucoup de gens sont plus disposés à parler ou vent pensées dans une plate-forme sociale. Les médias sociaux deviennent un miroir devant eux, ce miroir peut refléter directement l'état d'esprit de l'utilisateur, vous pouvez également élargir ou déformer. Et ces deux très différentes selon la façon dont l'algorithme sont orientées pour guider, lorsque l'algorithme que vous voulez mourir, on peut espérer que l'algorithme peut faire un chef de file de la pensée, plutôt que de continuer à prendre l'utilisateur face à la mort.

L'algorithme doit avoir les valeurs de la ligne de fond.

Bien sûr, cela suppose que l'ensemble de l'interdiction par les règles de plates-formes sociales est parfaite, alors les recommandations de l'algorithme présenté simplement pour fournir à l'utilisateur le plus acceptable, mais la réalité est pas le cas.

Le contenu de l'audit est très difficile, acceptable et les limites inacceptables entre ces deux règles pourraient sont souvent ambiguës. Même la mise en place d'un mécanisme d'examen manuel, la nouvelle version de chaque jour le contenu il y a des milliers de plate-forme sociale à grande échelle, les examinateurs doivent déterminer si l'utilisateur affecte la santé mentale de quelques secondes ou même un peu de temps, ce contenu est trop, pas seulement le type d'auto-mutilation, jour après jour, il y aura toujours le contenu manquant.

Molly tragédie comme exemple, l'interdiction de la plate-forme sociale est non seulement insuffisante, et peut même causer indirectement plus tragique. De nombreuses tentatives de automutilation ou des personnes suicidaires à travers le réseau pour trouver un soutien émotionnel et de motivation pour continuer à vivre. Grâce à la mise en place du cercle social à petite échelle l'autre pour tenir ensemble pour la chaleur, et même la finale hors de l'ombre. Pour ces personnes, la plate-forme sociale est la seule question des canaux vocaux à l'aide. Aveuglément interdiction presser la présence de ces groupes en l'absence d'un sentiment d'acceptation et d'échange entre semblables, il sera embourbé dans leur monde spirituel négatif ne peut se dépêtrer conduire à terme à la tragédie.

Ainsi, la question ne se contente pas de les laisser disparaître maintenant. Mais les besoins de la plate-forme pour mieux identifier ce à quel moment qui est plus approprié pour la présentation au groupe, tandis que lorsque la recherche de contenu et le contenu de l'algorithme recommandation n'est pas en même temps, la plate-forme a également besoin de déterminer si ceux-ci sont bonnes pour a Quedui tout le public d'une personne menace potentielle.

Nous n'avons pas discuté complètement le système de recommandation, peut-être parce que ce sont maintenant très courant, il peut être parce que la plupart des utilisateurs ne comprennent pas la façon dont il fonctionne. On peut rire de Facebook recommander d'acheter des produits Amazon nous avons, peut-être nous ne pas comme Spotify se sentent comme la musique triste, parce que même si vous venez d'avoir un comportement spécifique, l'algorithme a déjà commencé cette recommandation comme base pour déterminer plus votre intérêt beaucoup de choses.

Dans le « algorithme d'oppression » dans, Safiya Umoja Noble a critiqué Google agrandir ses résultats de recherche dans les stéréotypes raciaux, « Twitter et Tear Gas » auteur Zeynep Tüfekçi a mis en évidence la tendance des théories du complot zoom YouTube et le contenu extrémiste, que son algorithme de recommandation « un moyen de risque de plus en plus de promouvoir, recommander et la diffusion de la vidéo. »

Semblable à mieux explorer, ces recommandations auront moins psychologique impact sur la santé des personnes, la perception est différente. Certaines personnes pensent que la carte automutilation est facile de voir, certaines personnes trouvent qu'il est difficile de se rencontrer, et beaucoup plus difficiles à voir.

Maintenant, Adam Mosseri des opérateurs a reconnu que la Instagram plate-forme est pas simplement « besoin d'aborder la question du suicide et de l'auto-mutilation. » Pinterest porte-parole a déclaré: « Nous n'avons pas permis tout cependant, les règles existantes encouragent le contenu autodestructeurs, nous savons que ces politiques ne suffit pas que nous venons de faire des améliorations majeures pour empêcher nos algorithmes recommandés dans la page d'accueil de l'utilisateur Flux sensible. le contenu. nous allons bientôt adopter une approche plus proactive pour détecter et le supprimer, pleine d'émotion et de fournir un plus grand soutien pour les personnes à sa recherche. nous ne pouvons pas seul faire vous-même, c'est notre collaboration avec les professionnels de la santé mentale de sorte que notre méthode est plus efficace raisons. "

Cependant, ces changements deviendront de plus en plus difficile. algorithme recommandé est devenu un utilisateur de médias sociaux reste dans le principal moyen de leur propre plate-forme, il est peu probable de disparaître. Ces algorithmes sont optimisés pour répondre aux besoins des utilisateurs individuels, afin d'optimiser leurs intérêts collectifs beaucoup plus difficile. Les médias sociaux a également besoin de plus de connaissances sur la santé mentale, afin de mieux distinguer entre le contenu offensant et précieux, et de mieux comprendre l'impact de ces plates-formes pour les personnes atteintes de maladie mentale peut être causé. Telle est la promesse d'initiatives Instagram, ils doivent adhérer à la fin.

Les gens ne sont pas seulement la recherche de contenu, vous pouvez toujours attendre une réponse ou même à la recherche d'une vie à jamais de dynamique. Lorsque l'algorithme qu'une personne veut mourir quand il devrait au moins apprendre à lui dire: Non, vous ne voulez pas.

* Référence Source: compilé par Allen Do bb, reproduit s'il vous plaît préciser de FreeBuf.COM

No More thé, de fruits a été l'hôte avec succès l'été!
Précédent
les enfants victimes de mauvais traitements jouant l'indignation de provoquer, comment les parents peuvent-être si cruel? !
Prochain
Voulez-vous des véhicules autonomes popularité de masse? radar laser à l'état solide est la clé | 2018 Sommet mondial de conduite intelligente
« Sir Legend » fichier jeu Avril 5 Le système géant glorieux du patrimoine libéré
Le Japon et la Corée du Sud l'être des élèves aux États-Unis éperonné un grand inventaire, puis dessinez un maquillage devient mestizo secondes!
Pourquoi les retraits Baidu APP deviennent moins montant? Pour comprendre ces précautions
Sincère petit marteau éclater votre poitrine, coup de poing du Dharma de décider de leur sort
Ministère de l'Education: Date limite d'âge scolaire primaire ne se limite plus au 31 Août
Ma rumeur « a forcé à la retraite de congé » rumeurs, le nouveau prix de l'iPhone ci-dessous le site officiel | Lei Feng Matin
Injection virus de l'extorsion de type Ryuk, vers les griffes des systèmes x64
CTF GIRL corps humide de la partie, la lumière de style cool auto flashé ~
Oscar « Meilleur film » Cette affiche met en évidence l'art vraiment, la dernière bonne ironie
AI = apprentissage machine ², ² nous sommes sur le chemin de la | professeur à Princeton Jianqing Fan
Réouverture de 40 ans: ces politiques de réforme affectent votre vie?