Facebook dit avoir pris des mesures sur 33,3 millions de contenus en Inde en raison d’une violation de la politique en juillet

Du 16 juin au 31 juillet, Facebook a activement « agi » sur plus de 33,3 millions de contenus dans 10 catégories de violations en Inde, ont déclaré mardi les géants des médias sociaux dans un rapport de conformité. ..

Facebook Plateforme de partage de photos, Instagram Au cours de la même période, il a activement agi sur environ 2,8 millions d’œuvres dans neuf catégories.

La société a reçu 1 504 rapports d’utilisateurs sur Facebook et 265 rapports sur Instagram via le mécanisme de réclamation indien entre le 16 juin et le 31 juillet, et a déclaré que les sociétés de médias sociaux y avaient répondu. rizière.

Une porte-parole de Facebook a déclaré qu’il avait constamment investi dans la technologie, les personnes et les processus pour assurer la sécurité des utilisateurs en ligne et la liberté de s’exprimer sur la plate-forme.

« Nous combinons l’intelligence artificielle, les rapports de la communauté et les examens d’équipe pour identifier et examiner le contenu par rapport à nos politiques. Nous avons publié notre deuxième rapport de conformité mensuel pendant 46 jours, conformément aux règles informatiques. – Du 16 juin au 31 juillet. “

Le rapport comprend des détails sur le contenu qui a été activement supprimé à l’aide d’outils automatisés, ainsi que des détails sur les plaintes des utilisateurs et les mesures prises, a déclaré une porte-parole. ..

Facebook a déclaré dans son rapport qu’il avait “agi” sur plus de 33,3 millions de contenus dans 10 catégories entre le 16 juin et le 31 juillet 2021.

Cela comprend le contenu lié au spam (25,6 millions), au contenu violent et brut (3,5 millions), à la nudité adulte et à l’activité sexuelle (2,6 millions) et aux expressions malveillantes (3 24 300). ..

Les autres catégories dans lesquelles le contenu a été diffusé comprennent l’intimidation et le harcèlement (1 23 400), le suicide et l’automutilation (9 45 600), les organisations et individus dangereux : la publicité terroriste (1 21 200), les organisations dangereuses et les individus : la haine organisée ( 94 500).

Le contenu « Action » fait référence au nombre de contenus (posts, photos, vidéos, commentaires, etc.) pour lesquels une action a été entreprise car elle a enfreint les critères. Les actions incluent la suppression du contenu de Facebook et Instagram, et des avertissements concernant les photos et les vidéos qui peuvent être offensantes pour certains téléspectateurs.

Le pourcentage agressif indique le pourcentage de tout le contenu ou des comptes que Facebook utilise la technologie pour détecter et signaler avant que les utilisateurs ne signalent. La plupart de ces cas allaient de 86,8 à 99,9 pour cent.

Le pourcentage positif de suppression de contenu lié à l’intimidation et au harcèlement était de 42,3 %. En effet, ce contenu est contextuel et intrinsèquement très personnel. Dans de nombreux cas, vous devrez signaler ce comportement à Facebook avant que Facebook puisse identifier ou supprimer un tel contenu.

En vertu des nouvelles règles informatiques Sur les grandes plateformes numériques (avec plus de 5 millions d’utilisateurs), vous devez publier un rapport de conformité mensuel détaillant les plaintes que vous recevez et comment les traiter. Le rapport comprend également un certain nombre de liens de communication ou d’informations spécifiques que l’intermédiaire a supprimés ou désactivé l’accès pour une surveillance proactive effectuée à l’aide d’outils automatisés.

Du 15 mai au 15 juin, Facebook « agit » sur plus de 30 millions de contenus dans 10 catégories incriminées, et Instagram prend des mesures sur environ 2 millions de contenus dans 9 catégories au cours de la même période. Je l’ai couru.

Pour Instagram, 2,8 millions de contenus ont été traités dans neuf catégories entre le 16 juin et le 31 juillet. Ceux-ci incluent le contenu lié au suicide et à l’automutilation (8 11 000), le contenu violent et brut (1,1 million), la nudité adulte et l’activité sexuelle (6 76 100), l’intimidation et le harcèlement (1 95 100) sont inclus.

Les autres catégories dans lesquelles le contenu a été diffusé comprennent les discours haineux (56 200), les organisations et individus dangereux : propagande terroriste (9 100) et les organisations et individus dangereux : haine organisée (5 500).

Entre le 16 juin et le 31 juillet, Facebook a reçu 1 504 signalements via le mécanisme de réclamation de l’Inde. « Nous avons fourni aux utilisateurs des outils pour résoudre 1 326 de ces rapports entrants, ce qui nous permet de télécharger des canaux et des données préétablis pour signaler le contenu de violations spécifiques. Il comprend un flux d’auto-guérison, un moyen de traiter les problèmes de compte piraté, et plus encore. “

Au cours de la même période, Instagram a reçu 265 rapports via le mécanisme de plainte de l’Inde, ajoutant que dans 181 cas, les utilisateurs ont fourni des outils pour résoudre le problème.

Tôt dans la journée, Google He a déclaré avoir reçu 36 934 plaintes d’utilisateurs, supprimé 95 680 contenus sur la base de ces plaintes et supprimé 5 76 892 contenus en juillet à la suite d’une détection automatique en juillet.


https://gadgets.ndtv.com/social-networking/news/facebook-took-action-33-million-content-pieces-posts-india-policy-violation-july-16-31-instagram-2525733#rss- gadgets-all Facebook dit avoir pris des mesures sur 33,3 millions de contenus en Inde en raison d’une violation de la politique en juillet