Si vous pensiez déjà que Facebook était toxique, il remplace maintenant ses modérateurs humains par l’IA

 Si vous pensiez déjà que Facebook était toxique, il remplace maintenant ses modérateurs humains par l’IA


Peu d’entreprises dans l’histoire du capitalisme ont amassé autant de richesse et d’influence que Meta.

Une superpuissance mondiale dans l’espace d’information, Meta – la société mère de Facebook, Instagram, WhatsApp et Threads – a une capitalisation boursière de 1,68 billion de dollars au moment de la rédaction, ce qui, pour un sentiment d’échelle approximatif, est plus que le Produit intérieur brut d’Espagne.

Malgré son immense influence, aucun de ses algorithmes internes ne peut être examiné par des chiens de garde publics. Son pays hôte, les États-Unis, a largement a fait les yeux sur les yeux à ses transactions en échange d’une utilisation gratuite du vaste méta capacités de surveillance.

Ce manque de surveillance associé à la quasi-omniprésence de Meta en tant qu’utilité sociale a eu des conséquences dévastatrices dans le monde entier, se manifestant dans des crises comme la génocide des musulmans au Myanmar, ou le suppression systémique des organisations de droits palestiniens.

Comment découvrez-vous les dommages causés par l’une des sociétés les plus puissantes de la Terre? Dans le cas de la violence publique, la preuve n’est pas difficile à tracer. Cependant, la dynastie d’entreprise sans précédent de Meta crée également des dommages moins évidents, qui des dizaines de chercheurs, de chercheurs et de journalistes consacrent des carrières entières à la découverte.

Un groupe éminent dedits enquêteurs est GLAAD, l’alliance gay et lesbienne contre la diffamation, qui a récemment publié son rapport annuel sur la sécurité des médias sociaux, la vie privée et l’expression des personnes LGBTQ.

Le rapport note que Meta a subi un « particulièrement extrême » quart de travail idéologique Au cours de la dernière année, l’ajout d’exceptions nuisibles à ses politiques de modération de contenu tout en supprimant de manière disproportionnée les utilisateurs LGBTQ et leur contenu. Le géant de la technologie n’a également pas donné à la souveraineté des utilisateurs LGBTQ sur leur données personnellesqu’il recueille, analyse et exerce pour générer d’énormes bénéfices.

Tandis que Meta recueille toutes nos données – à partir de laquelle elle tire 95% de ses revenus – la pratique est particulièrement nocive pour les utilisateurs LGBTQ, qui doivent ensuite affronter biais algorithmiques, sortie non consensuelle, harcèlementet dans certains pays oppression de l’État.

« C’est une période dangereuse, certainement pour les personnes trans qui, en tant que minorité, ont été si ridiculement décalées, mais aussi un moment dangereux pour les homosexuels, les personnes ouvertement BI (sexuelles), les personnes qui sont différentes », explique Sarah Roberts, professeur de l’UCLA et directeur du Center for Critical Internet.

Pour répondre à ces lacunes et aux dangers qu’ils introduisent, GLAAD a fait un certain nombre de recommandations. Une suggestion clé était d’améliorer la modération « en fournissant une formation à tous les modérateurs de contenu axés sur la sécurité, la confidentialité et l’expression LGBTQ ». Le groupe de défense des médias ne mâche pas les mots, ajoutant que « les systèmes d’IA doivent être utilisés pour signaler une revue humaine, pas pour les déménagements automatisés ».

Cependant, il ne semble pas que Meta ait reçu le message.

Des semaines après que GLAAD a publié ses conclusions, Documents de méta internes divulgués à Radio Nationale Publique a révélé le plan de l’entreprise de remettre 90% de ses examens de confidentialité et d’intégrité à «l’intelligence artificielle».

Cela aura un impact sur presque toutes les nouvelles fonctionnalités introduites à ses plates-formes, où les modérateurs humains évalueraient généralement de nouvelles fonctionnalités pour les risques de confidentialité et de sécurité, et le bien-être de groupes d’utilisateurs comme les mineurs, les immigrants et les personnes LGBTQ.

L’évaluation des risques internes de Meta est un processus déjà opaque, et Roberts note que le gouvernement tente de surveiller les risques, comme la loi sur les services numériques de l’UE, est également un labyrinthe de dépôts qui sont largement dictés par les sociétés de médias sociaux eux-mêmes. AI, Chocking plein de préjugés et sujette aux erreurs – comme admis par Meta’s Own IA Chef – est certain d’aggraver la situation.

Plus tôt cette semaine, en attendant, le Wall Street Journal révélé Meta prévoit d’automatiser entièrement la publicité via le logiciel d’IA génératif de l’entreprise, qui permettra aux annonceurs de « créer et cibler complètement les publicités » directement, sans humain dans la boucle.

Cela comprend des publicités hyper personnalisées, écrit le WSJ« Pour que les utilisateurs voient différentes versions de la même annonce en temps réel, en fonction de facteurs tels que la géolocalisation. »

Des thésauriseurs de données comme Meta – qui vous suivre Même lorsque vous n’utilisez pas ses plateformes – vous avez longtemps pu profiler des utilisateurs LGBTQ en fonction de l’identification de genre et de l’orientation sexuelle, y compris ceux qui ne sont pas publiquement sortis.

La suppression de tout humain de ces pratiques déjà sinistres sert à rationaliser les opérations et méta de distance De ses propres actions – « nous Les utilisateurs gays ne vivant pas sous un gouvernement oppressif « , » la société peut dire: « Même si notre IA l’a fait. » Ce n’est pas un hasard si Meta avait déjà dissoute son « IA responsable« Équipe dès 2023.

À l’origine de ces décisions – le méta-PDG Mark Zuckerberg tour de droite Nonobstant – est le lecteur calculé pour maximiser les revenus.

« S’il n’y a aucune raison de modérer rigoureusement un contenu nocif, alors pourquoi payer autant de modérateurs de contenu? Pourquoi engager les chercheurs pour examiner la circulation de ce type de contenu? » observe Roberts. « Il finit par y avoir de véritables économies de coûts là-bas. »

« L’une des choses que j’ai toujours dites, c’est que la modération du contenu des médias sociaux ne concerne pas principalement la protection des gens, il s’agit de gestion de la marque », a-t-elle déclaré Futurisme. « Il s’agit de la plate-forme qui gère sa marque afin de créer l’environnement le plus accueillant pour les annonceurs. »

Parfois ces priorités des entreprises Alignez-vous avec des causes progressives, comme la sécurité des utilisateurs LGBTQ ou l’inscription des électeurs. Mais quand ils ne le font pas, note Roberts, « les dollars sont des dollars ».

« Nous envisageons des sociétés de plusieurs milliards de dollars, les sociétés les plus capitalisées du monde, qui ont fonctionné en toute impunité pendant de nombreuses années », a-t-elle déclaré. « Comment les convaincre qu’ils devraient s’en soucier, quand d’autres secteurs puissants leur disent le contraire? »

Plus sur Meta: Les plateformes de Meta sont devenues un puisard de la haine contre les personnes queer



Source link

Related post