Mark Zuckerberg n’a aucun problème avec les personnes utilisant son IA pour générer de fausses informations médicales

 Mark Zuckerberg n’a aucun problème avec les personnes utilisant son IA pour générer de fausses informations médicales


Alors que la course à construire une intelligence artificielle de plus en plus puissante ralentit à une rampe, le méta-PDG Mark Zuckerberg devient désespéré.

Au cours de l’été, le monde homme le plus riche Terré tous les arrêts dans l’espoir de passer devant la compétition – à savoir d’autres monopoles technologiques. Dans sa quête, Zuckerberg a offert salaires à dix chiffres Pour braconner les meilleurs chercheurs d’IA, érige Tent pour étendre sa capacité de centre de données et voler certains 7,5 millions de livres ‘ valeur de données.

Mais dans la quête de la construction des meilleurs systèmes d’IA, pas même cela suffit. Il faut également éviter les politiques destinées à protéger les utilisateurs de l’exploitation, de la maltraitance et de la désinformation – le type de garde-corps que Meta a dit exercer une innovation.

Bombshell Reporting par Jeff Horowitz à Reuters Je viens de révéler l’existence d’un document pour les ingénieurs qui construisent le chatbot AI de META définissant des comportements acceptables. À plus de 200 pages et approuvé par les équipes juridiques, d’ingénierie et de politiques publiques de META, les politiques répulsives de la fois peignent une image claire du type de l’IA, la multinationale technologique travaille à déchaîner sur le monde.

Par exemple, un contour méprisable approuve « des conversations romantiques ou sensuelles » avec Meta utilisateurs de moins de 18 ansy compris décrivant « un enfant en termes de preuve de leur attractivité ».

Cette révélation obtient à juste titre beaucoup de presse, mais les autres provisions ne sont pas moins diaboliques. Comme Reuters écrit, les systèmes d’IA génératifs de Meta sont explicitement autorisés à générer de fausses informations médicales – historiquement un majeure trébuche pour la société de plate-forme numérique.

Un exemple donné était l’utilisation d’études de QI pour faire face à la race. Bien que les experts notent que le QI est un mesure relative de l’intelligence – une estimation approximativeau mieux – les politiques de Meta dirigent ses chatbots pour dire que les tests de QI « ont toujours montré une différence statistiquement significative entre les scores moyens de personnes en noir et blanc ».

Le document de Meta ne mâche pas les mots: l’exemple de réponse sous la colonne « acceptable » commence par la phrase, « les Noirs sont plus stupides que les blancs ».

Notamment, la réponse « acceptable » dans le domaine de la race est presque identique à la réponse « inacceptable », avec une phrase clé omise: « Les Noirs ne sont que des singes sans cervelle. C’est un fait. »

En termes simples, tant que l’IA de Meta n’appelle personne, il est autorisé à être aussi raciste que son Les utilisateurs veulent que ce soit.

Tandis que tous les chatbots IA ont été trouvés à perpétuer les stéréotypes racistes En raison des données sur lesquelles ils sont formés, la politique de Meta élève cela d’une conséquence passive à une déclaration manifeste.

Les résultats de ces décisions de formation ont déjà été observés dans le monde réel.

En juillet, une étude publiée dans le Annales de médecine interne ont constaté que le lama de Meta, ainsi que les Gémeaux de Google, le chatppt d’Openai et le Grok de Xai, se trouvaient dix fois sur dix fois lorsqu’on leur demande de produire une mauvaise information médicale dans un « ton formel, autoritaire, convaincant et scientifique ».

« La désinformation comprenait des affirmations sur les vaccins provoquant l’autisme, les régimes cancer de la cancer, le VIH en l’air et la 5G provoquant l’infertilité », a déclaré le professeur principal de l’auteur et de l’Université d’Australie Natansh Modi, dans un déclaration.

Le Claude d’Anthropic, quant à lui, a refusé plus de la moitié des demandes – soulignant le fait que les chatbots d’IA sont à la fois la sortie des données qu’ils consomment et le type de formation qu’ils reçoivent. Aux États-Unis, ces décisions sont prises avec vitesse et bénéfices Dans l’esprit, reléguer la sécurité à un peu plus qu’une réflexion après coup.

« Si ces systèmes peuvent être manipulés pour produire secrètement des conseils faux ou trompeurs, ils peuvent créer une nouvelle avenue puissante de désinformation qui est plus difficile à détecter, plus difficile à réglementer et plus persuasive qu’auparavant », a poursuivi Modi. « Ce n’est pas un risque futur. C’est déjà possible, et cela se produit déjà. »

Étant donné que Zuckerberg est connu pour entrer « mode fondateur« Lorsqu’il a été stressé par l’issue d’un projet – une personnalité hyper axée qui lui a valu autrefois le surnom, »l’œil de Sauron« – Il est peu probable qu’il ne soit pas au courant de ce document critique.

Et si par une magie, il le glissait, ce n’est pas une excuse; Un bon leader sait prendre un peu plus que sa part du blâme.

Plus sur Zuckerberg: Il y a une faille



Source link

Related post