Le système d’embauche idiot de McDonald’s vient de divulguer des données personnelles sur des millions de candidats

 Le système d’embauche idiot de McDonald’s vient de divulguer des données personnelles sur des millions de candidats


Au fur et à mesure que les modèles de langage grand (LLM) deviennent de plus en plus intégrés dans les plateformes qui définissent la vie quotidienne, les principaux défauts des capacités de sécurité du logiciel commencent à montrer.

McDonald’s fait partie des liste croissante Des entreprises qui ont rapidement des chatbots LLM à chaussures dans leurs systèmes d’embauche, des conséquences sont damnées. Son chatbot paradox.ai construit, que McDonald’s appelle « Assistant de recrutement virtuel« s’appelle Olivia.

Olivia est plus qu’heureuse d’aider les candidats à trouver des emplois à proximité d’eux à travers un faux chat en vie, avec une photo d’un travailleur humain pour rendre le tout beaucoup plus étrange.

En tant que chatbot, Olivia n’est pas si remarquable. Cela entraîne des demandeurs d’emploi à travers un dédale de tests de personnalité incompréhensibles et de questions de dépistage, avec le Hallucinations exaspérantes On peut s’attendre à rencontrer un LLM.

Cependant, pour un pirate qui sait faire des LLMS, Olivia est un trésor qui attend d’être découvert.

Comme signalé pour la première fois par CâbléOlivia avait des défauts de sécurité étonnants se cachant juste sous sa peau-humaine. Avec les bonnes connaissances, un pirate pourrait accéder aux chatlogs de 64 millions de candidats McDonald’s, y compris des informations personnelles, telles que des noms complets, des adresses e-mail, des numéros de téléphone, des adresses, une disponibilité du travail et des données de chat brutes.

La faiblesse d’Olivia à couper le souffle a été découverte par les chercheurs en cybersécurité Ian Carroll et Sam Curry, qui ont pu pénétrer dans le backend du paradoxe.ai llm en utilisant le nom d’utilisateur et le mot de passe « 123456 ». À partir de là, les pirates de White Hat ont pu accéder au «Test Restaurant» de la société AI, leur donnant un aperçu de la façon dont le tout fonctionnait.

« Il s’est avéré que nous étions devenus l’administrateur d’un restaurant d’essai à l’intérieur du système MCHIRE », a écrit Carroll Sur son blog. Puisqu’ils étaient encore confinés au logiciel de test de Paradox.ai, la paire a décidé de postuler à l’un des publications d’essai pour étudier le processus.

En plongeant dans le code derrière l’application, ils ont rapidement trouvé un paramètre indiquant leur numéro d’application, 64.185,742. Quand ils ont essayé de suivre la demande directement en dessous de la leur, ils se sont retrouvés face à face avec les informations personnelles d’un autre chercheur, démasqué pour que le monde entier puisse le voir.

« Nous avons rapidement réalisé que (système) nous permet d’accéder à chaque interaction de chat qui ait jamais postulé pour un emploi chez McDonald’s », a écrit Carroll.

« Nous avons immédiatement commencé à divulguer ce problème une fois que nous avons réalisé l’impact potentiel », a écrit Carroll. « Malheureusement, aucun contact de divulgation n’était accessible au public et nous avons dû recourir à des e-mails au hasard. »

« La page de sécurité Paradox.ai dit simplement que nous n’avons pas à nous soucier de la sécurité! » Il a ajouté.

La vulnérabilité interne a depuis été corrigée par paradoxe, et le mot de passe administrateur n’est plus 123456. Pourtant, c’est une démonstration cristalline de Comment irresponsable Une certaine adoption par LLM a été.

En savoir plus sur le piratage: Les pirates iraniens menacent de remettre des e-mails volés du cercle intérieur de Trump



Source link

Related post