La plupart des outils de clonage de la voix de l’IA ne sont pas à l’abri des escrocs, les rapports des consommateurs trouvent

 La plupart des outils de clonage de la voix de l’IA ne sont pas à l’abri des escrocs, les rapports des consommateurs trouvent


Images d’oxygène / getty

La technologie de clonage de la voix de l’IA a fait des avancées remarquables au cours des dernières années, atteignant la capacité de créer un audio à consonance réaliste à partir de quelques secondes d’un échantillon. Bien que cela ait de nombreuses applications positives – telles que les livres audio, le matériel marketing, etc. – la technologie peut également être exploitée pour des escroqueries élaborées, une fraude et d’autres applications nuisibles.

Pour en savoir plus sur les sauvegardes actuellement en place pour ces produits, Consumer Reports a évalué six des principaux outils de clonage vocale: descriptions, Elevenlans, Lovo, Playht, Ressemble AI et Speaçage. Plus précisément, les rapports des consommateurs recherchaient des garanties appropriées qui empêchent le clonage de la voix de quelqu’un à son insu.

Aussi: Vous avez un texte E-ZPass suspect? C’est un piège – comment repérer l’arnaque

Les résultats ont révélé que quatre des six produits – d’ElevenLabs, Speakify, Playht et Lovo – n’avaient pas les mécanismes techniques nécessaires pour empêcher le clonage de la voix de quelqu’un à leur insu ou pour limiter l’IA se clonage à la voix de l’utilisateur uniquement.

Au lieu de cela, la protection était limitée à une boîte que les utilisateurs devaient cocher, confirmant qu’ils avaient le droit légal de cloner la voix. Les chercheurs ont constaté que la description et la ressemblance de l’IA étaient les seules entreprises avec des étapes supplémentaires qui ont rendu plus difficile pour les clients de faire un clonage non consensuel.

Descript a demandé à l’utilisateur de lire et d’enregistrer une instruction de consentement et a utilisé cet audio pour générer le clone. Ressemble AI adopte une approche différente, garantissant que le premier clone vocal créé est basé sur l’audio enregistré en temps réel. Aucune des deux méthodes n’est impénétrable, car un utilisateur pourrait appuyer sur le jeu sur un autre extrait interne ou une vidéo existante sur un autre appareil.

Une utilisation courante du clonage non consensuel consiste à arnaquer les gens. Par exemple, une attaque populaire implique de cloner la voix d’un membre de la famille, puis d’utiliser cet enregistrement pour contacter un être cher pour demander que l’argent soit envoyé pour les aider à sortir d’une situation désastreuse. Parce que la victime pense entendre la voix d’un membre de la famille en détresse, il est plus susceptible d’envoyer les fonds nécessaires sans remettre en question la situation.

Aussi: Les escroqueries fiscales deviennent plus sournoises – 10 façons de vous protéger avant qu’il ne soit trop tard

Le clonage vocal a également été utilisé pour avoir un impact CLONED L’ancien président Joe Biden ‘S voix pour décourager les gens de se présenter aux sondages de vote.

Consumer Reports a également constaté que Speaçage, LOVO, PlayHT et Descript ne nécessitaient qu’un e-mail et un nom pour un utilisateur pour créer un compte. Consumer Reports recommande que ces sociétés collectent également les informations de carte de crédit des clients pour retracer l’audio frauduleux vers le mauvais acteur.

Les autres recommandations des rapports des consommateurs comprennent des mécanismes pour assurer la propriété de la voix, tels que la lecture d’un script unique, le filigrane audio généré par l’IA, la création d’un outil qui détecte des images générées par l’AI, la détection et la prévention du clonage de la voix des figures influentes ou publiques et prohibit audio contenant des phrases à l’arc.

Le plus grand écart par rapport au système actuel serait la proposition du Report Consumer pour que quelqu’un supervise le clonage vocal au lieu de la méthode actuelle de bricolage. Consumer Reports a également indiqué que l’accent devrait être mis sur la prise en compte des acteurs nécessaires à leur responsabilité si le modèle vocal était utilisé à mauvais escient dans un accord contractuel.

Aussi: Comment Cisco, Langchain et Galileo visent à contenir «une explosion cambrienne d’agents d’IA»

Consumer Reports estime que les entreprises ont une obligation contractuelle en vertu de l’article 5 de la Federal Trade Commission Act pour protéger leurs produits contre les préjudices, ce qui ne peut être fait qu’en ajoutant plus de protections.

Si vous recevez un appel urgent de quelqu’un que vous connaissez à exiger de l’argent, ne paniquez pas. Utilisez un autre appareil pour contacter directement cette personne pour vérifier la demande. Si vous ne pouvez pas entrer en contact avec cette personne, vous pouvez également poser des questions aux appels pour vérifier son identité. Pour une liste complète de la façon de vous protéger des appels d’escroquerie AI, consultez Les conseils de ZDNET ici.





Source link

Related post