Cet homme a été tué il y a quatre ans. Son clone de l’IA vient de parler devant le tribunal.

 Cet homme a été tué il y a quatre ans. Son clone de l’IA vient de parler devant le tribunal.


Les gens ne peuvent tout simplement pas s’arrêter Utilisation d’outils d’IA génératifs dans les procédures judiciairesmalgré répété recul des juges frustrés. Tandis que l’IA est initialement apparu dans les salles d’audience à travers des faux Cas «hallucinés» La tendance a pris un tour – entraîné par des outils vidéo et audio de l’IA de plus en plus sophistiqués. Dans certains cas, l’IA est même habituée à ramener les victimes des morts.

Cette semaine, la famille d’une victime d’un crime a présenté une brève vidéo dans une salle d’audience en Arizona représentant une version d’IA de Chris Pelkey, 37 ans. Pelkey ​​a été tué par balle en 2021 dans un incident sur la rage de la route. Maintenant, quatre ans plus tard, le «clone» généré par l’AI a semblé s’adresser à son prétendu tueur devant le tribunal. La vidéo, d’abord rapportée par Outlet local ABC15semble être le premier exemple connu d’une générative d’IA Deepfake utilisée dans une déclaration d’impact de la victime.

« À Gabriel Horcasitas, l’homme qui m’a tiré, c’est une honte que nous nous sommes rencontrés ce jour-là dans ces circonstances », dit la réplique de l’IA de Pelkey ​​dans la vidéo. «Dans une autre vie, nous aurions probablement pu être amis.»

La vidéo montre la version AI de Pelkey ​​- un vétéran armée barbu et barbu – portant un sweat à capuche vert et une casquette de baseball gris. La famille de Pelkey ​​aurait créé la vidéo en formant un modèle d’IA sur divers clips de Pelkey. Un filtre «de vieillesse» a ensuite été appliqué pour simuler à quoi pourrait ressembler Pelkey ​​aujourd’hui. En fin de compte, le juge a condamné Horcasitas à 10,5 ans de prison pour homicide involontaire, une décision qui, selon lui, a été au moins en partie influencée par le communiqué d’impact généré par l’AI.

« C’est le meilleur que je puisse vous donner de ce à quoi j’aurais ressemblé si j’avais la chance de vieillir », a déclaré le Pelkey ​​Deepfake. « Rappelez-vous, vieillir est un cadeau que tout le monde n’a pas, alors embrassez-le et arrêtez de vous soucier de ces rides. »

Un homme de New York a utilisé une IA Deepfake pour aider à discuter de son cas

La déclaration d’impact générée par l’AI-AI intervient un mois après qu’un accusé devant le tribunal de l’État de New York, Jerome Dewald, 74 ans, a utilisé une vidéo DeepFake pour aider à fournir sa propre défense juridique. Lorsque Dewald a comparu devant le tribunal pour un litige contractuel avec un ancien employeur, il a présenté une vidéo montrant un homme dans un pull et une chemise robe bleue parlant directement à la caméra. Le juge, confus par la vidéo, a demandé à Dewald si la personne à l’écran était son avocat. En réalité, c’était un Deepfake généré par l’AI.

« J’ai généré cela », a déclaré Dewald selon Le New York Times. « Ce n’est pas une vraie personne. »

https://www.youtube.com/watch?v=ctv4zqrzgba

Le juge n’a pas été satisfait et réprimandé Dewald pour avoir omis de révéler qu’il avait utilisé un logiciel AI pour aider sa défense. Prendre la parole avec le NYT Après l’audience, Dewald a affirmé qu’il n’avait pas eu l’intention de induire en erreur le tribunal mais a utilisé l’outil d’IA comme un moyen d’articuler plus clairement sa défense. Il a dit qu’il avait initialement prévu d’avoir le Farfake de Deep-Fake, mais était passé à la version présentée devant le tribunal après avoir rencontré des difficultés techniques.

« Mon intention n’était jamais de tromper mais plutôt de présenter mes arguments de la manière la plus efficace possible », aurait déclaré Dewald dans une lettre aux juges.

En rapport: (Ce chat de l’IA jouera l’avocat dans une vraie cour américaine)

Les deux cas représentent les derniers exemples de promenade génératrice de l’IA dans les salles d’audience, une tendance qui a commencé à gagner du terrain il y a plusieurs années à la suite de l’intérêt public pour les chatbots populaires comme Chatgpt d’Openai. Les avocats à travers le pays auraient utilisé ces modèles de langue importants pour Aidez à rédiger des dépôts juridiques et à collecter des informations. Cela a conduit à des cas embarrassants où les modèles ont «halluciné» des noms de cas et des faits entièrement fabriqués qui finissent par faire leur chemin dans les procédures judiciaires.

En 2023, deux avocats basés à New York ont ​​été sanctionnés par un juge après avoir soumis un bref contenant six fausses citations généré par Chatgpt. Michael Cohen, l’ancien avocat personnel du président Donald Trump, aurait envoyé de fausses affaires juridiques générées par l’IA à son avocat qui s’est retrouvé dans une requête soumise aux juges fédéraux. Un autre avocat du Colorado était suspendu après avoir soumis des affaires juridiques générées par l’AI-AI. Openai a même été poursuivi par un hôte de radio de Géorgie qui a affirmé qu’une réponse de Chatgpt l’a accusé d’être impliqué dans une véritable affaire de détournement de détournement avec laquelle il n’avait rien à voir.

Préparez-vous pour plus d’interstance dans les salles d’audience

Bien que les tribunaux aient puni les avocats et les défendeurs pour l’utilisation de l’IA de manière qui semble trompeuse, les règles sur la question de savoir s’il est jamais acceptable d’utiliser ces outils reste trouble. La semaine dernière, un panel judiciaire fédéral voté 8-1 pour demander des commentaires du public sur un projet de règle visant à garantir que les preuves assistées par l’IA répondent aux mêmes normes que les preuves présentées par des témoins experts humains. Le juge en chef de la Cour suprême, John Roberts, a également abordé la question de son 2023 Rapport annuelnotant à la fois les avantages potentiels et les inconvénients d’autoriser plus d’IA génératif dans la salle d’audience. D’une part, a-t-il observé, l’IA pouvait faciliter la défense des ressources financières limitées. Dans le même temps, il a averti que la technologie risque de «envahir les intérêts de la confidentialité et de déshumaniser la loi».

Une chose semble certaine: nous n’avons pas vu le dernier de Deepakes AI dans les salles d’audience.

Plus d’offres, d’avis et de guides d’achat

Mack DeGeurin est un journaliste technologique qui a passé des années à enquêter où la technologie et la politique entrent en collision. Son travail est précédemment apparu dans Gizmodo, Insider, New York Magazine et Vice.



Source link

Related post