Rencontrez les juges d’adopter au début de l’IA

 Rencontrez les juges d’adopter au début de l’IA


En cela, Goddard semble être pris dans la même situation que le boom de l’IA a créé pour beaucoup d’entre nous. Trois ans plus tard, les entreprises ont construit des outils qui semblent si courants et humains qu’elles obscurcissent les problèmes intraitables qui se cachent en dessous – des réponses qui lisent bien mais qui sont fausses, des modèles formés pour être décents à tout mais parfait pour rien, et le risque que vos conversations avec elles soient divulgué à Internet. Chaque fois que nous les utilisons, nous parions que le temps sauvé va l’emporter sur les risques et nous faisons confiance pour attraper les erreurs avant qu’ils ne comptent. Pour les juges, les enjeux sont riches en ciel: s’ils perdent ce pari, ils sont confrontés à des conséquences très publiques et l’impact de ces erreurs sur les personnes qu’ils servent peuvent durer.

«Je ne vais pas être le juge qui cite des affaires et des ordres hallucinés», explique Goddard. «C’est vraiment embarrassant, très embarrassant professionnellement.»

Pourtant, certains juges ne veulent pas se laisser laisser à l’ère de l’IA. Avec certains dans le secteur de l’IA suggérant que l’objectivité et la rationalité supposées des modèles d’IA pourraient les faire meilleurs juges que les humains faillibles, cela pourrait conduire certains sur le banc à penser que tomber en retard présente un risque plus important que de se déplacer trop loin.

Une «crise attendant de se produire»

Les risques d’adoption précoce ont soulevé des alarmes avec le juge Scott Schlegel, qui siège à la cinquième cour d’appel de circuit de Louisiane. Schlegel a longtemps blogué sur le rôle utile que la technologie peut jouer dans la modernisation du système judiciaire, mais il a averti que les erreurs générées par l’AI-AI dans les décisions des juges signal Une «crise en attente de se produire», qui éclipserait le problème des déposés des avocats avec des affaires informé.

Les avocats qui font des erreurs peuvent être sanctionnés, faire rejeter leurs requêtes ou perdre des cas lorsque la partie adverse découvre et signale les erreurs. «Lorsque le juge fait une erreur, c’est la loi», dit-il. «Je ne peux pas y aller un mois ou deux plus tard et aller« oups, donc désolé »et me renverser. Cela ne fonctionne pas de cette façon.»

Envisagez des cas de garde d’enfants ou des procédures de mise en liberté sous caution, Schlegel déclare: «Il y a des conséquences assez importantes lorsqu’un juge s’appuie sur l’intelligence artificielle pour prendre la décision», surtout si les citations sur lesquelles la décision repose sont compensées ou incorrectes.

Ce n’est pas théorique. En juin, un juge de la Cour d’appel de Géorgie a rendu une ordonnance sur laquelle s’appuyait partiellement sur cas maquillés Soumis par l’une des parties, une erreur qui n’a pas été prise. En juillet, un juge fédéral dans le New Jersey se retirer Une opinion après que les avocats se plaignaient également des hallucinations.

Contrairement aux avocats, qui peuvent être ordonnés par la Cour pour expliquer pourquoi il y a des erreurs dans leurs dépôts, les juges n’ont pas à montrer beaucoup de transparence, et il y a peu de raisons de penser qu’ils le feront volontairement. Le 4 août, un juge fédéral du Mississippi a dû rendre une nouvelle décision dans une affaire de droits civils après que l’original contienne des noms incorrects et des erreurs graves. Le juge n’a pas entièrement expliqué ce qui a conduit aux erreurs même après que l’État lui ait demandé de le faire. « Aucune autre explication n’est justifiée », le juge a écrit.

Ces erreurs pourraient éroder la foi du public dans la légitimité des tribunaux, dit Schlegel. Certaines applications étroites et surveillées de l’IA – résumant des témoignages, obtenant un retour rapide sur l’écriture – peuvent gagner du temps, et ils peuvent produire de bons résultats si les juges traitent le travail comme celui d’un associé de première année, en le vérifiant soigneusement pour l’exactitude. Mais la plupart du travail d’être juge traite de ce qu’il appelle le problème de la page blanc: vous présidez un cas complexe avec une page vierge devant vous, obligé de prendre des décisions difficiles. Penser à travers ces décisions, dit-il, est en effet le travail d’être juge. Obtenir de l’aide avec un premier projet d’une IA sape cet objectif.

« Si vous prenez une décision sur qui obtient les enfants ce week-end et que quelqu’un découvre que vous utilisez Grok et que vous auriez dû utiliser des Gémeaux ou du Chatgpt – vous savez, ce n’est pas le système judiciaire. »



Source link

Related post