Récemment, le juge de district américain Mark D Dinsmore, un juge fédéral de district dans le district sud de l'Indiana, a suggéré une amende de 15 000 $ pour un avocat pour avoir cité des affaires judiciaires inexistantes dans des documents judiciaires. Cet incident a attiré une grande attention sur l'application de l'intelligence artificielle dans le domaine juridique.

Le protagoniste de l'incident est Rafael Ramirez, avocat de Rio Houndo, Texas. Le 29 octobre 2024, il cite trois affaires fictives dans ses documents juridiques déposés. Le juge Dinsmore a noté dans le récent rapport que Ramirez n'avait pas vérifié la validité et l'exactitude des affaires citées dans trois documents juridiques, et a donc recommandé une amende de 5 000 $ par document.
Le juge Dinsmore estime que les chiffres, les dates ou les fautes d'orthographe mal ci-joint sont une erreur courante, mais les cas où les citations n'existent pas sont de graves erreurs à l'autre niveau. Le juge a demandé à Ramirez d'expliquer pourquoi cela s'est produit pendant le procès, et Ramirez a admis qu'il avait utilisé des outils d'intelligence artificielle lors de la rédaction des documents juridiques et a dit qu'il n'était pas au courant que ces outils généreraient de faux cas et des citations.
Bien que Ramirez ait affirmé qu'il n'avait pas de malveillance, il a également admis qu'il ne se conformait pas pleinement à l'article 11 des règles fédérales de procédure civile, qui obligeaient les avocats à vérifier l'exactitude des documents soumis au tribunal. Le juge Dinsmore a souligné que le manque de compréhension de Ramirez des outils d'IA montrait la gravité du problème.
Non seulement cela, il y a eu des cas similaires dans d'autres États récemment. Au Minnesota, par exemple, le procureur général de l'État Keith Ellison a également été coincé avec des erreurs de références générées en utilisant l'IA. Un rapport spécialisé qu'il a soumis a cité deux articles académiques inexistants, ce qui a conduit à l'insatisfaction de la Cour à l'égard du rapport.
Cette série d'événements met en évidence les risques de l'intelligence artificielle dans le domaine juridique et les responsabilités que les avocats devraient supporter lors de l'utilisation de ces technologies.
Points clés:
1. L'avocat Rafael Ramirez a été conseillé d'infiltrer 15 000 $ pour avoir invoqué une affaire judiciaire fictive.
2. Ramirez a reconnu l'utilisation d'outils d'intelligence artificielle pour rédiger des documents juridiques, mais n'a pas vérifié les cas cités.
3. Cet incident a suscité une large attention aux risques de la demande d'intelligence artificielle dans le domaine juridique.