摘要: 纽约市律师可以在最新的律师中使用人工智能捕获的律师在提交给法院的文件中被抓住的最新例子之一。
纽约律师因引用人工智能生成的虚假案例可能面临处分
据路透社报道,纽约一名律师在医疗事故诉讼中引用了由人工智能生成的案例,但未确认该案例是否真实存在,现在可能面临纪律处分。
据报道,美国第二巡回上诉法院上周将律师李嘉送交其申诉小组,原因是发现她使用OpenAI的CHAT GPT研究先前的案例,但未确认所引用的案例是否真实存在。
根据报道,律师在客户的诉讼上诉中包括了虚构的州法院判决,声称一个皇后区的医生在堕胎手术中失误,但后来律师发现自己无法提供该判决的副本。
美国第二巡回上诉法院在其纪律审查中得出结论,律师的行为“远远低于律师的基本义务”。
李嘉后来承认使用了CHAT GPT这个受欢迎的AI聊天机器人“建议”给她一个案例,并未亲自验证结果。
尽管专家们警告不要使用这样的做法,指出AI是一种相对较新的技术,也因为“产生幻觉”而闻名,但律师决定使用这个受欢迎的应用程序。
李嘉辩称她在使用虚假案例时没有“恶意、故意或对对方当事人或司法系统的偏见”,她告诉路透社她“致力于遵守最高的职业标准,并认真对待这个问题”。
李嘉还没有立即回复福克斯新闻的置评请求。
这位律师的案件发生在司法系统越来越不得不面对法律文件中使用AI的情况下,其中包括2023年6月的一起案件,发现两名纽约律师在提交的简要中包含了六个虚构的引用,受到制裁。路透社报道称,去年11月,另一名科罗拉多州的律师因类似行为被暂停执业。
“这说明了美国专业阶层越来越无能”,联邦主义者的一名编辑Samuel Mangold-Lenett告诉福克斯新闻。他补充说,专业组织和律师协会应该做更多的工作“对其成员负责并进一步教育他们对AI过度依赖研究的后果”,他认为使用AI进行研究不是问题,但使用该技术的人需要验证工作。
“无能和自满在专业圈子中泛滥,像这样的问题将继续存在,直到人们接受教育并承担责任”,Mangold-Lenett说。
Heritage Foundation的技术政策中心研究助理Jake Denton认为,AI“具有巨大的潜力”,但他警告说,这项技术仍然面临许多挑战。
根据路透社的报道,第二巡回上诉法院的规则委员会已经就AI进行了讨论,但尚未组建一个全面审查该问题的小组。与此同时,路透社去年11月的另一份报道揭示,第五巡回上诉法院提议一项新规定,要求律师在起草简要时证明他们没有依赖AI,并且使用AI获取的信息已经由人类进行了准确性审核。
这些提议出现的原因是AI目前还没有准备好满足一些律师对其提出的要求,主要是由于缺乏足够的案例数据供技术参考。
“目前模型中的案例数据量还不足以在没有大量提示的情况下用它们来制作简要或书面意见。因此,模型会产生幻觉”,Center for Advanced Preparedness and Threat Response Simulation(CAPTRS)创始人Phil Siegel告诉福克斯新闻。他补充说,即使在所有数据都输入模型之后,仍需要大量的质量控制,因为模型会吸收法律语言和解释,这可能导致模型产生幻觉。
与此同时,Alexander认为AI在法律领域有前途,但他警告说,目前还没有适用于法律引用的平台。
“当然可以构建或者修改一个由法律专家为之使用的AI,但目前还没有达到使用于法律引用所需的水平”,Alexander说。“目前表现最好的私营部门AI平台是通用型的,通过与人的互动和持续培训来改进,这应该对任何使用AI的人提供警示。AI是一个引导你找到解决方案的工具,它很少提供解决方案本身。”
暂无评论内容