据报道,美国人身伤害律师事务所Morgan&Morgan本月向其保留的1000多名律师发送了一封紧急电子邮件。公报包含有关AI提出非常有说服力的假案例法律的能力的关键警告。
该律师事务所警告说,任何在法院申请中使用这些构成信息来支持其论点的律师都可能被驳回。
消息清晰,直到这一点。
摩根和摩根的权力负担不起,因为怀俄明州的联邦法官刚刚威胁要批准该公司的两名律师沃尔玛.
根据在法院申请中使用AI幻觉的一名律师的承认,他使用了一个“幻觉”案件的AI计划,并为他所谓的无意中错误道歉。
长期以来,怀疑论者预期了AI扩散的最坏情况。现在,AI正在影响法律制度,其虚构案件在全国各地领导法院质疑甚至惩罚犯错的律师。
在过去的两年中,至少有七起案件,它已正式成为诉讼人和法官的新高科技头痛,他们现在必须首先确定律师论点的信誉。
沃尔玛案是在法庭上使用AI“幻觉”的律师最受欢迎的案件之一,因为它涉及一家著名的律师事务所和大型公司被告。但是,由于聊天机器人,例如chatgpt启动了AI时代。
法官尚未就沃尔玛案中的律师进行纪律处分,该律师涉及据称有缺陷的气垫板玩具。
的确,由于有了生成的AI,律师现在花费更少的时间研究和起草法律摘要。许多律师事务所甚至签约了AI供应商或建立了自己的AI工具最大化生产率。
根据去年汤森路透的一项调查,路透社母公司接受调查的律师中至少有63%的律师说,他们在工作中使用了AI,而12%的律师说他们定期使用它。
法律顾问说,生成的AI以自信的事实而闻名,因此试图将其用于工作的律师必须谨慎行事。
当AI有时会产生虚假信息时,它被称为“幻觉”。这些模型基于从大数据集中学到的统计模式而不是通过验证这些数据集中的事实来生成响应。
根据律师的说法,律师必须审核并支持其法院申请,或者面临纪律处分的风险。去年,美国律师协会告知其40万成员,这些义务甚至扩展到“甚至是无意陈述”通过AI生产。
萨福克大学法学院院长安德鲁·佩尔曼(Andrew Perlman),AI的拥护者说:“当使用Chatgpt或任何生成的AI工具抓捕律师时,可以在不检查它们的情况下创建引用,这是无能的,这只是纯洁而简单的。”
科罗拉多大学法学院的法学教授哈里·苏登(Harry Suroden)敦促律师花时间学习他们逐渐依赖的“工具的优势和优点”。
Surden说,以前的案件强调了该行业中“缺乏AI扫盲”,许多律师并不完全了解AI工具可能造成的限制和潜在错误,导致他们在法律文件中呈现这些错误。
当然,冲浪者不会责怪这项技术。 “律师在AI之前一直在提交文件中犯错。这并不新鲜,”他说。
尽管摩根和摩根并未禁止其律师使用AI,但似乎希望其律师意识到使用的潜在风险生成的AI。这些知识有望降低犯错误的几率,但并不能完全消除风险。针对与法律工作有关的AI生成内容的彻底验证系统对于维持行业的专业标准,保持公众的信任并避免法律影响至关重要。
加密大都会学院:如何撰写web3简历来吸引采访 - 免费备忘单
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com