多客科技 发表于 2025-6-10 20:03

AI智法双鉴专栏|英国高院警示:引用AI虚构判例,律师或面临藐视法庭调查

作者:微信文章
INTRODUCTION

引言





    在生成式人工智能广泛渗透法律实务的当下,如何“用而不滥”,成为摆在每一位从业者面前的现实课题。

    2025年6月,一纸判决在英国法律界引发广泛关注。高等法院分庭在Ayinde诉伦敦哈林盖自治市与Al-Haroun诉卡塔尔国家银行两案中,对法律人使用AI撰写法律文件时出现虚构判例、伪造引证与误述法律的行为,发出了明确而严厉的警告。

    在Ayinde案中,一名实习大律师涉嫌引用多个根本不存在的判例,并在后续解释中含糊其辞,否认使用了生成式AI工具,却无法提供其他可信的生成来源。法院最终认定,无论是有意伪造还是在使用AI后作出不实否认,其行为均已触及藐视法庭的起点门槛。值得注意的是,相关材料中出现了典型的AI“幻觉”特征,包括:真实格式、虚构编号、美式拼写混杂英式行文、内容高度模板化。

    相较之下,Al-Haroun案则更具普遍警示意义:一名普通当事人使用ChatGPT生成引证,律师“盲信盲签”,将未核实的内容提交法庭。法院毫不留情地指出:律师不能将检索责任让渡给非专业客户,哪怕对方提供的是“AI生成材料”。这不是“技术失误”,而是对基本职业伦理的漠视。

    在本期“AI智法双鉴”中,我们聚焦两案中暴露出的核心问题:这些“幻觉内容”(hallucinated cases)如何产生?为何未被及时识别?又该如何在使用AI辅助的同时保障法律工作的真实性与可信度?

    Ayinde案▼

实习大律师涉嫌使用生成式AI

    在本案中,申诉人律师在通信中引用了判例,而法院指出:

    被引用的“El Gendi”案并不存在。国家档案馆及其他任何来源均无此案的记录。所列的中立引证号 EWHC 2435 (Admin) 虽然真实存在,但对应的是另一宗案件。 [第36段]

    在申诉理由书中,法院进一步发现问题:其对《1996年住房法》第188(3)条的法律效果存在重大误述,且:

    …由Forey女士引用的另外四个判例同样不存在。我们还注意到她在文中使用了美式拼写“emphasized”(英式拼写为emphasised),这与她在其他通信中使用的英式拼写不同;此外,文字风格也显得颇为公式化。 [第38段]

    被告方律师在庭前通信中已提出对这些引证和法律误述的质疑。然而,法院认为,申诉方律师对此并未给予足够重视。相反,申诉方在回复中轻描淡写地称这些问题“容易解释”,并反讽对方律师应当“专注于能否找到支持己方主张的权威判例,而不是关注你们所谓的规范性发现”。[第42段]

    在分庭审理中,有人质疑律师是否使用了ChatGPT或其他大型语言模型(LLM),尽管当事人否认。法院并不采信其解释。在律师的陈词中,部分内容将责任归咎于其所在律所,指出:

    [该律师]称其在实习初期六个月几乎没有接受正式指导,也不记得曾在司法复审案中随同其他成员出庭。在后六个月实习期间,她的工作量极大,几乎全靠独立完成,所撰写材料从未有人审阅。 [第51段]

    法院对上述说法并无多少同情:

    即使其所在律所确实无法提供教材或在线订阅服务,我们也不认为这能构成有力的减责理由。Forey女士本可以通过国家档案馆的判例检索网站或律协图书馆自行查证其引用的案例。 [第67段]

    最终,法院作出如下认定:

    从目前材料看,有两种可能性:

    其一,Forey女士故意在书面材料中编造引证,这构成明显的藐视法庭行为;

    其二,她确实使用了生成式AI来生成案由列表和/或起诉理由。如果属后者,她在带有“真实性声明”的证人陈述中予以否认,则构成虚假陈述,亦为藐视行为。在上述背景下,我们认为已达到了启动藐视程序的门槛。 [第68段]

   Al-Haroun案▼

非法律专业人士使用ChatGPT,律师信任

    在Al-Haroun诉卡塔尔国家银行案中,其律师Hussain先生在提交的证人陈述包含了:

    ……大量法律引证,其中许多似乎完全是虚构的,或者即便确有其案,也并不包含所谓被引用的段落,或并不支持所主张的法律观点。[第73段]

    Al-Haroun承认自己对提交给法院的证人陈述中所包含的不准确和虚假的材料负有责任。他表示,这些引证是通过公开可用的人工智能工具、法律搜索引擎和在线资源生成的。他对所提交材料的真实性“抱有完全的(但他承认是错误的)信心”。[第76段]

    其代理律师也承认,他“依赖于Al-Haroun先生自行进行的法律检索结果,并未对相关引证进行独立核实”。[第77段]

    法院对该律师行为给予了严厉批评:

    “令人震惊的是,律师竟然依赖当事人来确认法律检索的准确性,而不是反过来。”[第79段]

    对于Hussain先生本人及其律师事务所,法院指出其未能遵守最基本的义务,即核实提交给法院材料的准确性:

    “律师无权将对法律引证或所附引语的准确性核查责任推给其非法律背景的客户。确保此类材料准确无误,是律师应尽的专业责任。”[第81段]

   法院的应对 ▼

选择转交监管机构,不直接启动藐视程序

    在Ayinde与Al-Haroun两案中,法院均未选择直接启动藐视法庭程序。

    针对Ayinde案的律师,法院认为,事实争议“无法在简易藐视程序中予以明确界定”,因此决定将此事转交大律师标准委员会(Bar Standards Board)进行调查。调查内容应包括:

    是否存在培训Forey女士的人员失责、监督不足、对其实习期的“签署通过”流程存在疏漏、工作安排不当,或对其服务宣传存在不当等问题。这些均非单独针对Forey女士的藐视程序所能处理的。[第69段]

    对于Ayinde案的律师事务所,法院认定无证据表明其故意向法院提交虚假材料,但仍将案件移送至律师监管局(Solicitors Regulation Authority)审查,重点调查:

    该律师在收到被告方就引用内容所发出的质疑信函后采取了哪些措施;以及他是否合理评估过Forey女士是否具备足够经验、是否胜任由哈林盖法律中心委托其执行的工作。[第72段]

    针对Al-Haroun案,法院认定,Al-Haroun本人无意误导法院,其错误在于对网络资源存在不当信任。

    至于其代理律师Hussain先生及律师事务所,法院同样将案件转交律师监管局进一步调查。

    未来是否会有进一步的监管处分尚不得而知,但可以预期的是:监管机构对于已证实的“虚假判例依赖行为”将采取极为严肃的态度。法院在本案中已表达严重关切,而类似问题也日益频发,显示出一种值得制止的趋势。

    例如,仅在今年5月的Bandla诉律师监管局案 EWHC 1167 (Admin)中,法院再次遇到同类情况:

    “在我看来,法院必须采取果断行动,以维护司法程序的完整性,防止任何‘虚假法律权威’的引用。在本案中,上诉人向法院提交了多个虚构判例,它们根本不存在。”——引自Bandla案第53段

   “幻觉内容”是如何产生的? ▼

Hallucinated Content

    生成式AI(如ChatGPT)并非数据库型检索工具,其核心机制是基于大规模语言模型对“可能合理的文字输出”进行概率生成。在没有接入权威法律数据库(如Westlaw、LexisNexis、英国国家档案馆等)的前提下,它生成的“判例”、“条文引用”往往并非基于真实数据,而是模仿真实法律文书的语言结构与格式模板。   

    AI生成的“虚假案例”通常具备以下几个特征:

    •名称和编号格式仿真度高;

    •引述内容带有“通用法律术语”但缺乏真实细节;

    •拼写风格不一致(如英美拼写混用);

    •法理逻辑模糊,常呈现模板化论证。

   为何未被及时识别? ▼

    AI的不规范应用未能北归根结底,是法律专业责任链条中的核查环节失守。

    在Ayinde案中,实习律师未能就所引判例自行核实,而其所在律所既未提供充分的监督,也未建立必要的文件审核机制;在Al-Haroun案中,代理律师竟将引证核实责任转嫁给非专业当事人,反映出部分法律服务提供者在AI使用场景下“技术敬畏感”丧失、“人机角色认知错位”。

    此外,还有两个客观原因助推了这些“幻觉内容”的未被及时识别:

    1. AI生成内容外观极度“合法”:格式完备、语气专业、结构清晰,极易在视觉上“骗过”读者;

    2. 法院受理前缺乏系统性技术筛查机制:目前法院文书系统并不自动比对判例真实性,多依赖对方律师或法官发现。

   如何防范? ▼

    面对生成式AI的“高伪装性”输出,唯一有效的防线,依旧是人类专业判断与制度流程。具体来说:

    1. “引用即核实”原则常态化:无论引用是否由AI生成,律师必须对其真实性承担最终责任。律所内部应形成“二次查验”机制——特别是涉及判例、法规、证人陈述等敏感要素。

    2. 区分生成型AI与检索型AI的职责边界:前者可辅助起草、润色逻辑,后者(如接入数据库的AI助手)方可协助检索;两类工具不可混用、更不可混信。

    3. 加强对实习律师与年轻从业者的AI伦理培训:Ayinde案显示,监督缺位与经验不足极易在AI工具的“伪精确感”面前放大风险。

    从根本上说,AI可以协助表达,但不能替代事实。专业判断、事实查证和职业伦理,仍是法律人不可让渡的责任。

结语▼

Conclusion

    本文讨论的两个案件背后,问题远非简单的“AI使用不当”,而是将AI工具“伪装为权威”,却不承担人类责任主体义务的系统性失范。

    在法律工作中,AI永远不能成为“真实即合理”的推定来源。生成式AI只能辅助撰写,不能代替核查;其生成的是语言模式,而非真实世界的司法裁决或先例。若法律从业者不能明确区分语言形式的相似性与权威性之间的根本差异,最终将使法律专业的判断力让位于表面上的格式合规。

    更值得警惕的是,一旦AI所生成的“幻觉内容”被律师有意或无意地纳入正式法律文件,其影响已不再局限于技术误用,而是直接触及司法程序的公信力与法庭对律师陈述的信赖机制。

    英国高等法院在本次判决中明确指出,若未来仍有类似行为,法院将主动调查相关律所是否建立了充分的培训、监督与质量控制制度。这一表态不仅针对个案,更是对整个法律行业的制度性警示:技术能力的提升不能替代职业义务的履行,AI工具的进步越快,专业监管越不能松懈。

    在AI辅助写作日渐普及的今天,法律从业者应始终坚持一个底线共识:AI可以成为辅助专业工作的工具,但绝不能成为责任转移的接口。

作者:程阳高级合伙人

劳动团队 北京

chengyang@lantai.cn



      程阳,毕业于中国政法大学,兰台律师事务所高级合伙人,管委会委员,兰台劳动团队牵头合伙人。多年来一直深耕在企业合规与劳动人事法律领域,擅长将法律思维与管理思维有机融合,为客户提供具有操作性、前瞻性的法律建议。同时担任中国政法大学、北京航空航天大学、中国劳动关系学院校外指导老师。工作之余,著有《人力资源合规管理全书》,带领兰台劳动团队出版了《劳动纠纷实战解析》《劳动疑难问题操作指引》《第一本法律日志书:HR每天学点劳动法》等书籍,统筹负责兰台律师事务所出版的《企业法律顾问实务操作全书》的撰写,主笔劳动法律部分,在多家媒体报纸上发表专业文章,全面负责“兰台劳动”微信公众号运营,公众号坚持每天发布专业文章。凭借卓越的法律服务水平和备受赞誉的市场口碑,The Legal 500《法律500强》国际权威法律评级指南,获评“推荐律师”,《亚洲法律杂志》ALB客户首选律师(2023 ALB Client Choice)。

作者:洪瑜实习律师

劳动团队 北京

hongyu@lantai.cn



      洪瑜拥有英国兰卡斯特大学学士学位和美国西北大学硕士学位,具备在美、英、澳、中四国的学习与工作背景,曾于美国参与癌症支持公益项目,日均处理20+英文沟通案例,以及于美国西北大学凯洛格商学院负责英文内容编辑;深度参与兰台劳动团队“海外用工”专栏的创作。洪瑜能够熟练运用英语完成法律文件撰写、国际调研及跨文化谈判,致力于将跨文化理解和经验转化为企业合规解决方案。

END



页: [1]
查看完整版本: AI智法双鉴专栏|英国高院警示:引用AI虚构判例,律师或面临藐视法庭调查