人工智能生成合成内容是一把“双刃剑”,一方面,其提高了内容创作者的创作效率与质量,为公众提供了更丰富、优质的消费内容,另一方面,其亦可能成为谣言与虚假信息的“催化剂”,给社会稳定秩序带来不安定因素。为促进人工智能的健康发展,规范人工智能生成合成内容标识,2025年9月1日起施行的《人工智能生成合成内容标识办法》(以下简称《标识办法》)作出明确规定,要求用户在发布人工智能生成合成内容时主动声明并加以标识,同时要求网络信息内容传播服务者采取必要措施,规范相关内容的传播活动。
在《标识办法》实施前夕,北京互联网法院审结了一起网络服务合同纠纷案,是全国首例“平台判定用户内容AI生成”的案件。该案审理法院进一步明确,在涉及人工智能生成合成内容标识的争议中,用户与网络服务平台各自应当承担的证明责任,并提出了更明确的证明标准。作为全国首例案件,该案不仅回应了《标识办法》有关用户声明义务与平台治理责任的制度要求,并且为后续类似争议的处理提供了可供参考的裁判范式,具有积极的引导作用。
该案中,用户因其发布的内容被网络服务平台认定为人工智能生成合成内容,继而被处以内容隐藏与禁言 一天的处罚,遂提起诉讼,主张平台行为构成违约。平台则主张,依据双方签订的网络服务协议,其享有内容审查与管理的权利,故其行为并不构成违约。由于《标识办法》暂未施行,审理法院依据《互联网信息服务深度合成管理规定》确定平台方享有审查权限,该案的争议焦点随即集中于:用户发布内容是否由人工智能生成,以及应由何方承担举证责任。
对于作为原告的用户而言,审理法院一方面确认其应当承担初步的证明责任,另一方面又结合案件事实与双方举证能力,对证明责任进行了适当的再分配。本案中,原告认为,其所发布的内容被平台认定为由人工智能生成并受到内容隐藏与禁言一天的处罚,构成对网络服务协议的违约行为。依据《中华人民共和国民事诉讼法》第六十七条与相关司法解释,主张合同权利受到妨害的一方,应当就其权利受到妨害的事实承担证明责任。因此,原告应承担相应的证明责任。在此基础上,审理法院有必要进一步厘清证明责任范围是否仅限于平台实施了相关限制行为,还是应当包括其涉案内容是否属于人工智能生成合成内容。结合本案具体情节,被告作为网络服务的提供方,享有对用户发布内容的审查与管理的权利,采取限制措施属于平台履行合同义务的正常行为。因此,判断被告是否构成违约的关键在于,涉案内容是否由人工智能生成。该事实作为影响平台行为是否构成违约的关键因素,属于决定法院裁判的主要事实。因此,原告在承担初步证明责任时,应当就其发布内容为人类创作提供具备一定说服力的初步证据,如创作底稿、原始文档等。然而,本案审理法院在确认原告承担初步证明责任的同时,进一步结合具体案情和双方当事人的举证能力,对证明责任进行了合理再分配。原告在庭审中提出,其所发布内容为即时性创作,客观上难以提供创作底稿与原始文档。通常情形下,原告若无法完成举证,将面临举证不能的不利后果。但本案中,涉案内容是否为人工智能生成并非无法查证,被告作为平台方具备更为充分的举证条件。考虑到争议事实的可证性与被告的举证优势,法院将关键事实的证明责任部分转移至被告,实现证明责任的合理分配。
对于作为被告的网络服务平台,审理法院一方面明确其在本案中的证明责任,另一方面还就“涉案内容是否由人工智能生成”的主要事实,设定了更为具体的证明标准。依据民事诉讼法第六十七条、第七十条,人民法院有权要求当事人配合调查并提交相关证据材料。从案件事实来看,网络服务平台在判断用户内容是否由人工智能生成时,依赖于自身算法工具,其既是工具的掌握方,又是结果的判断方,具备充足的举证能力。因此,法院要求其承担相应的证明责任,具有合法性与合理性。更具启发意义的是,该案的审理法院在明确平台证明责任的同时,还就“涉案内容是否为人工智能生成”这一主要事实提出了具体的证明标准。
依据《最高人民法院关于适用〈中华人民共和国民事诉讼法〉的解释》第一百零八条,一般合同纠纷中的证明标准为“高度可能性”,即当事人提交的证据虽然未能让法官对待证事实确信只能如此的程度,但已经相信存在极大可能或非常可能如此的程度。在“高度可能性”的基础上,法院结合平台使用“算法工具﹢人工复核”的双重判定机制的事实,对平台提交的证据分别提出了更具针对性的要求。具体而言,对于算法工具的判断结果,平台应围绕“判断依据”和“判断结果”提交证据并作出解释;对于人工复核部分,则应提供具备科学依据的,以及较强说服力与可信度的佐证材料。然而在本案中,平台仅提交了算法备案信息,备案信息又仅表明算法功能为识别具有安全风险的回答,与涉案内容缺乏直接关联性;同时,对于人工复核部分,平台仅解释“需要非常明确的人类情感特征”才能驳回算法结果,不具有科学依据,亦缺乏较强的说服力和可信度。因此,法院最终判决平台应当展开涉案内容的隐藏,删除用户在后台的违规处理记录。
对于作为司法机构的法院而言,该案对人工智能生成合成内容争议中的证明责任分配提供了重要启示,我国法院未来应在此类案件中探索证明责任倒置模式。作为“谁主张,谁举证”原则的例外,证明责任倒置已在我国环境污染损害、医疗侵权等案件中得到适用,其核心在于考虑当事人的举证能力、更有利于权利保护等公平因素,将原本应由一方承担的证明责任转由对方承担。在“平台判定用户内容AI生成首案”中,法院虽然采取了初步证明责任﹢再分配的方式,但从制度设计角度出发,未来可在此类纠纷中由平台直接承担“涉案内容是否由人工智能生成”的证明责任,更具合理性。
其一,从平台与用户的关系结构出发,平台显然处于优势地位。虽然从表面上看,用户与平台之间是平等的合同法律关系,但在实际运行中,平台掌握对内容的审查与处罚权限,用户则缺乏有效的反制能力,处于事实上的弱势地位。同时,平台作为算法工具的运用方与数据掌控者,具备远强于用户的举证能力。因此,从维护弱势方合法权益的角度出发,要求平台承担证明责任更具公平性。
其二,从推动算法工具迭代与提高识别准确性角度来看,将证明责任赋予平台能够激活制度激励功能。承担证明责任意味着面临因举证不能而败诉的风险,这一制度压力将促使平台持续优化算法模型,提高对人工智能生成内容的识别准确率,防止错误标记带来不必要的纠纷,同时有助于从技术路径上防范人工智能生成虚假内容影响社会稳定。
面对人工智能技术迅猛发展带来的机遇与挑战,司法机关必须主动发挥司法功能,回应新技术背景下的权利保护与责任划分问题。证明责任作为司法裁判中的核心制度工具,能够引导技术发展方向,规制行为人的行为。在人工智能相关案件中,人民法院应结合技术特性与制度目标,在法律层面推动人工智能技术实现安全、可信与可靠的发展目标。