
作者:曹文娟、范苏菲
摘要 生成式人工智能(如ChatGPT)、大数据等技术的爆发式发展,正在重构“技术逻辑”与“法治逻辑”的关系——技术突破倒逼规则迭代,法治完善又为创新划定边界。本文结合腾讯诉盈讯AI生成内容著作权案、欧盟《人工智能法案》、中国《生成式人工智能服务管理暂行办法》现行有效等典型案例与法规,分析AI前沿发展对国际法治的三大挑战(权属模糊、算法歧视、跨境数据冲突),梳理主要法域的规制模式(欧盟强监管、美国市场导向、中国平衡模式),并从国际协同、国内立法、行业自律、技术创新四层面提出协同路径。AI治理需坚持人类中心主义,以伦理为底色、规则为保障,最终实现“技术向善”与“法治向善”的统一。 引言 2023年,ChatGPT以两个月破亿的用户增速,将AI从工具化推向智能化新阶段;同年,欧盟《人工智能法案》(AI Act)生效,成为全球首部全面规制AI的综合性立法;中国《生成式人工智能服务管理暂行办法》也于8月落地,明确“发展与安全并重”的监管原则。当AI技术的“指数级增长”与法律规则的“线性演进”碰撞,当算法的“黑箱性”与法治的“透明性”矛盾,当数据的“跨境性”与主权的“地域性”冲突,人工智能已从技术议题升级为国际法治议题。 从全球范围看,AI的治理困境本质是“技术效率”与“法治公平”的权衡:技术追求创新与去中心化,而法治强调安全与主权;AI生成内容的权属、算法歧视的问责、跨境数据的流动,没有一国能单独解决——毕竟,AI是全球技术,其治理需全球规则。本文试图回答:AI前沿发展如何挑战国际法治?国际社会如何回应?中国又能贡献怎样的平衡方案? 一、AI前沿发展对国际法治的时代挑战 AI技术的迭代,正在突破传统法治的人类中心主义框架,带来三大核心挑战: (一)AI生成内容:从“人类创作”到“机器生成”的权属模糊 著作权法的根基是“人类智力成果”——《中华人民共和国著作权法》第二条规定“作品需由公民、法人或非法人组织创作”,第三条将“作品”定义为“具有独创性的智力成果”。但生成式AI的出现打破了这一逻辑:AI通过学习海量数据,能生成具有独创性的文字、图像,但其作者是机器还是人类? 在腾讯诉盈讯科技侵害著作权纠纷案(2020年最高法十大案件)中,法院认定AI生成的财经文章属于“法人作品”——腾讯作为AI的开发与使用者,主持创作了该文章,因此享有著作权。这一判决解决了个案争议,但未回答更根本的问题:若AI完全自主生成内容(如独立撰写小说),权属如何认定?国际上,美国版权局明确拒绝为AI生成内容授予版权(2023年“AI生成图像版权案”),欧盟AI法案则要求“高风险AI的使用者对生成内容负责”。这种分歧暴露了传统著作权法的规则滞后——当创作主体从人类扩展到机器,“著作权”的定义亟须重新校准。 (二)算法歧视:从“技术中立”到“算法责任”的认知觉醒 算法是AI的大脑,但“数据偏见”会导致算法歧视——比如美国亚马逊的求职算法因学习历史数据(男性更易被录用),自动拒绝女性简历;中国某信贷APP的AI模型因“农村户籍”权重过高,导致农民贷款成功率低于城市居民。这些案例证明:算法并非中立,其“黑箱性”会放大社会偏见,而传统法治难以问责——毕竟,算法是自主学习的,企业常以“技术不可控”为由逃避责任。如何让普通用户理解深度学习模型的决策逻辑?中国《生成式人工智能服务管理暂行办法》第四条规定“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视”,但“有效措施”的标准尚不明确。算法歧视的治理,需要技术透明与法治问责的结合——而这需要国际社会制定“算法透明度”的最低标准。 (三)跨境数据流动:从“自由”到“主权”的平衡难题 AI的发展依赖数据喂养——生成式AI需要海量跨境数据训练,但数据的主权性与流动性天然矛盾。例如,OpenAI的ChatGPT训练数据包含全球网页内容,而中国《数据出境安全评估办法》要求重要数据出境需经国家安全评估,欧盟GDPR要求向第三国传输数据需确保充分保护。故跨国企业面临双重合规压力——一家美国AI公司若想在中国开展业务,需将中国用户数据传输至美国总部,既要符合中国《个人信息保护法》的主管机关批准要求,又要满足欧盟GDPR的数据主体同意规则,合规成本极高。 更严重的是数据安全风险:2021年,美国Clearview AI公司因非法收集全球30亿人的面部数据,被欧盟、英国等国监管机构处罚,理由是“违反数据主体的同意权”。跨境数据流动的治理,需在安全与便利间找到平衡——而这需要国际法治的规则协调。 二、国际法治环境对AI的规制回应:三种模式的比较 面对AI挑战,不同法域形成了三种典型规制模式,各有侧重但目标一致,即实现创新与安全的平衡。 (一)欧盟:“分类监管+伦理约束”的强监管模式 欧盟是AI监管的“先行者”,2023年生效的《人工智能法案》(AI Act)是全球首部全面规制AI的立法,核心是分类监管:将AI分为四类——(1)不可接受风险(如社会评分、实时生物识别):直接禁止;(2)高风险AI(如医疗设备、自动驾驶):需满足“透明性、可解释性、人类监督”要求;(3)中等风险(如聊天机器人):需披露“AI身份”;(4)低风险(如游戏AI):无需额外监管。 此外,欧盟通过GDPR(数据保护)、DSA(数字服务)构建双重框架,强调预防为主。比如高风险AI需接受伦理审查,确保不歧视、不伤害。这种模式的优点是安全可控,但也被批评阻碍创新——生成式AI企业认为,“可解释性”要求会增加研发成本。 (二)美国:“市场导向+行业自律”的灵活模式 美国的AI监管更强调创新优先,2023年提出的《人工智能法案》(AI Bill of Rights)仅设定“安全、透明、公平”的原则,未制定强制规则。其核心是行业自律:美国国家标准与技术研究院(NIST)发布《AI风险管理框架》(AI RMF),为企业提供自愿性风险评估指南;联邦贸易委员会(FTC)通过执法而非立法规制AI——比如2022年处罚Clearview AI公司非法收集生物数据,依据是《联邦贸易委员会法》中的不公平贸易做法条款。 这种模式的优点是灵活适配,能快速响应AI迭代,但缺点是规则模糊——企业缺乏明确合规指引,易引发监管套利(如ChatGPT在欧盟需遵守高风险规则,在美国仅需自律)。 (三)中国:“发展与安全并重”的平衡模式 中国的AI监管遵循创新驱动、安全可控原则,构建了“三法一条例”框架:《数据安全法》《个人信息保护法》《生成式人工智能服务管理暂行办法》《网络安全审查办法》。其特点是针对性——(1)针对生成式AI,《生成式人工智能服务管理暂行办法》第四条要求“提高生成内容的准确性和可靠性”;(2)针对跨境数据的安全风险,《数据出境安全评估办法》第二条规定重要数据出境需经安全评估;(3)针对算法歧视,《生成式人工智能服务管理暂行办法》要求防止民族、性别歧视。 中国的模式既鼓励AI在政务、医疗等领域的应用,又通过“清单管理”约束风险——如2023年发布的《生成式AI服务备案清单》,要求企业提交“训练数据来源”“内容安全机制”等材料。 (四)国际组织:“软法引导”的全球治理 联合国教科文组织(UNESCO)2021年发布的《人工智能伦理建议书》,是全球首个AI伦理的国际软法文件,核心是“人类中心主义”:AI需尊重人权、平等、透明度。此外,G20、OECD也发布了AI治理原则(如OECD的《人工智能原则》强调信任与创新)。这些“软法”虽无强制力,但为各国立法提供了共同语言。 三、AI与国际法治的协同路径:从冲突到融合 AI的全球性决定了其治理需全球协同,需从国际、国内、行业、技术四层面构建多元融合的机制: (一)国际层面:构建规则协同的治理框架 1.建立AI国际治理组织:由联合国牵头,吸纳各国政府、企业、学界代表,制定全球AI伦理宪章,协调各国立法冲突(如跨境数据流动的规则互认)。 2.推动技术合作:共同研发“可解释AI”(XAI)技术,解决算法黑箱问题;建立AI公平性测试平台,帮助企业检测算法偏见(如欧盟的“AI偏见检测工具”)。 3.强化数据互认:推动中国“个人信息保护认证”与欧盟“GDPR认证”互认,减少企业双重合规成本;制定跨境数据流动安全标准(如数据加密、访问控制),统一各国评估口径。 (二)国内层面:完善精准适配的立法体系 1.明确AI生成内容的权属:将AI生成内容纳入“法人作品”,规定AI使用者为著作权人,但需满足人类干预条件(如训练数据选择、生成参数设置)——既保护企业创新,又避免机器作者的争议。 2.规范算法的透明度与责任:制定相关条例,要求高风险算法(如求职、信贷)公开目的、逻辑、数据来源,向用户提供“可理解的解释”;明确算法责任——企业需对算法歧视结果承担法律责任,即使算法是自主学习的(如美国FTC的算法问责制)。 3.平衡数据安全与流动:细化《数据出境安全评估办法》中“重要数据”范围,建立数据出境快速通道——非敏感数据只需备案即可流动,降低企业合规成本。 (三)行业层面:强化自律自治的伦理约束 企业是AI的使用者,其自律是治理的第一道防线: 1.建立AI伦理审查委员会:由法律、技术、伦理专家组成,审查AI系统的伦理风险。 2.制定行业伦理准则:中国互联网协会2023年发布的《生成式人工智能服务伦理规范》,要求企业“坚持正确价值导向”“保护用户隐私”,引导企业自我约束。 3.加强用户教育:向用户说明AI生成内容的局限性,帮助用户识别虚假信息。 (四)技术层面:推动向善导向的技术创新 1.研发可解释AI:通过“模型可视化”(展示AI决策的关键特征)、“自然语言解释”(用人类语言说明决策逻辑),让算法可理解。 2.构建公平AI:在训练数据中“去偏见”(如删除带有性别歧视的求职数据),采用对抗性训练减少算法歧视。 3.强化安全AI:设计“鲁棒性测试”(检测AI对恶意数据的抵抗力)、“应急停机机制”(AI出现错误时自动停止运行),确保AI的可控性。 四、司法实践中的AI应用:从辅助到协同 AI不仅改变了立法,也重塑了司法流程——智能审判系统、AI法律文书生成、算法证据审查,正在提升司法效率,但需坚守辅助审判的底线。 (一)智能审判:坚守人类主导的原则 《最高人民法院关于规范和加强人工智能司法应用的意见》第三条明确:“无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考”。例如,上海的“206”刑事智能辅助系统,能自动识别证据矛盾(如被告人供述与证人证言不一致),但最终裁判仍由法官作出;北京互联网法院的“AI法官助手”,能生成判决书事实部分,但需法官修改后才生效。 智能审判的价值是提升效率——比如处理海量电子证据(如区块链存证的合同),但需避免技术依赖:法官需审查AI的“训练数据合法性”(如是否侵犯隐私)、“模型准确性”(如错误率是否在合理范围),确保AI辅助结果符合法律统一适用要求。 (二)AI生成法律文书:需实质审查 AI生成法律文书的应用越来越广泛,但需注意内容合法性——比如AI生成的起诉状可能遗漏诉讼请求,或引用失效法律条文。2023年,北京互联网法院审理的“AI生成起诉状案”中,原告使用AI生成的起诉状遗漏了赔偿金额,法官要求补充后才立案。因此,需对AI生成的文书进行实质审查,而非形式审查。 (三)算法证据的审查:从技术信任到法律验证 AI模型的输出(如风险评估报告、笔迹鉴定结果等)作为证据时,需审查三性(合法性、真实性、关联性)——合法性:AI模型的训练数据需符合法律规定;真实性:需记录AI的训练数据来源、生成参数、输出时间,确保可追溯;关联性:AI输出需与案件事实直接相关。 2023年,最高人民法院修订的《关于互联网法院审理案件若干问题的规定》明确,“电子数据生成过程符合法律规定”的可作为证据使用——这为AI证据的审查提供了法律依据。 结语:走向智治协同的时代 AI不是法治的敌人,而是法治的催化剂——它倒逼我们重新思考公平与正义的内涵,推动国际法治从地域性走向全球性。 中国作为AI大国,在AI治理中扮演着平衡者的角色:既鼓励AI在政务、医疗等领域的创新,又通过清单管理约束风险。未来,中国需继续坚持人类中心主义,以《数据安全法》《生成式人工智能服务管理暂行办法》为基础,积极参与国际协同——如提出“AI全球治理的五项原则”(人类优先、伦理约束、规则协同、技术向善、包容共享),推动“一带一路”沿线国家的AI治理合作,共同构建公平、安全、包容的国际法治环境。 声 明 本文仅代表作者观点,不得视为发现律师事务所或其律师出具的正式法律意见或建议。如需转载或引用,请注明出处。








蜀ICP备:17000577号-1