Generative AI Governance Practices in Europe and the United States and the Enlightenment for China

  • ZHANG Tao ,
  • LYU Qianhui
Expand
  • School of Information Management, Heilongjiang University, Harbin 150080

Received date: 2025-03-09

  Online published: 2025-06-25

Abstract

[Purpose/Significance] Generative artificial intelligence (GAI) is currently advancing at an astonishing pace. GAI has unleashed remarkable potential in various fields and is significantly fueling social and economic development. However, this rapid progress has also given rise to a plethora of complex issues, including but not limited to data security breaches, privacy violations, the spread of false information, and intellectual property infringements. Existing research primarily focuses on the governance of AI in general, leaving a gap in in-depth exploration of GAI. This study aims to fill this void by meticulously comparing the governance approaches of Europe and the United States in the realm of GAI. Through this comparison, the study aims to provide valuable insights for China to refine its own governance system. This is not only crucial for China's domestic technological development and social stability but also plays a pivotal role in promoting the harmonization of the global governance framework for GAI. [Method/Process] This research adopts a multi-faceted approach. It commences with a comprehensive review of relevant literature, gathering insights from a wide range of academic sources to understand the current state-of-the-art in GAI governance in Europe and the United States. Additionally, it deploys the case-study method, examining real-world examples such as the development of OpenAI's GPT series in the US and the implementation of the EU's AI Act. By analyzing these cases, it can vividly illustrate the practical implications and impacts of different governance strategies, thus enabling a more in-depth and accurate comparison. [Results/Conclusions] We found that the European Union adopts a regulatory path centered on data protection and ensures the fairness and sustainability of technological development through a strict legal framework. However, this strong regulatory model may stifle innovation vitality to some extent. The United States adopts a governance model oriented towards market accountability, emphasizing technological innovation leadership and free development. It stimulates market vitality through industry self-discipline and flexible regulation, but there is a hidden danger of insufficient ethical risk control. Based on these findings, this paper recommends that China adopt a balanced approach. China should integrate elements of both the U.S. and E.U. models to foster innovation while ensuring ethical and legal compliance. Future research could explore ways to adapt these governance models to emerging trends such as integrating GAI with other emerging technologies and addressing the unique governance challenges posed by cross-border data flows.

Cite this article

ZHANG Tao , LYU Qianhui . Generative AI Governance Practices in Europe and the United States and the Enlightenment for China[J]. Journal of Library and Information Science in Agriculture, 2025 , 37(4) : 12 -23 . DOI: 10.13998/j.cnki.issn1002-1248.25-0167

0 引言

近年来,生成式人工智能技术凭借其强大的内容生成能力,在多个领域展现出巨大潜力。生成式人工智能是一种基于深度学习技术,能够自主生成文本、图像、音频等内容的新型人工智能形态,具有自主性、创造性、多模态等核心特征,其典型应用场景涵盖智能写作、艺术创作、代码生成等领域。这得益于技术进步和计算硬件性能的提升,生成式人工智能取得了突破性进展[1]。2025年2月,以DeepSeek为代表的国产大模型不仅打破了美国硅谷人工智能企业的技术垄断,还迅速应用于科技研发、经济发展和政策制定等多个重要领域[2]。然而,生成式人工智能技术快速演进中所引发的算法安全、科技伦理、跨境数据流动等系统性国家科技安全风险问题日益凸显,且所表现出的隐秘性、动态变化性、广泛渗透等特性,使得全球与区域性安全治理面临巨大挑战[3]。生成式人工智能在推动技术发展繁荣的同时,其安全风险逐渐从潜在的、局部的问题演变为广泛的、系统性的挑战,且具有复杂性、隐蔽性、不确定性、跨领域和全球性特点[4],生成式人工智能治理面临诸多难题,如何理解其技术特性并应对治理挑战,探索与之相适应的监管框架,成为全球所面临的一项重要课题[5]。当前,生成式人工智能技术发展迅猛,技术发展与治理之间的不协调问题日益凸显[6]。这种不协调不仅体现在技术层面,还涉及法律、伦理和社会等多个维度。核心在于平衡创新发展与风险防范,既要充分激发生成式人工智能的技术潜力和应用价值,推动产业升级和社会进步,又要有效应对该技术带来的各类挑战。例如,防止数据隐私泄露、算法偏见、虚假信息传播、恶意使用等风险,保障个人权益、社会公共安全和伦理道德底线。欧美在全球生成式人工智能发展的主流范式中占据重要地位,对比分析其生成式人工智能治理实践的差异,不仅有助于理解不同制度背景下的治理逻辑,更能为中国在全球化背景下构建适配技术特性的治理体系提供参考。本研究通过对欧美治理实践的比较分析,结合生成式人工智能的技术特性,从治理目标、主体、对象、手段、模式五要素切入,揭示其治理逻辑的深层差异与制度本质,为中国平衡技术创新与风险防控提供理论框架和实践建议。

1 文献综述

随着生成式人工智能技术的迅猛发展,全球在推动技术创新的同时,也面临着日益严峻的治理挑战。当前欧美生成式人工智能的治理多依托于人工智能通用治理政策框架,基于此,国内外学者在研究中展现出不同的思路与视角。

1.1 欧盟生成式人工智能治理研究成果

欧盟是最早开展人工智能安全治理的地区合作组织,在人工智能快速发展的当下,秉持“伦理优先,以人为本”的核心理念,致力于实现创新发展与技术监管的平衡[7]。自2017年起,欧盟制定综合政策,在监管和治理框架改革上发力,加强管制以保障消费者权益与基本权利,有研究运用案例研究法剖析其政策改革背后的政治驱动因素、进程及理论框架[8]。欧盟对生成式人工智能监管依托于人工智能的监管框架,在欧盟的政策发展和公开声明中体现了理念先行[9]。在数据与算法安全治理领域,欧盟以《通用数据保护条例》为核心构建起涵盖隐私数据保护、数据流动安全、平台算法安全及人工智能伦理等方面的治理框架,并形成多方协同治理格局,展现出重视个人隐私数据安全等典型特征[10]。同时,欧盟针对人工智能治理策略着重强调透明度、公平性与个人权利保护,对高风险生成式人工智能应用实施严格法规,旨在建立公众信任[11]。梳理欧盟立法中人工智能法律定义的变动历程,可以据此窥见欧盟人工智能法对生成式人工智能的基本立场和规制模式[12]。然而,即便欧盟已出台全球首部人工智能综合性立法,在生成式人工智能监管治理上占据领先地位,但其发展仍面临政策协调不畅、生成式技术突破艰难、投资短缺等挑战,距离建成完备高效的生成式人工智能生态系统、实现技术主权与全球领导地位的目标,仍有很长的路要走[13]

1.2 美国生成式人工智能治理研究成果

在对美国生成式人工智能治理的研究中,各项探索层层递进、不断深入。首先,从人工智能伦理视角出发,对北美国家进行定性比较,发现美国在政策层面,主要将侧重点放在国家安全和国内安全领域,这为后续研究奠定了基础认知[14]。但当前美国以安全为主导的人工智能政策格局存在局限性,并不充分。为解决这一问题,可通过审查企业政治权力、围绕公平和公众参与开展研究,推动生成式人工智能决策向优先考虑公平的方向转变,将研究视角从单纯的政策侧重引向政策优化路径[15]。也有研究从联邦政府、州和地方政府治理制度及机构两个维度,对美国数据与算法安全相关制度及机构权责展开系统梳理,总结出美国在个人隐私数据安全监管方面呈现“分领域、精细化、多层次”等治理特征,研究从政策方向深入到具体制度与权责体系的剖析[16]。例如,根据美国版权局(US Copyright Office)发布的《版权登记指南:包含人工智能生成材料的作品》的规定,生成式人工智能输出的内容不受美国版权法保护,只有由人类的创造力所产生的作品才受版权保护[17]。针对政府内部部署的风险治理,相关研究进行梳理分析,发现尽管美国在这方面的政策规范尚处于起步阶段,但已彰显出其在技术优势与政府建设交叉维度中引领全球的愿景,将研究焦点聚焦到政府内部技术应用的治理与未来规划[18]

1.3 欧美生成式人工智能治理比较研究成果

当前生成式人工智能的发展与应用已经超越国界,不同国家、地区间对人工智能的协同监管将成为一种趋势。美国和欧盟的人工智能监管政策,构成其生成式人工智能治理的核心内容[19]。最具代表性的人工智能治理模式中,欧盟采用以伦理优先为导向的集中式治理模式,而美国则是采取以创新优先为导向的分散式治理模式。有学者从治理理念、治理架构、治理主体、治理强度、治理困境5个方面比较分析了美国、欧盟人工智能治理体系的差异[20]。人工智能成为一个引人注目但又充满争议的议题,全球的行动者都在参与构建围绕人工智能的治理机制[21],欧盟通过世界首部人工智能监管法律《人工智能法》势必会影响全球人工智能治理进程,而美国人工智能监管仍处于起步阶段[22]。通过对比欧美人工智能治理的分歧得出双方在治理理念、原则、模式、手段等方面选择了不同道路,分歧扩大了全球人工智能治理的碎片化程度,不过也为世界各国人工智能治理实践提供了更多选择[23]
通过对现有研究的梳理可以发现,当前治理研究主要集中于人工智能的通用治理领域,而对生成式人工智能的深度分析相对不足。鉴于生成式人工智能在技术特性、应用场景和潜在风险等方面与传统人工智能存在显著差异,仅依靠现有的人工智能治理框架难以全面应对其带来的新挑战。因此,对欧美生成式人工智能治理实践进行专门研究具有重要的现实意义。本文聚焦于生成式人工智能领域,深入分析欧美治理实践上的异同,旨在揭示其优势与不足,从而为中国生成式人工智能治理策略的完善提供借鉴。

2 “治理五要素”视角下欧美生成式人工智能治理实践的比较

为深入理解欧美生成式人工智能的治理现状,首先需梳理其核心法案。目前,欧美虽未出台专项生成式人工智能法案,但在相关人工智能政策法规中均包含针对该技术的治理措施。​​因此,本研究以欧美人工智能相关的核心政策法规中涉及生成式人工智能的内容为研究对象,如表1所示。
表1 欧美生成式人工智能法规政策列表

Table 1 Regulations and policies on generative artificial intelligence in Europe and the United States

区域 名称 颁布时间 颁布机构 内容
欧盟 《通用数据保护条例》[24] 2018年5月 欧盟委员会 明确数据主体权利,强化监管与处罚措施,来加强对欧盟公民个人数据的保护
《可信赖人工智能的伦理准则》[25] 2019年4月 欧盟委员会 提出可信赖的人工智能需合法、合伦理且稳健,应满足人类能动性与监督、技术稳健性与安全性、隐私与数据治理、透明度、多样性与非歧视性及公平性、社会与环境福祉、可问责性等关键要求
《人工智能法案》[26] 2024年6月 欧盟委员会 基于风险识别分析的方法,对不同类型的人工智能系统分级并提出不同要求和义务,同时明确管辖范围、倡导负责任创新、建立严格执行机制和惩罚措施
美国 《国家人工智能研究与发展战略计划》[27] 2023年5月 美国白宫科技政策办公室 明确了人工智能领域的主要研发挑战,它将确保美国在开发和使用可信赖的人工智能系统方面继续处于领导地位
《关于安全、可靠、可信开发和使用人工智能的行政命令》[28] 2023年10月 总统拜登 确立了人工智能监管的总体原则。该行政命令下关于对消费者健康和安全、敏感信息隐私(健康、财务、身份认证、生物识别等)以及就业等高风险领域的人工智能开展更严格的监管规定,可影响未来AIGC的监管
《确保肖像、声音和图像安全法案》[29] 2024年3月 美国田纳西州众议院通过第2091号法案 该法案系全美首个针对AIGC音乐创作的监管法案
《人工智能训练数据与版权保护平衡》[30] 2025年2月 美国加州议会通过第412号法案 首次以州立法形式明确人工智能训练数据版权披露的“时间红线”,并通过民事救济强化执行力

《人工智能披露法案》[31]

《真实政治广告法案》[32]

《人工智能标签法案》[33]

2023年9月 美国参议员提议 提出要求人工智能生成内容需要附带水印
《深度伪造问责法案》[34] 2023年9月 美国众议员提议 对未经许可的深度伪造行为作出了惩罚规定
《保护消费者免受欺骗性人工智能法案》[35] 2024年3月 美国众议员提议 要求生成式人工智能应用提供者确保其应用创建或修改的音频、视觉内容包括机器可读的披露信息,且明确指出内容是由生成式人工智能创建的
《人工智能公众意识和教育运动法案》[36] 2024年6月 美国参议员提议 检测和区分由人类生成和由算法生成或显著修改的数字媒体,包括通常称为“深度伪造”和由程序(如“聊天机器人”)生成的内容
欧美在生成式人工智能治理中既有共通的经验,也有差异化的策略。本文借鉴治理五要素[37]及其在欧美算法治理比较研究[38]成果的基础上,系统比较欧美在生成式人工智能治理上的异同。

2.1 治理目标:欧盟以立法和监管保障公民数字人权,美国以监管平衡技术创新发展

治理目标是要实现何种治理效果。欧美在生成式人工智能治理方面的目标差异,不仅体现在对技术创新的重视程度上,还反映了各自对伦理、社会责任与风险的不同考量。
欧盟通过《通用数据保护条例》强化个人数据保护,明确数据主体权利并规定严格的数据处理责任,在数据收集、存储和使用等环节设置严格规范,为生成式人工智能的数据治理奠定了前瞻性基础。《人工智能法案》作为欧盟针对生成式人工智能的全面监管立法,依据风险等级对人工智能系统进行分类,对高风险系统提出透明度、可追溯性等严格要求,确保技术发展符合伦理和社会规范。欧盟在生成式人工智能治理中特别强调防范算法偏见、数据隐私泄露和技术滥用等风险,其核心治理目标在于保障公民数字人权。例如,《人工智能法案》通过风险分级机制对人工智能系统实施分类监管,对可能威胁公众安全、健康或基本权利的高风险系统制定特别监管要求[39]。该法案要求开发者和使用者在设计、开发和应用人工智能技术时,必须遵循伦理准则,确保系统透明性并评估社会影响,从而有效防止虚假信息生成和歧视性内容传播,避免技术滥用风险。
美国政府长期秉持“创新优先”理念,旨在通过技术创新保持全球领先地位。其治理模式具有以下特征:一是技术创新引领。美国采取“敏捷监管”策略,以最小化政府干预为原则推动技术发展。例如,2023年美国发布的《国家人工智能研发与发展战略计划》通过共享公共数据集、建立技术评估标准等措施,促进生成式人工智能快速迭代,这种措施为技术创新提供了有力支持,如OpenAI的GPT系列模型研发就获得了联邦研发税收抵免。二是风险动态管控。在保持技术领先的同时,美国采取分级监管策略:对GPT-4等基础模型实施宽松治理,仅要求透明度披露,如《人工智能披露法案》中提出避免干预训练过程;对深度伪造、生物识别滥用等高危应用则划定“监管红线”,建立精准管控机制,这种差异化的监管方式,既维护了创新空间,又确保了关键领域的安全。
综上所述,欧盟秉持伦理优先,注重社会福祉与伦理保障,防范技术风险;美国则以创新优先,依靠自由市场推动技术进步。欧盟通过《通用数据保护条例》等构建全面的法律框架,针对生成式人工智能的高风险应用制定严格的审批流程,确保技术符合伦理规范和公共利益。美国则侧重技术研发与治理研究的协同发展,鼓励高校和科研机构开展生成式人工智能的伦理、安全等方面研究,同时通过风险监管对生成式人工智能进行监测,达到技术创新的同时确保其安全发展。

2.2 治理主体:欧盟采取明确的人工智能监管机构,美国采取分散且多元的治理机构

治理主体是由谁来开展治理活动。美国和欧盟在治理主体上的差异显著,直接影响了治理政策的执行力度与效果。
欧盟建立了以政府为主导的监管体系,其中欧盟委员会作为核心治理主体发挥着关键作用。该机构不仅负责制定和执行相关政策法规,还积极推动国际合作,确保生成式人工智能的开发与应用符合伦理标准。以《人工智能法案》为例,该法案对生成式人工智能的使用进行了全面规范,通过建立强有力的监管协调机制,旨在实现有效监管,同时提升欧盟在全球人工智能治理领域的影响力。根据该法案框架,欧盟设立了专门的人工智能监管机构,负责监督生成式人工智能在开发、应用等各个环节的合规性。法案特别注重在促进创新与加强监管之间寻求平衡,既保障技术健康发展,又确保技术应用符合社会伦理与安全要求。
美国的治理体系呈现出明显的分散特征。从横向维度看,各监管机构在各自管辖范围内独立发布新规或解释现有规定。值得注意的是,谷歌、微软、Meta等大型科技公司不仅是生成式人工智能技术的主要开发者,也是治理体系的重要参与者,他们通过将生成式人工智能与现有业务整合来强化竞争优势[40]。从纵向维度看,美国具有多元治理特征,在联邦层面尚未形成统一立法,而是由各州通过区域性规则进行先行先试。如《人工智能训练数据与版权保护平衡》是首次以州立法形式明确人工智能训练数据版权披露的“时间红线”,并通过民事救济强化执行力。联邦政府主要发挥政策引导作用,实际治理更多依赖州级法规、行业自律和企业社会责任机制。分散且多元的治理机构为各地区提供了较大的自主发展空间,使技术能够在市场机制驱动下实现快速发展,同时美国众议员提议《人工智能披露法案》《真实政治广告法案》《保护消费者免受欺骗性人工智能法案》《人工智能标签法案》及《深度伪造问责法案》等对人工智能的生成内容及使用提出明确要求。
综上所述,欧盟以政府为主导,负责政策制定、执行和监管;美国则以企业为核心,政府提供政策框架并依赖行业自律。欧盟构建起以政府主导、欧盟委员会为核心的监管体系,通过《人工智能法案》设立专门监管机构,注重在监管中保障技术与伦理安全的平衡。而美国治理体系分散多元,横向各监管机构独立行事,大型科技公司深度参与,纵向联邦缺乏统一立法,靠州级法规、行业自律和企业责任推动,为技术在市场机制下快速发展提供空间。

2.3 治理对象:欧盟是全面兼顾的广泛治理,美国以科技创新企业为核心治理

治理对象是需要界定针对哪些主体以及解决哪些问题。欧美在选择治理对象时,虽然都包括了技术开发者,但其治理对象的广泛性和侧重点有所不同。
欧盟在生成式人工智能治理方面,治理对象涵盖范围广,对技术开发者、使用者以及技术应用过程中的诸多方面都予以关注,重点聚焦透明度、公平性和个人权利保护。其治理框架对技术开发者提出严格要求,督促其遵守相关法规,以保障技术开发的伦理性,确保技术在运行过程中不会侵犯用户权益。同时,致力于为技术使用者营造透明、公平的使用环境,让使用者能清晰了解技术的运行机制和数据处理方式。以欧盟《通用数据保护条例》为例,该条例不仅对数据处理者的行为进行严格约束,还赋予数据主体诸多权利,如隐私权、对个人数据的访问权、更正权、删除权等。在生成式人工智能技术应用场景中,这确保了用户在数据使用和处理过程中的知情权和同意权,极大程度上防止个人数据被滥用。例如,当生成式人工智能利用用户数据进行模型训练时,必须遵循条例规定,获得用户明确授权,且用户有权知晓数据的具体用途。有助于为用户提供更加便捷、准确和个性化的知识服务,推动理论研究和实践应用进入快速发展时代[41]
美国虽未制定统一的联邦层面生成式人工智能强制立法,但已建立起多层次、灵活性的监管体系。在2024年10月,拜登政府发布美国总统《关于推进美国在人工智能领域的领导地位、利用人工智能实现国家安全目标以及促进人工智能的安全、安保和可信性的备忘录》,该备忘录也针对生成式人工智能有所提及,美国认为过早地制定生成式人工智能政府框架可能会导致国家无法及时利用最新发展的人工智能技术,因此美国会采取更加渐进式的、迭代的标准开发方法。其治理对象主要聚焦于科技创新企业及相关机构,体现了对市场自由的高度重视。美国的治理重点在于规范市场行为,引导技术公司在开发过程中遵守基本伦理准则。在实践中,美国联邦贸易委员会(FTC)采取指导性监管方式,通过制定隐私政策规范、建立内部治理程序等柔性措施,与企业、行业协会形成协同治理机制[42]。这种治理模式有效激发了技术创新活力,推动技术快速发展。以全球人工智能创新中心硅谷为例,凭借其独特的生态系统,吸引了大量投资并集聚了众多领先企业。这些企业通过快速市场响应和灵活策略调整,在生成式人工智能和深度学习领域取得多项突破性成果,特别是在基于生成模型的内容创作技术方面保持全球领先地位。
综上所述,欧盟兼顾开发者和用户权益,注重透明度和个人权利保护;美国主要关注科创共同体,监管体系相对灵活。欧盟在治理上对象广泛,从开发者到使用者,聚焦透明度、公平性与个人权利保护,严格约束数据处理行为保障用户权益。美国则以科技创新企业为核心治理对象,秉持市场自由理念,联邦层面虽无统一强制立法,但凭借多层次灵活监管体系,由联邦贸易委员会等采取指导性监管,激发企业创新活力,如硅谷企业在该模式下取得众多生成式人工智能领域的突破性成果。

2.4 治理手段:欧盟基于结果控制的强制性法规,美国以市场为导向的柔性治理手段

治理手段是依靠什么方式和工具进行治理,以确保生成式人工智能的健康发展。欧美治理手段上选择存在显著差异。
欧盟在生成式人工智能治理方面主要采用法律规制手段,通过建立强制性法规框架实施监管。以2019年欧盟委员会人工智能高级专家组颁布的《可信赖人工智能的伦理准则》为例,其内容广泛覆盖“人的能动性与监督”“技术稳健性与安全性”“隐私与数据管理”“社会与环境福祉”“多样性、非歧视性与公平性”“透明性”和“问责制度”等关键方面,并且针对可能出现的伦理困境制定了相应的防范对策。该准则不仅为各类伦理风险提供了防范措施,还明确要求生成式人工智能开发者必须建立完整的责任追溯体系。通过持续的技术监测和伦理评估双重机制,确保技术在开发和应用全周期中的安全性与社会效益。这种以结果为导向的治理模式,有效促进了技术应用与社会伦理规范的协调统一。
美国在生成式人工智能的治理方面,主要借助市场激励机制,通过出台宽松政策和非约束性指引,来鼓励企业积极创新。当前,美国并没有针对生成式人工智能制定专门性法律,而是将监管重点放在把现有法律应用于生成式人工智能领域。在这种背景下,美国许多科技公司自行制定生成式人工智能伦理准则,并通过内部政策保证技术符合这些准则。以OpenAI为例,在开发生成式人工智能技术时,采用内部伦理审查和自我规范的模式,发布伦理声明和技术规范,强调技术的透明性和社会责任。与此同时,《人工智能公众意识和教育运动法案》包括检测和区分由人类生成和由算法生成或显著修改的数字媒体,有助于公民的自我保护。
综上所述,在治理手段上,欧盟依赖法规强制手段进行监督;美国则采取市场激励方式,依靠企业自律。欧盟采用基于结果控制的强制性法规治理生成式人工智能,明确开发者责任追溯、技术监测与伦理评估要求,以刚性约束确保技术符合社会伦理与安全标准。美国则奉行以市场为导向的柔性治理,依赖现有法律延伸适用,通过企业自我规范和非约束性指引激发创新,以宽松政策平衡监管与技术发展的灵活性。

2.5 治理模式:欧盟构建“吹哨人”参与的协同共治,美国重在行业自律与地方自治

治理模式是以什么样的组织形式来开展治理活动,它决定了技术的实施方式、治理的深度以及技术与社会的协调性。
欧盟在生成式人工智能治理方面形成了独具特色的治理模式,其特征表现为以法律监管为制度基础、政府主导与多元共治相结合、特别重视“吹哨人”机制的构建。欧盟通过建立完善的法律体系,为生成式人工智能全生命周期(开发、测试、应用)制定了明确的合规标准,不仅有效防范了技术滥用风险,也为全球治理提供了重要参考。欧盟推出的全球首部《人工智能法案》具有一定代表性,欧盟委员会已经开始根据该法案着手起草生成式人工智能相关的行为准则。其创新性的“监管沙盒”制度,允许企业在受控环境中进行技术试验,充分体现了回应性治理、激励性监管和合作规制等现代治理理念[43]。在治理实践中,欧盟各机构协同配合,确保各项治理政策得到有效实施。
美国在生成式人工智能治理模式上,突出行业自律和州政府自治,联邦政府在治理中的直接干预相对较少,更多地依靠市场驱动和企业、行业组织的自我管理。美国的企业和行业组织在生成式人工智能治理中扮演着重要角色,众多企业和行业组织制定了各自的行为准则和规范,以约束自身在技术研发、应用过程中的行为,例如FTC在官网中提到:“公司采用更宽松的数据实践,例如与第三方共享消费者的个人数据,或者将这些数据用于人工智能训练,但仅通过秘密的、事后修改其服务条款或隐私政策的方式告知消费者,这可能是不公平或具有欺骗性的。”各个州政府根据自身的实际情况和需求,出台相应的政策和法规来规范生成式人工智能在本地区的应用和发展。例如,加利福尼亚州就针对性的出台针对AIGC的监管法案[44],同时企业可以根据市场需求和自身战略快速迭代技术,根据开发或使用生成式人工智能的预期目的和具体应用场景进行风险分级[45],推动生成式人工智能在多个领域的广泛应用。这种模式给予了各州更大的自主性和灵活性,能够更好地适应不同地区的特点和需求。
综上所述,在治理模式上,欧盟采用风险导向,严格规范技术;美国则以技术先行,依赖行业自律和市场驱动,政府参与度较低。美国以行业自律和地方自治为核心构建治理模式,联邦政府对生成式人工智能治理的直接干预有限,主要依赖市场力量驱动,充分发挥企业和行业组织的自我管理作用。众多企业和行业组织纷纷制定行为准则,规范技术研发与应用行为,同时,各州依据自身实际情况和需求自主立法,如:加利福尼亚州出台的AIGC监管法案,为区域治理提供范例。这种模式赋予各州高度自主性与灵活性,使技术能依据不同地区特点和市场需求快速迭代,实现多领域广泛应用。

3 结论与启示

生成式人工智能治理正面临日益复杂的挑战与机遇。随着技术的快速迭代,其应用场景持续拓展,对社会各领域的影响不断深化。在全球数字化转型加速的背景下,跨国治理机制建设和国际合作已成为必然选择。国际社会亟需加强政策对话与协同治理,推动形成统一的国际标准框架,以避免因治理碎片化导致的技术滥用和全球数字鸿沟加剧等问题。通过比较欧美生成式人工智能治理实践,得出以下发现:欧盟采取以数据保护为核心的监管路径,通过《通用数据保护条例》等严格的法律框架确保技术发展的公平性与可持续性,但这种强监管模式可能在一定程度上抑制创新活力;美国则采用以市场问责为导向的治理模式,强调技术创新引领和自由发展,通过行业自律和柔性监管激发市场活力,但存在伦理风险管控不足的隐患。欧美生成式人工智能的治理实践为中国生成式人工智能治理提供了启示。

3.1 融合创新与监管,探索平衡发展路径

欧盟通过《通用数据保护条例》和《人工智能法案》构建全面的法律框架,对高风险应用进行严格监管,保障技术的伦理与公共利益;美国则通过资金投入推动技术研发与治理研究的协同发展,为企业创新营造宽松环境。中国具备调和欧美两种治理模式的潜力,有望探索出一条平衡的人工智能治理道路[46]。中国应适当借鉴欧美经验,在保障创新的同时引入适度的法律监管与伦理审查,探索创新与监管的平衡发展路径。一是突出创新和市场驱动为技术发展注入强大动力。中国可借鉴美国通过政策引导和监管框架为企业创新营造宽松环境,鼓励企业加大在生成式人工智能领域的研发投入,激发市场活力。例如,设立专项产业扶持基金,对在生成式人工智能关键技术研发、应用场景拓展等方面有突出表现的企业给予资金支持;简化行政审批流程,加快创新产品和服务的上市速度。二是加强生成式人工智能治理的法律监管和领域伦理保障。对于医疗、金融等对安全性和可靠性要求极高的关键领域,中国应加强对生成式人工智能的审查力度。借鉴欧盟的风险分级管理模式,根据不同应用场景和潜在风险程度,制定差异化的监管标准和审查流程。如在医疗领域,要求生成式人工智能在辅助诊断、治疗方案推荐等应用中,必须经过严格的临床试验和伦理评估,确保其准确性和安全性,防止因技术失误对患者造成伤害。

3.2 强化多方协同,构建全面治理格局

欧盟强调以统一全球治理标准进行国际合作,美国则推动企业与科研机构合作,促进了技术发展与治理完善,虽然略有差异但多方合作协同治理的思路是一致的,值得借鉴,基于生成式人工智能的特点,提出以下建议:一是应实现生成式人工智能从研发到迭代的全流程覆盖。如在研发阶段注重伦理审查和技术评估,在应用阶段加强市场监管,在迭代阶段规范更新流程。通过政府、企业、学术界和公众的多方协同治理,提高全社会对生成式人工智能安全的认知和应对能力[47]。二是政府在治理中应发挥主导作用,制定政策法规、完善监管体系并加强宏观引导。如国家互联网信息办公室联合多部门发布《人工智能生成合成内容标识办法》及配套强制性国家标准,该举措为规范市场秩序、保障公众知情权奠定了基础。未来,政府还应进一步明确各部门在生成式人工智能治理中的职责,加强部门间的协调配合,避免出现监管空白和重叠。三是企业要积极履行社会责任。如百度、字节跳动等企业在产品开发中主动遵循伦理和法律规范。以DeepSeek为代表的生成式人工智能在全流程中进行伦理把关,利用内容识别技术实时监测虚假信息、暴力色情等有害内容,并及时阻断传播[48]。四是学术界应充分发挥理论研究与人才培养的优势,为生成式人工智能治理提供智力支撑,高校与科研机构应优化相关学科设置,培养既懂技术又具备伦理与法律素养的复合型人才。五是公众作为生成式人工智能的使用者和受益者,应积极参与治理过程。公众可通过合理表达使用体验和意见反馈,帮助企业和监管部门发现潜在问题。六是建立“吹哨人”制度。早在2019年《国务院关于加强和规范事中事后监管的指导意见》中明确提出建立“吹哨人”制度,在生成式人工智能治理过程中应进一步完善“吹哨人”制度、内部举报人等制度,对举报严重违法违规行为和重大风险隐患的有功人员予以重奖和严格保护。

3.3 推动监管国际化,提升全球治理参与度

欧盟在伦理与监管立法方面的先发优势为全球治理提供了参考框架。中国应结合自身发展实际,借鉴欧盟的经验,制定科学合理、与国际接轨的监管制度。明确监管范围、技术要求和底线原则,建立既符合中国国情又适应国际发展趋势的监管体系。一是数据保护方面,生成式人工智能的基础是数据,参考欧盟以数据保护为基础对生成式人工智能进行监管的特点,持续加强对个人数据和敏感数据的保护力度。二是积极参与生成式人工智能治理的国际规则制定,加强与各国的沟通与协作。中国可以利用在技术研发和应用方面的优势,分享治理经验和技术成果,提出符合全球共同利益的治理方案。通过参与国际组织的相关活动、举办国际研讨会等形式,加强与其他国家的交流合作,共同应对全球性挑战,推动全球治理标准的统一和完善,为中国生成式人工智能产业的国际化发展创造良好环境,为全球人工智能发展贡献中国智慧与力量。三是明确监管范围、技术要求和底线原则,推动科学性与灵活性兼备的监管模式。国家互联网信息办公室联合多部门近期正式发布《人工智能生成合成内容标识办法》及配套强制性国家标准《网络安全技术—人工智能生成合成内容标识方法》,这也开创了技术标准与管理制度配合实施的新型治理模式,标志着中国人工智能安全治理迈入“技管双强”的新阶段。同时中国要积极参与生成式人工智能治理的国际合作,推动全球治理标准的制定,避免技术滥用和全球不平等问题。未来,中国生成式人工智能将在严格且合理的治理监管下实现技术突破与创新,为科技强国建设提供重要支撑,并为全球人工智能发展贡献中国智慧与力量。
1
张熙, 杨小汕, 徐常胜. ChatGPT及生成式人工智能现状及未来发展方向[J]. 中国科学基金, 2023, 37(5): 743-750.

ZHANG X, YANG X S, XU C S. Current state and future development directions of ChatGPT and generative artificial intelligence[J]. Bulletin of national natural science foundation of China, 2023, 37(5): 743-750.

2
王文, 申宇婧, 金臻. 大跳跃: 美国智库论DeepSeek中国人工智能[J]. 智库理论与实践, 2025, 10(2): 1-11.

WANG W, SHEN Y J, JIN Z. A major breakthrough: U.S. think tanks on DeepSeek and China's artificial intelligence[J]. Think tank: Theory & practice, 2025, 10(2): 1-11.

3
郭小东. 生成式人工智能的风险及其包容性法律治理[J]. 北京理工大学学报(社会科学版), 2023, 25(6): 93-105, 117.

GUO X D. Risks of generative artificial intelligence and its inclusive legal governance[J]. Journal of Beijing institute of technology (social sciences edition), 2023, 25(6): 93-105, 117.

4
罗梓超, 李荣, 刘如, 等. 预见性情报视角下生成式人工智能安全风险感知实践探究[J]. 情报理论与实践, 2025, 48(4): 64-71.

LUO Z C, LI R, LIU R, et al. Exploring the generative AI security risk perception framework from the perspective of predictive intelligence[J]. Information studies: Theory & application, 2025, 48(4): 64-71.

5
BURRELL J, FOURCADE M. The society of algorithms[J]. Annual review of sociology, 2021, 47: 213-237.

6
程乐. 生成式人工智能治理的态势、挑战与展望[J]. 人民论坛, 2024(2): 76-81.

CHENG L. Situation, challenge and prospect of generative artificial intelligence governance[J]. People's tribune, 2024(2): 76-81.

7
吴艳, 刘腾龙. 欧盟人工智能安全治理的路径与前景[J]. 湖北社会科学, 2024(12): 32-41.

WU Y, LIU T L. Pathways and prospects for artificial intelligence security governance in the EU[J]. Hubei social sciences, 2024(12): 32-41.

8
JUSTO-HANANI R. The politics of Artificial Intelligence regulation and governance reform in the European Union[J]. Policy sciences, 2022, 55(1): 137-159.

9
陈蔓芩, 代天钰. 欧盟生成式人工智能监管制度及其启示[J]. 重庆开放大学学报, 2024, 36(5): 57-64.

CHEN M Q, DAI T Y. The EU's regulatory system for generative artificial intelligence and its implications[J]. Journal of Chongqing open university, 2024, 36(5): 57-64.

10
崔文波, 张涛, 马海群, 等. 欧盟数据与算法安全治理: 特征与启示[J]. 信息资源管理学报, 2023, 13(2): 30-41.

CUI W B, ZHANG T, MA H Q, et al. Data and algorithm security governance in the European union: Characteristics and implications[J]. Journal of information resources management, 2023, 13(2): 30-41.

11
ARORA A S, SABOIA L, ARORA A, et al. Human-centric versus state-driven: A comparative analysis of the European union's and China's artificial intelligence governance using risk management[J]. International journal of intelligent information technologies, 2025, 21(1): 1-13.

12
陈亮, 张翔. 欧盟生成式人工智能立法实践及镜鉴[J]. 法治研究, 2024(6): 105-118.

CHEN L, ZHANG X. Legislative practice of generative artificial intelligence in EU and its implication[J]. Research on rule of law, 2024(6): 105-118.

13
郭梦迎, 张薇薇. 欧盟人工智能发展与治理面临的机遇和挑战[J]. 和平与发展, 2024(5): 50-76, 180-181.

GUO M Y, ZHANG W W. The opportunities and challenges faced with the development and governance of artificial intelligence in the European union[J]. Peace and development, 2024(5): 50-76, 180-181.

14
AGUILAR-ANTONIO J M. Path and governance model of artificial intelligence (AI) policies in north American countries[J]. Justicia, 2024, 29(45): 1017081.

15
LAW T, MCCALL L. Artificial intelligence policymaking: An agenda for sociological research[J]. Socius: Sociological research for a dynamic world, 2024, 10: 23780231241261596.

16
马海群, 蔡庆平, 崔文波, 等. 美国数据与算法安全治理: 进路、特征与启示[J]. 信息资源管理学报, 2023, 13(1): 52-64.

MA H Q, CAI Q P, CUI W B, et al. Data and algorithm security governance in the United States: Approaches, characteristics and enlightenments[J]. Journal of information resources management, 2023, 13(1): 52-64.

17
Copyright Office US. Copyright registration guidance: Works containing material generated by artificial intelligence[EB/OL]. [2023-03-16].

18
李颖, 李骄阳. 美国联邦政府内部部署人工智能的风险治理体系解析及其启示[J/OL]. 现代情报, 2025: 1-20.

LI Y, LI J Y. Deconstruction of the risk management system for deploying artificial intelligence within the US federal government and its implications[J/OL]. Journal of modern information, 2025: 1-20.

19
赵悦. 如何监管生成式人工智能在科学研究中的应用: 风险与策略: 基于欧盟和美国人工智能政策的分析[J]. 现代远程教育研究, 2024, 36(6): 20-29.

ZHAO Y. How to regulate the application of generative artificial intelligence in scientific research: Risks and strategies: Based on an analysis of EU and U.S. AI policies[J]. Modern distance education research, 2024, 36(6): 20-29.

20
王彦雨, 李正风, 高芳. 欧美人工智能治理模式比较研究[J]. 科学学研究, 2024, 42(3): 460-468, 491.

WANG Y Y, LI Z F, GAO F. A comparative study of European and American AI governance models[J]. Studies in science of science, 2024, 42(3): 460-468, 491.

21
迈克尔·维尔, 基拉·马图斯, 罗伯特·戈尔瓦, 等. 人工智能与全球治理: 模式、理据和紧张关系[J]. 俄罗斯学刊, 2024, 14(3): 49-72.

MICHAEL V, KIRA M, ROBERT G, et al. AI and global governance: Modalities, rationales, tensions[J]. Academic journal of Russian studies, 2024, 14(3): 49-72.

22
王怡青, 杨梦倩, 杨瑛瑛. 美欧人工智能监管动向及启示[J]. 通信世界, 2024(13): 33-35.

WANG Y Q, YANG M Q, YANG Y Y. Supervision trend of artificial intelligence in America and Europe and its enlightenment[J]. Communications world, 2024(13): 33-35.

23
梁正, 王净宇. 美、欧人工智能治理的分歧、影响及其对中国的启示[J]. 湖北社会科学, 2024(12): 42-50.

LIANG Z, WANG J Y. Divergences, impacts and implications of US and EU AI governance for China[J]. Hubei social sciences, 2024(12): 42-50.

24
Commission European. General data protection regulation[EB/OL]. [2016-05-24].

25
High-Level Expert Group on AI. Ethics guidelines for trustworthy AI[EB/OL]. [2019-04-08].

26
Commission European. Proposal for a regulation on artificial intelligence (AI Act)[EB/OL]. [2021-04-21].

27
The White House. National artificial intelligence research and development strategic plan[EB/OL]. [2023-05-23].

28
The White House. Executive order on safe, secure, and trustworthy artificial intelligence[EB/OL]. [2023-10-23].

29
Congress U.S.. No AI FRAUD act (H.R. 6943)[EB/OL]. [2024-03-21].

30
Copyright Office U.S.. Copyright and artificial intelligence[EB/OL]. [2023-03-16].

31
Senate U.S.. AI disclosure act of 2023 (S. 2691)[EB/OL]. [2023-07-05].

32
House U.S.. REAL political ads act (H.R. 3044)[EB/OL]. [2024-04-09].

33
Senate U.S.. AI labeling act (S. 2691)[EB/OL]. [2023-11-27].

34
House U.S.. DEEPFAKES accountability act (H.R. 3230)[EB/OL]. [2019-06-12].

35
Federal Trade Commission. Protecting consumers from deceptive AI[EB/OL]. [2024-03-21].

36
Congress U.S.. AI literacy act (H.R. 6791)[EB/OL]. [2023-12-14].

37
俞可平. 全球治理引论[J]. 马克思主义与现实, 2002(1): 20-32.

YU K P. Introduction to global governance[J]. Marxism & reality, 2002(1): 20-32.

38
曾雄, 梁正, 张辉. 欧美算法治理实践的新发展与我国算法综合治理框架的构建[J]. 电子政务, 2022(7): 67-75.

ZENG X, LIANG Z, ZHANG H. The new development of algorithm governance practice in Europe and America and the construction of algorithm comprehensive governance framework in China[J]. E-Government, 2022(7): 67-75.

39
VULETIĆ D. High risk artificial intelligence systems and legal doctrine of essential facilities: In search for a dynamic model[J]. Interdisciplinary description of complex systems, 2025, 23(1): 72-81.

40
陈永伟. 超越ChatGPT: 生成式AI的机遇、风险与挑战[J]. 山东大学学报(哲学社会科学版), 2023(3): 127-143.

CHEN Y W. Beyond ChatGPT: Opportunities, risks, and challenges from generative AI[J]. Journal of Shandong University (philosophy and social sciences), 2023(3): 127-143.

41
李默, 杨彬. 从生成式人工智能到通用人工智能: 赋能图书馆知识服务模式创新[J]. 农业图书情报学报, 2024, 36(6): 50-61.

LI M, YANG B. From generative artificial intelligence to artificial general intelligence: Enabling innovation models in library knowledge services[J]. Journal of library and information science in agriculture, 2024, 36(6): 50-61.

42
李蒙. 美国联邦贸易委员会隐私和数据安全领域行政执法和解研究[D]. 上海: 上海交通大学, 2022.

LI M. Research on the administrative law enforcement settlement of the US federal trade commission in the field of privacy and data security[D]. Shanghai: Shanghai Jiao Tong University, 2022.

43
周巧. 欧盟《人工智能法》监管沙盒制度及启示[J]. 科技创业月刊, 2025, 38(1): 157-162.

ZHOU Q. The regulatory sandbox system of the EU artificial intelligence act and its implications[J]. Journal of entrepreneurship in science & technology, 2025, 38(1): 157-162.

44
Legislature California. AB-311 genAI accountability act[EB/OL]. [2024-01-01].

45
NATALI H, NICHOLAS D. ChatGPT and the AI act[J]. Internet policy review, 2023, 12(1): 28-28.

46
严少华, 杨昭. 欧美人工智能治理模式比较及启示[J]. 战略决策研究, 2024, 15(3): 41-65, 110-111.

YAN S H, YANG Z. Comparison of artificial intelligence governance model between the EU and the US[J]. Journal of strategy and decision-making, 2024, 15(3): 41-65, 110-111.

47
徐明. 生成式人工智能大模型的安全挑战与治理路径研究[J]. 信息通信技术与政策, 2025(1): 10-19.

XU M. Research on security challenges and governance path of generative artificial intelligence big model[J]. Information and communications technology and policy, 2025(1): 10-19.

48
马海群, 李金玲, 于同同, 等. 全生命周期视阈下公共数据伦理准则框架研究[J]. 农业图书情报学报, 2023, 35(6): 29-42.

MA H Q, LI J L, YU T T, et al. A framework of ethics guidelines on public data from a whole life cycle perspective[J]. Journal of library and information science in agriculture, 2023, 35(6): 29-42.

Outlines

/