生成式人工智能内容治理责任的检视与配置
2026-04-24
摘要
生成式人工智能的广泛应用重塑了信息内容的生产方式、传播逻辑及治理条件,使内容治理责任问题呈现前所未有的复杂性。具体而言,内容生成由单一主体主导转向人机协同、多元主体参与的复合模式,内容风险由个别违法违规内容扩展为贯穿生成、分发、传播全过程的系统性风险,责任落实所依赖的技术架构、平台机制、制度规则也发生了深刻变化。由此,传统以主体稳定、对象明确、事后归责为基础的责任逻辑受到冲击,进而引发多元主体参与下的责任归属模糊、风险形态升级下的责任认定困难以及环境复杂性下的责任运行阻滞三重困境。回应上述挑战,有必要构建全过程多主体责任配置机制,完善风险导向的分级分类治理责任体系,并推动责任要求嵌入技术架构和制度规则之中,进而形成可识别、可承接、可落实的生成式人工智能内容治理责任闭环。
关键词:生成式人工智能;内容治理;信息生态系统;责任配置
《中华人民共和国国民经济和社会发展第十五个五年规划纲要》提出,“加强数据基础制度规则建设和人工智能治理”“规范网络内容生产、信息发布和传播流程”。近年来,随着ChatGPT、DeepSeek等生成式人工智能(Generative Artificial Intelligence,GAI)在文本生成、图像合成和音视频创作等内容生产领域的广泛应用,内容生成方式正在由人类创作者这一单一主体模式转向人机协同的复合模式,内容生产规模和速度显著提升,扩散范围和社会影响显著放大[1]。生成式人工智能在提升内容生产效率的同时,也放大了内容失真、深度伪造、信息操纵等风险[2],冲击着公共信息秩序和社会信任基础。在此背景下,内容治理呈现跨主体、跨环节的系统性特征,其中的责任配置问题愈发复杂。政府、行业组织、技术开发者、内容提供者、内容使用者等行动者,以及算法、制度文本等内容环境均在内容生成中发挥关键作用。然而,算法模型自身并不具备独立承担治理责任的能力,内容治理责任在多元主体之间的分配、衔接、运行等问题愈发复杂。
在此背景下,围绕生成式人工智能的内容治理实践已在全球范围内展开,并呈现差异化路径。欧盟采取以硬性监管为特征的治理路径,以风险分级、风险主体、全域监管、关键场景和风险摸底为导向,通过《人工智能法案》等,构建了高敏捷、强预防的生成式人工智能监管工具体系[3]。相较之下,美国对生成式人工智能内容的监管则以柔性治理为主,形成以联邦为核心和以州为核心的分层式监管主体体系、场景化的监管规范、轻触式的监管工具和容错性的监管责任[4]。我国坚持发展和安全相统筹的路径。事实上,自党的十九大报告提出“加强互联网内容建设,建立网络综合治理体系”以来,我国持续推动网络内容治理由分散监管向系统治理转型,强调政府、平台、社会多方协同参与。2023年,我国《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)确立了算法备案、安全评估等制度,要求服务提供者承担相应内容安全主体责任,初步回应了生成式人工智能带来的内容风险。但相关政策与规范更多聚焦于合规要求与风险防控底线,对于具体实践中生成式人工智能内容治理责任如何在多元主体之间进行结构性配置与协同运行,仍有深化的空间。
围绕生成式人工智能内容治理责任,学术界已展开多维度探索。其一,在技术发展维度,强调通过模型约束降低生成式人工智能的内容风险。面对深度伪造、算法偏见、信息操纵等问题,主张通过深度伪造检测技术、内容认证、水印技术等提升算法可控性[5-6]。但人工智能还不具有规范判断和制度设计的能力,其透明性与伦理边界仍依赖人的设定与监督,通过技管结合重新塑造开放、透明、可审计、可问责的可信治理秩序[7]。其二,在平台责任维度,既有平台治理主要围绕避风港原则与“通知—删除”机制展开,即网络服务提供者收到权利人通知后及时删除侵权信息[8]。但在生成式人工智能情境下,平台不仅是信息传播的中介,更在一定程度上参与内容生成过程,由此,学界开始反思既有责任框架的适用性,认为开发生成式人工智能技术和提供智能服务的平台企业是风险规避的第一责任人[9],应强化平台在内容生成、分发与推荐全过程中的审查义务和风险防控责任[10]。其三,在政府责任维度,现有研究认为政府既承担着通过完善立法、制定标准、创新监管工具等方式构建适应生成式人工智能发展的制度体系的责任[11],也承担着公共价值引领、平台合规监管、行业协调等责任[12],需要在促进生成式人工智能发展和防控内容风险之间实现动态平衡。
现有研究和实践为理解生成式人工智能语境下的责任问题提供了重要启示,但整体来看,多围绕单一维度展开,且对情境转变、责任困境、治理进路之间的内在逻辑缺乏系统整合,尤其是在生成式人工智能全过程多主体责任有效衔接方面,仍有待深化。中国互联网络信息中心政策与国际合作所发布的第57次《中国互联网络发展状况统计报告》显示,截至2025年12月,我国生成式人工智能用户规模达6.02亿人,较2024年底增长141.7%;普及率达42.8%[13]。生成式人工智能正加速融入日常生活与生产领域,其所引发的内容风险扩散与治理复杂性提升,迫切需要对内容治理责任逻辑进行重新审视。因此,本文聚焦生成式人工智能情境下的内容治理责任问题,试图回答内容治理责任所处的情境发生了何种转变、这一转变引发了哪些责任困境、应如何探索相应的治理进路与优化路径等研究问题,以期为理解和完善生成式人工智能内容治理体系提供理论支撑和实践参考。
一、理论基础与分析框架的提出
(一)理论基础
生成式人工智能内容的生成、传播与放大并非由单一主体完成,而是由模型提供者、平台运营者、内容使用者等多元主体在不同环节共同作用的结果。并且,生成式人工智能内容风险往往具有生成速度快、传播范围广且社会影响逆转难等特征,其生成与演化呈现一个环环相扣的链式结构,任何环节的治理效果会直接影响到随后的治理效能[14]。因此,在生成式人工智能语境下,内容治理责任不再是静态的归属问题,而表现为一种嵌入于特定信息结构中的系统性问题,有必要引入能够刻画多元要素互动关系的整体性分析框架。
本文引入信息生态系统理论作为分析视角,该理论最早由美国学者托马斯·达文波特(Thomas Davenport)和劳伦普·普鲁萨克(Laurence Prusak)于1997年提出[15]。信息生态系统理论从生态学的视角切入,将信息视为一种生态系统,是信息自身与生命体及其周围环境相互联系、相互作用的有机整体,包括信息、信息人、信息环境三大基本要素[16]。具体而言,信息是生态系统的核心要素,是信息生态的客体,其生成、传播与使用方式直接影响整个信息生态系统的运行状态[17]。信息人是生态系统的主体要素,指在信息生产、传播、加工、使用过程中发挥能动作用的个人或组织,其行为选择、能力结构、角色分工共同塑造信息流动路径及责任关系格局。信息环境指与人类信息活动有关的一切自然环境和社会环境,既包括信息基础设施、信息资源、信息技术、信息政策和法规等显性部分,也包括人们的知识结构、风俗习惯、道德观念、生产经验等隐性部分[18]。信息环境通过技术架构和制度规则对信息活动产生深层影响,在很大程度上塑造了信息内容的生成机制及其治理方式。
信息生态系统理论为分析生成式人工智能内容治理责任问题提供了具有解释力的整体视角。在信息生态理论的启发下,生成式人工智能对内容治理的影响,并非仅体现为信息生产工具的技术升级,而是通过重塑信息主体、信息内容、信息环境及其关系,引发信息生态系统的结构性变迁[19]。在主体层面,生成式人工智能的出现,使信息主体由单一人类生产者转向人机协同生成;同时,信息内容从可识别的表达对象转变为具有放大效应和连锁影响的风险载体;在信息环境层面,技术架构、平台机制与制度规则对内容生成、传播与治理的塑造作用显著增强。因而生成式人工智能内容治理始终嵌入由主体、内容、环境构成的动态系统之中,当其中任一要素发生显著变化,既有治理秩序及其责任结构便可能随之失衡。
(二)“主体—内容—环境”分析框架的提出
基于信息生态理论,生成式人工智能内容治理中的责任问题可以进一步被拆解为三个相互关联的层面,即责任主体、责任对象以及责任实现机制,分别对应“由谁负责”“对何负责”和“如何负责”的一组连贯问题。由此,本文构建“主体—内容—环境”分析框架,用以解释生成式人工智能内容治理责任逻辑(见图1)。
在信息主体维度,生成式人工智能内容的生成、分发、传播涉及政府、行业组织、技术开发者、平台运营者、内容提供者和内容使用者等多元主体。不同主体在内容生成和传播链条中所处环节、承担功能及具备的风险控制能力并不相同,责任问题也不再是对单一主体的事后归责,而表现为多主体参与条件下责任的划分、落实和衔接。由此,信息主体维度上的生成式人工智能内容治理责任,即责任主体的确定及其责任边界的划分,回应的是“由谁负责”的问题。
在信息内容维度,生成式人工智能所带来的治理挑战不止源于个别违法或不当内容,更集中体现为虚假信息扩散、深度伪造、操纵性内容放大等系统性风险。这类风险并不单纯依附于具体内容本身,而是在内容的生成、传播、再生产过程中不断累积和放大。相应地,内容治理的重心也由针对具体内容的事后处置,转向对内容风险的识别、评估、预防和控制。因此,本文从风险导向出发重新审视责任问题,以内容可能引发的社会风险作为责任展开的依据,从而回应“对何负责”的问题。
在信息环境维度,技术条件、平台条件和制度条件对信息活动的影响进一步增强。一方面,推荐算法、流量分发方式以及平台运行规则,在很大程度上影响内容的可见性、传播路径和影响范围;另一方面,法律法规、行业规范、平台规则为责任的设定、落实和追究提供了基本依据。因而信息环境是责任落实所依赖的现实条件,使责任由抽象规范转化为具体可执行的治理安排,回应“如何负责”的问题。

▲图1--图为分析框架
二、生成式人工智能内容治理责任的情境转变
生成式人工智能不仅改变了内容生产和传播的方式,也重塑了责任生成、分配、落实的基本条件。因而需要结合生成式人工智能所引发的结构性变化,重新考察责任主体的构成方式、责任对象的识别重点以及责任落实的基础条件。
(一)主体维度:责任主体关系复杂化
在主体维度上,生成式人工智能改变了不同主体在内容生成与传播过程中的作用方式,使主体之间的责任关系更加复杂。一方面,内容生产过程中的人机协同趋势不断增强。在生成式人工智能广泛应用之前,网络信息内容生产主要呈现为专业机构主导的专业生成内容(PGC)与普通用户主导的用户生成内容(UGC)两种基本形态[20]。无论是专业生成还是用户生成,内容生产过程均以可识别的人类行为为中心,信息来源可追溯、可问责,技术主要作为信息搜集、编辑、传播的辅助工具存在。然而,生成式人工智能通过对大规模数据的学习,对语言、图像等内容形态的概率分布进行建模,其输出并非简单执行用户指令,而是在概率推断基础上进行语义补全与结构重组,具有一定程度的技术自主性[21]。可以说,生成式人工智能不再仅作为被动工具,而是在内容生成过程中发挥实质性影响,内容生成不再是单纯的人类创作行为,而表现为人类输入、技术生成与人工筛选相互交织的过程。人机协同的生成方式降低了内容生成过程的可识别性和可追溯性,也使不同参与者在内容生产中的作用边界更加模糊,从而增加了责任认定和责任划分的难度。
另一方面,内容生产从单一主体行为转向多主体协同过程,责任关系愈发复杂化。生成式人工智能内容的形成通常涉及政府、模型研发者、服务提供者以及用户等多个主体,各主体在内容生成与传播过程中所处的位置、发挥的功能与可控程度并不相同。政府主要负责制度设计与公共风险防控,在规范目标和治理方向上具有主导地位,但在技术细节和运行机制上对平台和技术企业形成现实依赖。模型研发者在技术层面对内容生成质量和风险形态产生深远影响,但其并不直接参与内容在具体平台和场景中的实际使用过程,难以及时回应内容传播过程中的社会后果。服务提供者通过产品设计与功能配置影响内容调用与呈现方式,具备较强的过程性治理能力,却同时承载商业目标与公共责任的双重压力。而用户则通过提示词输入触发具体生成结果。不同主体虽然并不处于同一环节,却都可能对内容风险的形成和扩散产生实质影响。内容治理因而不得不面对多元主体共在、责任关联交织的复杂局面。
(二)内容维度:内容风险结构的演化
在生成式人工智能广泛应用之前,信息内容形态以人类主导生成的文本、图像、音视频为主,这类内容通常具有明确的创作主体、相对清晰的表达意图以及可追溯的生成过程。相应地,内容风险多表现为个别主体的违法违规行为,如虚假宣传、低俗色情等,其影响范围相对有限,责任指向也较为明确。生成式人工智能的介入,使得内容生成由以人工创作为主的有限产出模式,转向依托自动化系统的持续性供给模式。一是内容形态呈现多模态融合特征,用户通过简单提示即可生成文本、图像、音视频等多种形式内容,并可实现不同模态之间的快速转换,打破了传统内容形态的边界;二是内容供给能力不断提升,模型能够在短时间内持续输出大量差异化、个性化内容,还能基于已有内容进行二次创作,再通过平台算法推荐实现快速扩散,使内容的传播范围和影响深度远超传统内容形态;三是生成内容的不确定性增强,模型的本质功能不是检索事实,而是根据上下文预测最可能的词序列,并不以真实性为直接目标,且内容生成路径难以被追溯。
在内容形态变化的基础上,内容风险的生成逻辑和社会影响随之发生转变,风险并非源于单一数据或内容,而更多取决于内容生成的规模、传播路径及受众覆盖范围[22]。具体来看,其一,在内容生成前阶段,主要表现为数据偏差和数据污染风险。生成式人工智能依赖大规模数据训练,其训练语料中可能包含未经核实的信息、带有特定立场或意图的内容,这些因素会被模型继承并在后续生成过程中被不断再生产和反复放大。其二,在内容生产层,主要体现为AI幻觉风险和认知茧房效应。模型本质上是基于概率预测生成内容,在缺乏事实约束的情况下,可能合理化补全看似可信实则失真的内容,增加信息误导性。ChatGPT官网也载明,哪怕是最新版的生成式人工智能系统也存在一定的幻觉率,并不完全可靠。同时,生成式人工智能“优先取悦人类反馈,而非基于事实逻辑实现内容生成”的原初设定,可能产生“自反式信息茧房”,削减人工智能模型的思考深度,导致人、机双重非理性现象[23]。其三,在内容传播层,风险主要表现为规模化扩散和放大效应。在生成式人工智能背景下,风险内容能够在短时间内触达海量用户,且传播过程中易被二次创作、反复传播,造成信息污染[24]。此外,算法黑箱也进一步增加了风险溯源的难度。其四,在社会影响层,风险进一步表现为对社会信任、公共认知和舆论秩序的冲击[25]。生成式人工智能能够模仿熟人语气、冒充权威机构、制造看似专业的论述,损害社会信任基础[26];信息用户过度依赖生成式人工智能生成观点,容易陷入认知外包,导致认知能力的萎缩[27];同时,生成式人工智能具有一定的意识形态属性,长期接触特定大语言模型构建的信息环境,会影响公众的价值观念,形成系统性的认知偏移风险,对主流价值认同和社会治理效能产生潜在影响[28-29]。
(三)环境维度:责任落实条件的变化
在生成式人工智能背景下,内容治理责任的落实深度嵌入由技术架构、平台机制、制度规则共同构成的复杂环境之中。相较于传统互联网环境,生成式人工智能显著强化了技术环境和制度环境对内容生成和传播过程的塑造作用,技术系统影响风险的生成逻辑,平台机制塑造风险的传播路径,制度规则则提供责任运行的规范框架。三者相互交织,共同影响内容治理责任的实现方式。
其一,技术条件对内容生成和风险形成的塑造作用明显增强。在生成式人工智能背景下,生成模型和算法系统深度嵌入内容生产过程。模型基于概率推断实现内容生成,具备规模化、自动化和连续输出能力,使内容供给由有限产出转向持续生成。由此,内容风险不再仅取决于具体内容本身,而越来越受到算法逻辑的影响,技术系统可能通过规模化生成机制,参与内容风险的生成和强化过程。其二,平台的组织方式与运行规则在内容治理中的作用进一步凸显。人工智能生成内容依托平台实现调用和传播,平台不再只是内容传播的中立通道,平台规则如何设置、分发机制如何运行、审核措施如何落实,都会直接影响风险内容的传播范围和社会影响。其三,制度条件在内容治理中的规范与保障作用不断强化。面对生成式人工智能带来的内容风险,法律法规、政策规范、行业标准等制度要素,成为规范治理行为的重要依据。一方面,相关制度通过确立算法备案、安全评估、内容审核等要求,为责任主体提供明确的行为规范指引;另一方面,制度体系也在不断回应技术演进趋势和内容风险变化,通过动态调整,提升对新型风险的适应能力。
三、生成式人工智能内容治理责任的困境检视
正是在上述情境结构变化之下,既有责任安排所依赖的主体稳定性、因果清晰性和事后归责逻辑逐渐失去现实基础,责任生成的结构条件与责任配置的制度逻辑之间出现脱节,由此引发一系列责任困境。
(一)多元主体参与下的责任归属模糊
内容生成过程涵盖模型研发者、服务提供者、平台运营者、内容使用者在内的多个主体,对其内容治理责任进行精细区分和合理分配的难度较大。若将责任完全归于模型开发者,则可能忽视技术不确定性本身的客观存在;若将责任全部压给使用者,则又忽略其对模型内部运行机制的不可知性。当风险内容引发争议时,任何一个主体都可以辩称自己只介入了部分环节。开发者将责任归因于用户的不当输入,声称模型本身并无恶意;用户则将责任归因于模型的自主输出,主张无法预见生成结果;平台运营者则援引技术中立原则,强调自身仅为内容传播渠道。这种责任推诿结构,容易导致人人参与却无人负责的责任归属困境。
同时,技术自主性进一步加剧了责任主体模糊化。人工智能模型在内容生成过程中发挥着实质性影响,其输出并非简单执行用户指令,而具有一定程度的技术自主性[21]。但人工智能模型本身不具备法律人格,因此不应也无法承担责任,责任应在人类行为者之间划分[30]。然而,当大模型基于概率推断生成看似合理但实则失真的“幻觉”内容时,其输出结果是模型参数、训练数据与用户提示词复杂交互的产物,既非开发者能够完全预见,也非用户能够完全控制,从而削弱责任承接的明确性[31]。由此形成一个治理悖论,即越是由算法系统主导生成的内容,其背后的责任主体反而越难以被清晰锁定。
在多元主体与技术系统的交织作用下,内容治理责任被拆解并分散于不同主体和环节之中,而有效的整合与承接机制却付之阙如,容易出现责任过度集中或责任分散失衡的问题。显然,不同主体在内容生成链条中的治理能力存在差异,政府在内容治理中承担着规则制定和风险监管等责任,但在技术快速演进背景下,其治理能力不可避免地依赖平台企业提供的技术与数据支持。平台虽然具备较强的技术能力,但其行为在很大程度上受商业目标和用户增长逻辑影响,责任履行往往以风险可控和成本可承受为限度,通过用户协议、使用规范、免责声明,将部分内容合规责任转移至终端用户,但普通用户对内容风险的识别与控制能力有限,导致责任分配呈现向弱者转嫁的趋势。
(二)风险形态升级下的责任认定困难
生成式人工智能对内容形态的重塑,使内容风险从可识别、可归因的具体违法内容,转变为嵌入生成与传播全过程的系统性风险。传统网络内容治理以可识别的违法或不当信息为对象,通过界定内容性质与违法边界来触发责任机制,即识别违规内容、确认发布主体、实施事后处置。但在生成式人工智能情境下,风险并不总是以明显违法的形态呈现。模型输出的大量内容在形式上未必触及违法边界,却可能借助语义重组或数据偏见产生误导性影响,呈现形式合规但实质有害的特征,例如深度伪造内容、伪科普信息以及带有隐性偏见的生成结果等,责任客体因而难以被清晰界定。
进一步来看,生成式人工智能内容风险的生成,本质上是技术与社会的互构循环[32],具有明显的过程性和累积性特征。其内容风险影响并非源于单次内容输出,而是在持续生成、算法强化、反复传播中被逐步放大。若责任制度仍围绕个别损害结果进行追责,便难以捕捉风险持续积累的动态过程。责任机制在风险尚未显现时缺乏介入基础,在风险显现之后又难以精确溯源。此外,模型生成内容基于概率预测而非事实检索,可能产生看似合理却偏离事实的“幻觉”信息。若以真实性作为责任认定依据,何种程度的偏离应纳入归责范围也难以明确。由此,生成式人工智能背景下的内容风险呈现不确定性,难以被准确识别和定位,导致责任认定困难。
(三)环境复杂性下的责任运行阻滞
在责任主体难以明确、责任客体难以识别的基础上,生成式人工智能所依赖的技术架构、平台机制、制度环境相互嵌套,但未形成协同有效的责任落实体系,反而在责任追溯、责任履行、责任规范三个层面形成了结构性张力,构成了内容治理责任在实践层面的落实困境。
第一,算法黑箱削弱了因果追溯的可行性。算法黑箱指“算法在输入、运行及输出过程中不公开、不可知、不可解释、不确定的状态”[33]。责任追究以行为过程的可观察性和可解释性为前提,而大语言模型的黑箱特性使得即便是模型开发者,也难以完整解释某一输出结果是如何由特定输入、训练数据、参数权重等共同作用产生。当模型输出损害公民权益的信息时,决策过程的不透明、不可解释性,导致传统的治理手段和问责框架近乎失效,监管部门难以进行有效的事后追责。目前,全球发达经济体正加速转向事前问责的治理框架,如欧盟《人工智能法案》、美国《人工智能风险管理框架》等。相比之下,我国虽已出台相关顶层指导文件,但更多聚焦于合规要求和风险防控底线,对于责任如何嵌入技术运行过程、如何实现过程性问责,仍有待进一步细化。
第二,平台商业逻辑与公共治理间的结构性张力,是责任履行的动力障碍。平台在生成式人工智能内容治理中处于枢纽位置,既是内容分发的渠道,也是模型服务的载体,还是用户交互的界面,因而对风险的生成和扩散具有重要影响。然而,在商业利益驱动下,平台履责呈现选择性和策略性特征,甚至出现无序过度收集数据的行为,这可能泄露用户隐私、引发数据安全风险和算法偏见,导致用户权益受损[34]。然而,监管部门的法定监管责任与平台的技术责任间的界限有待进一步厘清,导致平台较少为其主动推荐行为所导致的放大后果承担责任,平台治理行为的可问责性相对不足,影响责任落实的有效性。
第三,制度供给滞后和规则衔接不足,制约责任机制的有效运行。相较于生成式人工智能技术的快速发展,制度供给在一定程度上仍具有滞后性与不确定性。制度供给与技术实践之间的时间差,使一些新兴风险尚未被既有规范充分覆盖,各主体在面对风险时缺乏明确的责任指引,既可能导致过度规避风险的防御性行为,也可能出现责任观望和推诿,造成科林格里奇困境[9]。同时,不同制度规范之间在责任界定与实施路径上也可能存在衔接不足的问题,增加了责任落实的制度成本与执行难度。
四、生成式人工智能内容治理责任的配置优化
人工智能生成内容尽管是无法预料的,但其具备语料库的可选择性、算法的可设定性、用户认知的可控制性的特征[35],是厘清生成式人工智能由谁负责、对何负责、如何负责等问题,完善内容治理框架的关键。生成式人工智能内容治理责任应遵循三项基本原则:一是功能匹配原则,责任配置应与主体在内容生成链条中的功能角色相匹配;二是能力导向原则,责任分配应以主体对风险的实际控制能力为依据,避免责任向最弱势群体转嫁;三是全过程覆盖原则,责任不应仅作用于损害发生之后,而应嵌入从模型训练、内容生成到分发传播的全过程,实现风险的前置识别与动态干预。
(一)构建全过程多主体责任配置体系
生成式人工智能内容治理涉及多元主体参与,但并不意味着责任在各主体之间的平均分配或机械分割,而应在现行《中华人民共和国网络安全法》《生成式人工智能服务管理暂行办法》等法律法规框架下,通过源头责任、过程责任、使用责任、监督责任的有序衔接,实现权责匹配和风险共担,在多元主体之间建立结构清晰、可承接、可持续的责任体系。
在内容生成前环节,明确基础模型开发者对数据和算法底层安全的源头责任。基础模型提供者在训练数据选择、参数设定、模型架构设计等方面的技术决策直接决定模型可能产生何种类型的风险输出,因而应在源头阶段承担更高程度的技术注意义务。具体而言,一是对训练数据的合规性审查责任,防止模型在源头阶段继承明显的违法内容或系统性偏见;二是算法调适责任,通过持续测试和评估降低歧视性或误导性输出的概率;三是技术透明责任,明确告知模型可能出现“幻觉”风险;四是建立版本更新和风险追溯机制,在模型能力迭代过程中保留必要的审计记录,以便在风险事件发生时实现技术溯源。
在内容生成与分发环节,强化服务提供者和平台运营者的过程责任。《暂行办法》第十四条要求“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告”。这一制度安排明确了提供者在事中和事后阶段的治理责任。作为连接模型与用户的中间方,服务提供者既能够从前端控制人工智能的生成内容,还能对后端生成的侵权内容采取删除等技术措施[36],其责任集中体现为对内容生成和传播过程的持续调控。一是根据不同应用场景建立分类分级的生成管控机制,对具有舆论属性或社会动员能力的技术服务强化安全评估和算法备案要求;二是在提示词输入阶段强化风险识别和技术干预,降低恶意绕过审核规则的可能性;三是对生成内容进行标识,依照深度合成管理规定对图片、视频等内容进行显著标识,并提升文本类生成内容的可识别性;四是完善投诉举报和纠错机制,确保公众在发现失真或有害内容时能够获得及时回应;五是明确平台算法推荐机制的责任,突破传统的避风港法则,推荐算法运用平台在信息内容传播上“介入越深、利益越大、责任越重”,提高平台的注意义务[37]。
在使用环节,合理界定终端用户的使用责任。一般而言,相较于提供者,使用者对人工智能系统的控制程度较低,只能被动地接受输出结果,风险控制更多地是依靠人工智能服务的质量。但用户作为内容生成的直接触发者,应在合理预见和可控范围内承担善意使用责任,不得通过刻意调整提示词规避审核规则或利用生成式人工智能从事违法犯罪活动。与此同时,应避免将系统性技术风险过度转嫁给普通用户。可根据不当使用程度建立梯度责任机制,从警示提醒、限制使用到依法追责形成层次分明的责任体系。此外,还应通过人工智能素养教育和内容风险意识培育,提升用户对人工智能生成内容局限性的认知能力,使用户在使用过程中保持必要的审慎态度。
政府在人工智能内容生成全过程承担价值规制、制度供给、监督控制、组织协调的责任。《暂行办法》第十六条确立了网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门协同监管格局。在责任重构进路中,相关部门的核心职责在于通过明确责任边界、完善分类分级监管规则以及推动行业标准制定,保障责任链条的稳定运行。一是在生成前准备、生成内容、生成后应用三个阶段其他相关行动者施加强制性约束,确保生成内容在结果上符合公共价值要求[12]。二是在国家整体战略规划下,制定和修改内容治理相关的规定,指导和规范网络信息内容系统的良性发展;三是通过常态化评估和信息披露机制监督平台履责情况,防止责任链条断裂;四是对内容治理中的多元主体进行组织与协调,承担起内容治理体系有效运转的责任。
(二)确立风险导向的分级分类责任规则
在内容风险形态不断升级背景下,需要将责任重心从对违规内容的事后识别处置,转向对内容风险的全过程识别、评估和干预,建立风险导向的分级分类治理机制。基于不同类型的人工智能系统可能造成的风险程度来调整治理责任配置,已成为全国各国主要遵循的治理思路,欧盟《人工智能法案》采用基于风险的监管方法,根据人工智能构成的风险程度,将其分为不可接受的风险、高风险、有限风险、最小风险四个类别,对其适用不同的监管规则[38-39]。我国也已确立分级分类监管原则,后续工作重点在于结合不同应用场景的技术特点,创新监管方式[35]。
首先,建立覆盖不同风险类型的多层次识别框架。根据前文分析,可将生成式人工智能内容风险划分为四个层次:一是明显违法内容,包括危害国家安全、传播色情等法律法规明确禁止的内容。此类风险边界清晰,可沿用负面清单模式,实施“零容忍”管控。二是深度伪造内容,指利用AI技术合成的、足以混淆真伪的音视频内容。治理重点应为强制标识和来源追溯,对涉及公众人物、重大事件的深度伪造内容设置更严格的传播限制。三是认知误导内容,包括“伪科普”、隐性偏见、情绪操纵文本等。此类内容形式上合规但认知层面有害,治理重心应从“内容是否违规”转向“可能引发的认知影响”,建立基于影响评估的风险预警机制。四是累积性风险内容,指单条内容危害有限、但持续接触可能形成结构性影响的偏见信息等。治理需突破“个案处置”思维,建立基于传播规模、接触频次的累积效应监测体系。
其次,构建风险等级导向的差异化治理责任。生成式人工智能的风险并非静态存在,而是在模型更新、应用场景变化与用户互动过程中不断演化。单次合规审查难以覆盖持续生成所带来的新型风险。因此,有必要根据不同应用领域的风险等级建立分级责任制度,对具有舆论属性、社会动员能力或涉及公共利益的服务强化安全评估和持续监测机制。在风险识别基础上,根据风险等级配置差异化监管强度。可从应用场景、传播范围、影响程度三个维度对人工智能生成内容进行风险分级。涉及医疗咨询、政治传播等公共利益场景的内容、面向不特定公众公开发布的内容以及涉及公共事件、公众人物、重大议题的内容,应划分为高风险,设置严格的生成审核要求和事实核查责任,而创意写作、日常问答等场景,且影响范围有限的内通可划为中低风险,在保障基本安全的前提下给予更大技术自由度。
最后,完善风险生成全过程的前置干预机制。将治理介入时点前移至风险生成全过程,建立前置干预机制。在模型训练阶段,通过公共价值观对齐从源头降低风险生成概率。在提示输入阶段,建立实时风险识别机制,对明显恶意或高风险提示词予以拦截。在内容生成阶段,实施动态风险评估与分级处置。在分发传播阶段,建立算法推荐的风险调节机制,对高风险内容降低推荐权重、限制传播范围等。模型设计者应与服务提供者形成联动机制,遇到突发情况时及时处置。
(三)完善嵌入生成过程的责任闭环运行机制
破解技术复杂性下的责任运行阻滞困境,需要将责任要求通过制度化安排嵌入技术设计运行流程,使风险防控成为技术环境的内在组成部分。具体而言,可以从技术嵌入与制度适配两个层面构建责任运行机制。
一方面,将责任要求嵌入技术架构之中,实现由外在规制向内生约束的转变。针对算法黑箱导致的可追溯性缺失问题,应将安全、公平、透明等伦理要求转化为技术架构中的运行参数,增强制度约束在高频率生成环境中的稳定性:通过日志留存、决策记录和模型版本管理机制,增强技术过程的可追溯性,使风险发生后能够回溯至具体环节;在模型训练与优化过程中设置敏感领域识别模块,在生成阶段嵌入自动风险检测机制,在推荐排序阶段引入风险权重调节规则,使风险控制成为系统运行的内在组成部分,而非事后补救手段。同时,可通过信息披露、风险提示、公众教育等方式提升社会整体的辨识能力,使公众在接触人工智能生成内容时具备基本的识别意识,在技术治理之外形成社会层面的风险缓冲机制。
另一方面,构建动态适应的制度保障和监督机制,实现责任运行闭环。针对平台商业逻辑与公共治理间的张力,可建立第三方算法审计制度,由专业机构对算法安全性能、标识合规情况等进行独立评估,并将审计结果向社会公开,增强平台治理行为的可问责性。同时,明确平台对算法推荐“放大效应”的责任边界,对于明显可预见的放大后果,如持续推送煽动性虚假信息等,平台应承担相应治理责任。针对技术迭代与制度演进的时间差,应推动规制工具的多元化,形成法律规范、技术标准、行业公约、企业承诺相结合的复合治理工具箱,并建立标准的动态更新机制,缩短与技术的差距。同时,积极参与全球人工智能治理对话,推动标识标准互认和风险信息共享,逐步形成协调一致的治理规则体系。在此基础上,将处置结果反馈至技术优化和制度改进,推动从个案纠偏到系统完善的闭环,最终实现责任运行的动态闭环。
参考文献:
[1]刘智锋,吴亚平,王继民.人工智能生成内容技术对知识生产与传播的影响[J]. 情报杂志,2023(7):123-130.
[2]殷琦,陶文冲.超平台化与韧性建设:生成式人工智能内容风险治理的新语境与新路径[J].新闻界,2026(2):15-26.
[3]陈亮,张翔.欧盟生成式人工智能立法实践及镜鉴[J].法治研究,2024(6):105-118.
[4]何野.生成式人工智能安全监管制度优化:欧美经验及其启示[J].中国科技论坛,2025(10):180-188.
[5]WESTERLUND M. The emergence of deepfake technology: A review[J]. Technology Innovation Management Review, 2019(11):39-52.
[6]刘艳红. 生成式人工智能的三大安全风险及法律规制——以ChatGPT为例[J]. 东方法学,2023(4):29-43.
[7]钱明辉. 人工智能时代的可信治理[J]. 人民论坛,2026(2):69-73.
[8]徐明. 避风港原则前沿问题研究——以“通知—删除”作为诉讼前置程序为展开[J]. 东方法学,2016(5):28-36.
[9]童云峰. 走出科林格里奇困境:生成式人工智能技术的动态规制[J]. 上海交通大学学报(哲学社会科学版),2024(8):53-67.
[10]陈志斌,常馨雪,陈志红. 人工智能时代平台企业网络信息内容责任重构与治理范式转换[J]. 江苏社会科学,2025(5):104-114.
[11]曾宇航,史军. 政府治理中的生成式人工智能:逻辑理路与风险规制[J]. 中国行政管理,2023(9):90-95.
[12]郭晟豪,王皓铎. 生成式人工智能治理:价值对齐的规制与训导路径[J]. 中国行政管理,2025(10):23-34.
[13]李政葳. 我国生成式人工智能用户规模达6.02亿人[N]. 光明日报,2026-02-06(4).
[14]张贤明,张力伟. 风险治理的责任政治逻辑[J]. 理论探讨,2021(2):19-24.
[15]DAVENPORT T H, PRUSAK L. Information ecology: Mastering the information and knowledge environment[M]. New York: Oxford University Press, 1997.
[16]李美娣. 信息生态系统的剖析[J]. 情报杂志,1998(4):3-5.
[17]陈曙. 信息生态研究[J]. 图书与情报,1996(2):12-19.
[18]靖继鹏. 信息生态理论研究发展前瞻[J]. 图书情报工作,2009(4):5-7.
[19]梁怀新,宋诚. AIGC时代的网络信息内容生态安全风险及其治理——兼以ChatGPT为对象的实验访谈案例分析[J]. 图书情报工作,2023(20):58-69.
[20]BRUNS A. Blogs, Wikipedia, Second Life, and beyond: From production to produsage[M]. New York: Peter Lang, 2008.
[21]涂良川,唐春燕. 人工智能“技术自主性”的哲学叙事[J]. 学术论坛,2025(5):1-11.
[22]Boyd D, Crawford K. Critical questions for big data: provocations for a cultural, technological, and scholarly phenomenon[J]. Information, Communication & society, 2012(5): 662-679.
[23]曹冬英.“自反式信息茧房”:生成式人工智能的构筑机理与超越[J]. 探索与争鸣,2025(2):153-166.
[24]李阳,刘柏珍. 生成式AI时代的网络信息内容风险样态与治理路径[J]. 图书与情报,2025(6):43-52.
[25]PILLER F T, SROUR M, MARION T J. Generative AI, innovation, and trust[J]. The Journal of Applied Behavioral Science,2024(4):613-622.
[26]刁生富,曹兰兰,吴选红. 后真相时代深度伪造技术的信任问题与信任重构[J]. 河南师范大学学报(哲学社会科学版),2023(6):80-85.
[27]陈嘉鑫,董紫来. 信息生态理论视域下生成式人工智能虚假信息风险的防范化解[J/OL]. 情报理论与实践,
https://link.cnki.net/urlid/11.1762.G3.20260302.1428.004.
[28]戴元初. 生成式人工智能驱动下的网络生态治理范式转型[J]. 国家治理,2026(4):34-37.
[29]李瑞奇,李高磊. 生成式人工智能的意识形态风险:出场、样态与治理[J]. 当代世界与社会主义,2025(2):149-156.
[30]于润芝. 人工智能自主决策介入结果发生的因果流程的刑事归责[J]. 苏州大学学报(法学版),2024(4):27-39.
[31]王体瑶. 全国首例“AI幻觉”案宣判,要审视的不只是出错的代码[N]. 中国科学报,2026-01-30(3).
[32]康伟,赵鹏飞,陈国语. 超越工具之见:生成式人工智能风险生成、影响与治理[J]. 行政论坛,2026(1):140-148.
[33]张楠,闫涛,张腾. 如何实现“黑箱”下的算法治理?——平台算法推荐监管的测量实验与策略分析[J]. 公共行政评论,2024(1):25-44.
[34]王明,陈建兵. 生成式人工智能的责任机制:溯源、挑战与构建路径[J]. 北京工业大学学报(社会科学版),2025(3):111-122.
[35]陈京春,杨历霖.生成式人工智能的意识形态风险及其法律因应[J].西安交通大学学报(社会科学版),2025(4):158-168.
[36]徐伟.论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例[J].法律科学(西北政法大学学报),2023(4):69-80.
[37]宋建立.推荐算法运用下的平台义务与责任[J].法律适用,2024(7):13-23.
[38]EUROPEAN UNION. Artificial Intelligence Act (Regulation (EU) 2024/1689) [EB/OL].(2024-06-13)[2026-02-02]. https://artificialintelligenceact.eu/ai-act-explorer/.
[39]曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J].电子政务,2022(9):63-72.
本文作者:

声明:
本文由德恒律师事务所律师原创,仅代表作者本人观点,不得视为德恒律师事务所或其律师出具的正式法律意见或建议。如需转载或引用本文的任何内容,请注明出处。