首页 行业资讯 成功案例 常见问题 登录 免费注册

生成式人工智能服务管理暂行办法

生成式人工智能服务管理暂行办法:开启AI治理新篇章

随着ChatGPT等应用的全球性爆发,生成式人工智能技术以前所未有的速度渗透到社会生产与生活的各个角落。这股技术浪潮在带来巨大创新潜能与效率提升的同时,也引发了关于数据安全、算法偏见、虚假信息传播以及知识产权等一系列深刻的治理挑战。在此背景下,国家互联网信息办公室联合国家发展和改革委员会、教育部、科技部、工业和信息化部、公安部、国家广播电视总局等七部门,于2023年7月正式公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。这一法规的出台,标志着我国在人工智能,特别是生成式AI领域的监管框架迈出了关键一步,旨在为技术的健康发展划清“红线”与“跑道”。

《办法》的核心目标:发展与安全并重

《办法》开宗明义,其首要目标是“促进生成式人工智能健康发展和规范应用”。这清晰地传递出“鼓励创新”与“规范发展”并重的监管思路。它并非意在扼杀技术活力,而是通过建立明确的规则,为技术创新划定安全边界,防范潜在风险,从而营造一个更可信、更可控的发展环境。《办法》体现了典型的“沙盒监管”思维,即在发展初期设定基本规则,预留创新空间,这有助于中国在全球AI竞赛中保持竞争力,同时确保技术发展行稳致远。

明确责任主体:服务提供者的义务清单

《办法》将监管焦点明确指向了“生成式人工智能服务提供者”,即利用生成式AI技术向境内公众提供服务的组织或个人。它为服务提供者设定了一系列核心义务,构成了其运营的“责任清单”。首先,在数据来源层面,要求训练数据具有合法性,不得侵犯知识产权,并需采取有效措施提升数据的准确性、客观性与多样性。其次,在模型训练与算法设计上,要求采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。此外,服务提供者需对生成内容负责,建立内容过滤与标识机制,对图片、视频等生成内容进行显著标识。最后,建立用户投诉接收处理机制,并对违法内容及时采取处置措施。这些规定将责任压实到技术开发与运营端,是从源头进行风险管控的关键。

聚焦内容安全与用户权益保护

内容安全是《办法》规制的重中之重。其明确列出了生成内容不得出现的“负面清单”,包括颠覆国家政权、恐怖主义、民族仇恨、暴力淫秽、虚假有害信息以及可能扰乱经济与社会秩序的内容。这为AI生成内容划定了不可逾越的法律与道德底线。在用户权益方面,《办法》强调了对用户输入信息和使用记录的保护,要求不得非法收集、留存能够推断用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。这些条款直指用户隐私和数据安全的核心关切,旨在防止技术滥用对个人权益造成侵害。

分类分级监管与创新发展空间

值得注意的是,《办法》体现了分类分级、精准监管的智慧。其对“生成式人工智能服务”的定义主要面向“公众”,意味着面向特定群体、企业内部研发使用的工具可能适用更灵活的管理要求。同时,《办法》提出国家支持人工智能基础技术与创新的发展,鼓励安全可信的芯片、工具、算力平台等建设,并为创新应用预留了试错空间。这种差异化的监管策略,既守住了面向公众服务的风险底线,又为前沿技术研发和产业应用探索提供了必要的弹性,有利于形成多元、活跃的技术创新生态。

对行业生态的深远影响与未来展望

《生成式人工智能服务管理暂行办法》的施行,正在深刻重塑中国AI行业的生态格局。对于企业而言,合规成本上升,数据治理、算法审计、内容审核将成为标准配置,技术伦理从可选项变为必答题。这可能会加速市场洗牌,推动资源向技术实力强、合规体系完善的优势企业集中。从长远看,明确的规则将降低市场的不确定性,增强投资者和用户信心,引导产业从野蛮生长走向高质量发展。该《办法》是全球范围内首批针对生成式AI的综合性监管法规之一,展现了中国在数字治理领域的积极探索。随着技术迭代与应用的深化,相关监管规则也必将动态演进,在激发创新活力与守护安全底线之间寻求更优的平衡,为人工智能赋能经济社会可持续发展保驾护航。

负责信息管理

客服微信

13086802116

客服微信