我爱免费 发表于 2025-7-4 21:38

AI安全预测:中国人工智能监管新规

作者:微信文章





一、监管框架与生效时间

中国已构建全球领先的AI监管体系,核心法规包括:
《算法推荐管理规定》

生效时间:2023年3月1日

焦点:规范算法推荐技术(如个性化推送、内容生成等)。
《深度合成管理规定》

生效时间:2023年1月10日

焦点:深度伪造、语音/图像合成等技术。
《生成式AI服务管理暂行办法》

生效时间:2023年8月15日

焦点:ChatGPT类文本/图像/音视频生成服务。
《科技伦理审查办法(试行)(草案)》

征求意见截至:2023年5月3日(尚未生效)

焦点:高风险AI研发的伦理审查。


二、适用范围

技术覆盖

算法推荐技术:生成合成、个性化推送、内容调度决策等。

深度合成技术:人脸/语音编辑、三维重建等(如Deepfake)。

生成式AI:广义内容生成模型(文本、图像、音视频)。

伦理高风险活动:舆论引导型算法研发。
实体覆盖

服务提供者(如B2C应用)、技术支持者(如API提供商)、使用者、网络平台(如应用商店)。

境外实体:若在中国境内提供服务,同样受约束。
地域范围

仅限“在中国境内向公众提供服务”的行为,研发未落地服务暂不监管。


三、核心合规义务

前置义务(上线前)

算法备案

适用条件:服务具“舆论属性或社会动员能力”(范围极广,几乎涵盖所有互联网服务)。

时限:上线后10个工作日内向网信办备案。

内容:算法类型、自评估报告等。
安全评估

触发条件:新服务上线、用户规模激增、安全风险事件等。

要求:自行或委托第三方评估,提交地市级网信和公安部门。
伦理审查(草案)

高风险AI研发需成立伦理委员会,接受主管部门双重审查。
运营期义务

数据与训练

训练数据需合法来源,保障真实性/多样性;标注人员需培训。

配合监管说明数据来源及规模。
内容管理

审核机制:屏蔽违法信息,标识AI生成内容(如标注“深度合成”)。

价值观要求:禁止危害国家安全、传播虚假新闻、歧视性内容。

准确性:生成式AI需提高内容可靠性(但非100%保证)。
用户权利

实名认证(深度合成)、关闭算法推荐选项、防沉迷设计(未成年人)。

禁止大数据杀熟(价格歧视)。
透明度

公示算法原理、服务协议;披露适用人群/场景。
特殊保护

未成年人防沉迷、老年人防诈骗、劳动者权益保障。


四、处罚机制

算法推荐规定:拒不整改者处1万-10万元罚款,暂停服务。

深度合成规定:依其他法律法规处罚(如网安法),可责令暂停服务。

生成式AI办法:衔接《网络安全法》《数据安全法》处罚,境外服务可被技术阻断。

伦理审查(草案):暂无独立罚则,依其他法规处理。


五、与欧盟监管对比

立法进度

中国已落地执行,欧盟AI法案预计2026年生效。
监管逻辑

中国:按技术类型垂直监管(生成合成/推荐算法分治)。

欧盟:按风险分级(禁止/高风险/有限风险)。
处罚力度

欧盟:最高全球营收6%或3000万欧元(更严厉)。

中国:罚款额度较低,但强调前置审查(备案/评估)。
深度伪造治理

中国义务主体更广(含技术支持者、使用者),欧盟聚焦平台责任。


六、企业影响与建议

挑战

“舆论属性”范围模糊,可能需普遍备案。

生成内容准确性要求高(需技术措施保障)。

跨境服务需应对中国监管(如API提供商)。
建议

尽快自查算法类型及服务属性,评估备案必要性。

建立数据合规、内容审核、伦理审查体系。

关注立法动态(如《人工智能法》草案已列入国务院计划)。


总结:中国AI监管以“安全可控”为核心,通过前置备案/评估、严格内容管理、全方位责任主体覆盖,构建了全球最严密的监管框架之一。企业需重点应对算法透明度、数据合规、伦理风险三大挑战。



页: [1]
查看完整版本: AI安全预测:中国人工智能监管新规