AI安全预测:中国人工智能监管新规
作者:微信文章一、监管框架与生效时间
中国已构建全球领先的AI监管体系,核心法规包括:
《算法推荐管理规定》
生效时间:2023年3月1日
焦点:规范算法推荐技术(如个性化推送、内容生成等)。
《深度合成管理规定》
生效时间:2023年1月10日
焦点:深度伪造、语音/图像合成等技术。
《生成式AI服务管理暂行办法》
生效时间:2023年8月15日
焦点:ChatGPT类文本/图像/音视频生成服务。
《科技伦理审查办法(试行)(草案)》
征求意见截至:2023年5月3日(尚未生效)
焦点:高风险AI研发的伦理审查。
二、适用范围
技术覆盖
算法推荐技术:生成合成、个性化推送、内容调度决策等。
深度合成技术:人脸/语音编辑、三维重建等(如Deepfake)。
生成式AI:广义内容生成模型(文本、图像、音视频)。
伦理高风险活动:舆论引导型算法研发。
实体覆盖
服务提供者(如B2C应用)、技术支持者(如API提供商)、使用者、网络平台(如应用商店)。
境外实体:若在中国境内提供服务,同样受约束。
地域范围
仅限“在中国境内向公众提供服务”的行为,研发未落地服务暂不监管。
三、核心合规义务
前置义务(上线前)
算法备案
适用条件:服务具“舆论属性或社会动员能力”(范围极广,几乎涵盖所有互联网服务)。
时限:上线后10个工作日内向网信办备案。
内容:算法类型、自评估报告等。
安全评估
触发条件:新服务上线、用户规模激增、安全风险事件等。
要求:自行或委托第三方评估,提交地市级网信和公安部门。
伦理审查(草案)
高风险AI研发需成立伦理委员会,接受主管部门双重审查。
运营期义务
数据与训练
训练数据需合法来源,保障真实性/多样性;标注人员需培训。
配合监管说明数据来源及规模。
内容管理
审核机制:屏蔽违法信息,标识AI生成内容(如标注“深度合成”)。
价值观要求:禁止危害国家安全、传播虚假新闻、歧视性内容。
准确性:生成式AI需提高内容可靠性(但非100%保证)。
用户权利
实名认证(深度合成)、关闭算法推荐选项、防沉迷设计(未成年人)。
禁止大数据杀熟(价格歧视)。
透明度
公示算法原理、服务协议;披露适用人群/场景。
特殊保护
未成年人防沉迷、老年人防诈骗、劳动者权益保障。
四、处罚机制
算法推荐规定:拒不整改者处1万-10万元罚款,暂停服务。
深度合成规定:依其他法律法规处罚(如网安法),可责令暂停服务。
生成式AI办法:衔接《网络安全法》《数据安全法》处罚,境外服务可被技术阻断。
伦理审查(草案):暂无独立罚则,依其他法规处理。
五、与欧盟监管对比
立法进度
中国已落地执行,欧盟AI法案预计2026年生效。
监管逻辑
中国:按技术类型垂直监管(生成合成/推荐算法分治)。
欧盟:按风险分级(禁止/高风险/有限风险)。
处罚力度
欧盟:最高全球营收6%或3000万欧元(更严厉)。
中国:罚款额度较低,但强调前置审查(备案/评估)。
深度伪造治理
中国义务主体更广(含技术支持者、使用者),欧盟聚焦平台责任。
六、企业影响与建议
挑战
“舆论属性”范围模糊,可能需普遍备案。
生成内容准确性要求高(需技术措施保障)。
跨境服务需应对中国监管(如API提供商)。
建议
尽快自查算法类型及服务属性,评估备案必要性。
建立数据合规、内容审核、伦理审查体系。
关注立法动态(如《人工智能法》草案已列入国务院计划)。
总结:中国AI监管以“安全可控”为核心,通过前置备案/评估、严格内容管理、全方位责任主体覆盖,构建了全球最严密的监管框架之一。企业需重点应对算法透明度、数据合规、伦理风险三大挑战。
页:
[1]