生成式人工智能(AI)的算法备案是中国为规范 AI 技术应用、防范安全风险而建立的一项监管制度。该制度要求向境内公众提供具有舆论属性或社会动员能力的生成式 AI 服务的主体,需按照《生成式人工智能服务管理暂行办法》(以下简称《办法》)及相关配套标准,履行算法安全评估、材料申报、公示等程序,以确保技术可控、内容合规。
法律基础
备案制度的核心依据是 2023 年 8 月 15 日施行的《生成式人工智能服务管理暂行办法》。该办法明确要求,提供具有舆论属性或社会动员能力的生成式 AI 服务(如聊天机器人、AI 写作工具、图像生成平台等)需履行备案义务。
- 舆论属性:指服务可能影响公众认知或引发社会讨论,例如新闻生成、社交媒体内容推荐。
- 社会动员能力:指服务可能组织或引导公众行为,例如活动策划、公益倡议工具。
豁免情形
- 非公众服务:企业内部研发、未向公众开放的 AI 模型无需备案。
- 低风险场景:如单纯的数据处理工具、不涉及内容生成的技术研发。
核心材料
- 安全自评估报告:需覆盖语料安全、模型安全、生成内容合规性等 31 项安全风险,包括人工抽检、关键词过滤、分类模型检测等评估方法。
- 测试题集:需包含 2000 题以上的生成内容测试题库(覆盖 31 种风险)和 500 题以上的拒答测试题库(覆盖 17 种高风险场景)。
- 其他材料:模型服务协议、语料标注规则、关键词拦截列表、供应链安全评估(如芯片国产化适配情况)。
材料差异
- 多模态产品:需提交多份测试题集(如文本生成和图像生成分别准备)。
- 地区要求:部分省份(如浙江、河北)要求纸质材料扫描,北京、上海则接受电子提交。
属地管理
- 备案主体需向注册地省级网信办提交材料,例如浙江省企业向浙江省委网信办申报。
- 国家网信办负责全国统筹,地方网信办协同审核。
审核流程
- 初审:材料完整性审查(约 7 个工作日)。
- 技术评估:对模型安全性、内容合规性进行测试(约 30-60 个工作日)。
- 公示:通过审核的企业信息在 “网信办” 公众号或官网公示。
备案编号
企业需在产品显著位置(如官网首页、APP 启动页)标注备案号,例如 “京 AI 备 XXXX 号”。
持续监管
- 定期抽查:监管部门每年对备案企业进行 1-2 次抽检,重点核查生成内容合规性、数据安全措施。
- 动态更新:模型迭代或服务范围扩大需重新备案。
内容安全
- 防止生成虚假信息、暴力色情、民族歧视等违法内容。
- 要求企业建立关键词拦截库(至少 10000 个关键词),并每周更新。
数据合规
- 训练数据需来源合法,涉及个人信息需取得用户同意。
- 数据标注需制定明确规则,标注人员需接受法律培训。
技术可控
- 模型需具备可解释性,例如公开算法原理、训练数据来源摘要。
- 硬件供应链需评估安全风险,鼓励使用国产芯片和开源框架。
行政处罚
- 警告、罚款(1 万 - 10 万元)、暂停服务。
- 案例:重庆 “灵象智问 AI” 因未备案被关停,运营主体被约谈。
民事责任
- 若生成内容导致侵权(如肖像权、名誉权),企业需承担赔偿责任。
- 案例:某 AI 写作平台因内容审核不严,被责令暂停服务 15 日。
刑事风险
- 涉及国家安全、恐怖主义等严重违法,可能追究刑事责任。
企业成本
- 时间成本:备案周期通常为 3-6 个月,复杂模型可能延长至 1 年。
- 经济成本:安全评估、法律咨询等费用约 50 万 - 200 万元,中小型企业压力较大。
区域分布
- 截至 2024 年底,全国 302 款生成式 AI 服务完成备案,80% 集中在北京、上海、广东。
- 典型案例:百度 “文心一言”、阿里 “通义千问”、人民中科 “白泽” 大模型均已通过备案。
国际对比
- 与欧盟《人工智能法案》的 “高风险 AI” 强制认证类似,但中国更强调属地管理和动态监管。
提前规划
- 上线前 6 个月启动备案准备,预留充足时间处理材料和技术整改。
技术合规
- 建立内容过滤系统,确保生成内容抽样合格率≥90%。
- 定期更新测试题库,覆盖最新安全风险。
法律支持
- 聘请专业律师审核数据来源、用户协议,避免知识产权纠纷。
动态跟踪
- 关注地方网信办政策更新,例如湖南省将备案周期压缩至 60 个工作日。