随着生成式人工智能技术的商业化加速,大模型备案已成为企业合法开展业务的 “必修课”。在众多备案驳回情形中,“使用未备案第三方模型” 占据了约 15% 的比例,成为仅次于材料撰写问题的第二大驳回原因。这类驳回不仅延误产品上线周期,更可能引发合规处罚风险。本文结合典型案例、政策依据及行业实践,深度解析该类驳回的核心症结与应对策略。
某科技公司基于境外开源大模型进行二次微调后,面向国内用户推出智能文案生成工具,并提交大模型备案申请。审核过程中发现,其使用的境外基础模型未完成境内备案,且企业无法提供该模型的合法授权文件及安全评估报告。同时,该公司在备案材料中未明确标注模型来源及备案状态,违反了备案信息真实性要求。最终,属地网信办以 “使用未备案第三方基础模型” 及 “材料信息不完整” 为由,作出直接驳回决定,要求企业更换合规基础模型后重新申请。
某互联网企业通过 API 调用某已备案大模型的生成能力,开发了面向公众的智能客服产品。企业误将该产品按 “大模型备案” 流程提交申请,未意识到仅调用第三方已备案模型且无自主训练环节的产品应办理 “大模型登记”。更关键的是,其调用的第三方模型虽已备案,但企业未在登记材料中提交模型授权协议及安全责任划分文件,被认定为 “供应链安全管控缺失”,申请最终被驳回。
某 AI 创业公司基于某开源模型进行深度优化,新增行业专属功能后推向市场。企业认为原开源模型已通过备案,自身无需再次备案,仅提交了算法变更说明。审核部门指出,深度微调后的模型已形成新的技术架构和服务能力,属于需单独备案的情形,且原开源模型的备案信息不能覆盖二次开发后的产品。同时,企业无法提供微调过程中使用的新增语料合规证明,最终因 “未履行备案义务” 及 “数据合规缺陷” 双重问题被驳回。
《生成式人工智能服务管理暂行办法》第七条明确规定,生成式人工智能服务提供者应 “使用具有合法来源的数据和基础模型”。第十七条进一步要求,提供具有舆论属性或社会动员能力的生成式 AI 服务,需履行算法备案义务。这意味着第三方基础模型作为服务的核心组件,其备案状态直接关系到整体服务的合规性。
监管体系对不同类型的 AI 服务实行差异化管理:对于自主研发或深度微调的模型,需履行完整的 “大模型备案” 程序,提交包含 160 余项技术指标的《算法安全自评估报告》;对于仅调用第三方已备案模型的服务,需办理 “大模型登记” 手续,提交简化版材料及模型授权证明。若企业混淆二者边界,或使用未备案模型开展服务,均会触发审核驳回机制。
近年来监管部门日益重视 AI 供应链安全,要求企业对基础模型、芯片、算力等关键环节进行合规审查。使用未备案第三方模型,会被认定为供应链安全管控失效,不仅影响备案进程,还可能根据《网络安全法》等法规面临警告、限期整改甚至暂停服务的处罚。
企业应建立第三方模型准入审核机制,优先选择国家网信办公示的已备案模型清单中的产品,并要求供应商提供完整的备案证明、授权协议及安全评估报告。对于开源模型,需严格核查其开源许可协议,确认商业使用权限,并补充完成境内备案手续。涉及境外模型的,需按规定完成安全评估及备案,严禁未经合规审查直接调用。
企业需根据服务性质精准判断合规路径:自主研发或深度微调且面向公众提供服务的,必须完成大模型备案,准备包括语料合规证明、生成内容安全机制等在内的完整材料;仅调用第三方已备案模型且无自主训练环节的,应办理大模型登记,重点说明模型调用方式、安全管控措施及用户数据保护方案。特殊行业如医疗、金融等,需遵守 “暂不开放备案、仅允许登记接入” 的监管要求,避免违规提交申请。
在备案材料准备方面,需确保《算法安全自评估报告》覆盖模型架构、数据处理、安全措施等核心内容,避免出现逻辑矛盾或信息缺失。建立模型动态管理机制,对重大功能更新及时履行变更备案手续,每月开展安全测试并留存记录。同时完善用户数据管理,明确数据使用范围,提供便捷的 “关闭数据训练” 功能,满足透明度要求。
针对中小企业普遍存在的材料撰写能力不足问题,可寻求第三方合规服务机构的支持,精准把握地方监管要求差异。在提交申请前,可模拟监管测试流程,对模型生成内容的合规性、安全拦截机制的有效性进行预评估,提前排查供应链合规风险,降低驳回概率。