摘要
一、专项行动重点及合规启示
(一)专项行动概述
“清朗・整治AI技术滥用”专项行动监管重点以备案制为抓手,覆盖数据、内容、场景的全链条管控。第一阶段以技术源头治理为核心进行规范管控,包括下架未经备案手续上线的或者存在重大合规的AI应用软件,完善人工智能生成内容的标注要求,同时指导网络平台提升对合成内容的识别能力。第二阶段着手开展AI应用过程的行为治理,重点打击AI制作传播谣言与不实信息治理、AI色情低俗内容清理等六类典型AI违法应用行为。
监管将依据《网络安全法》《数据安全法》《生成式人工智能服务管理暂行办法》和结合AI违规行为的情节严重程度采取以下几大处置方式,对企业而言,在合规成本、市场信誉、业务运营等多个方面均会产生显著影响。
轻微违规:警告、通报批评、限期改正(如未及时更新标识规则)
涉违法犯罪:治安管理处罚(如售卖AI伪造工具)刑事责任(如利用 AI诈骗)
严重违规:责令暂停提供服务(如未备案上线大型、传播AI谣言造成影响)
(二)各地网信部门重要举措
截止于2025年06月20日,各地网信部门已采取的重要整治举措:
(1)北京网信办:开设AI技术滥用治理举报渠道,形成“用户标记—平台核查—联合处置”工作模式;
(2)上海网信办:推动标识要求落地示范,组织法规宣贯和专题交流;
(3)浙江网信办:加大对属地AI应用和网站平台的督导力度,拦截超2,550万条违规违法信息;
(4)江苏网信办:联合多部门排查AI风险域名;
(5)天津网信办:采用“人工+技术”方式开展大模型安全监测,通报4批次14个风险问题。
(三)合规启示
本次的专项行动整治情况为平台企业及 AI服务提供者带来多方面启示:
源头管控
落实AI产品准入前的备案/登记手续:平台企业及 AI服务提供者需规范AI产品与服务全流程合规,通过整治未备案上线、违法功能提供、违规教程售卖等问题,遏制AI技术滥用的源头风险,确保AI产品及相关服务在法律与伦理框架内运行;重视用户反馈渠道建设,建立高效的问题核查与处置机制,依法积极响应和处置投诉或举报事项,保障用户权益。
内容治理
通过技术及人工方式部署AI输入及输出端的内容安全管理:平台企业及AI服务提供者需强化数据与内容管理规范性,针对侵权数据使用、违规语料留存、内容审核缺失等问题,推动AI训练数据合法合规,保障生成内容的合规和安全,维护数据安全与网络内容生态;
风险防控
全面落实长效化的AI安全管控机制,包括建立制度体系和部署管理措施和技术工具,常态化有效识别和处置风险,重点保障用户权益。平台企业及AI服务提供者应当建立健全AI安全管理制度体系,明确管理要求,有效指导AI安全管理举措的有序进行,采取安全及技术措施落实制度规范要求,具体包括落实内容标识要求、整治医疗、金融、未成年人保护等特殊关键场景的安全隐患,防范AI技术滥用风险,守护公众权益与社会秩序;应强化对自身应用及平台的日常督导检查,结合人工与技术手段加强安全监测,及时发现并违规行为并进行技术处理,例如AI服务输入和输出的违规拦截与处理。
二、助力企业破解AI合规难题,抢占发展先机
在当前监管态势下,平台企业及AI服务提供者重视合规经营刻不容缓。平台企业及AI服务提供者开展AI产品合规举措过程,需及时完成大模型备案或登记程序并通过常态化的合规管理和技术措施确保AI产品的运营合规。
其中企业应优先依法落实AI服务上线前的备案或登记手续,以大模型备案为例,其需经企业初审→省网信办审核→中央网信办审核流程。整个过程时间耗时长,需准备的合规配套工作较为复杂,既需落实和部署大模型安全的技术工具,也需开展相应的合规制度体系的搭建、合规管理措施的落实和内外部法律文件准备,确保安全及合规风险可控。
基于业务的稳健运营需求,平台企业及AI服务提供者既需兼顾满足现行有效法律法规的合规要求,但又渴望快速通过备案或登记流程快速上线以抢占市场先机的情况下,将面临一定的合规压力。因为在进行备案、登记工作涉及的材料繁杂和复杂流程,需配备具备一定能理解现行法规要求的合规专业知识背景的岗位人员,同时还需掌握大模型安全评估涉及专业技术检测工具与实操能力,同时还需对内部多个部门进行协同工作,才能较为高效完成大模型的备案或登记工作,极易因为人员、工具或流程等因素,导致大模型备案或登记手续的拖延等项目不顺畅的情形。
基于此,平台企业及 AI 服务提供者需依托可信赖的合规发展科技伙伴,凭借其合规领域的专业积淀与技术优势、专业检测工具与最佳实操经验等,弥补一站式解决材料准备复杂、跨领域人才适配不足、政策理解不精准等短处,助力企业高效推进大模型的合规上线工作。
安证合规集团为企业提供全方位的支持。集团拥有优秀律师团队与网络安全合规人才,帮助企业解读相关政策法规的具体要求,提前预警潜在合规风险,制定风险应对预案,助力企业在合规的轨道上稳健前行,从容应对监管挑战,把握AI技术发展的良好机遇。