尽管《人工智能生成合成内容标识办法》早已明确要求用户发布生成内容应主动声明并标识,但现实运行情况并不理想。近日,多家媒体调查发现,隐去显式标识后,部分平台依然无法识别AI生成痕迹,“应标尽标”的要求在落地环节遭遇梗阻,AI伪造的短视频甚至成为私域流量变现的收割机。
“应标尽标”落空,直接原因在于技术与规则之间尚未形成有效闭环。部分平台缺乏稳定可靠的识别能力,算法检测对经过剪辑、拼接的内容识别率不高,一些生成内容经过多次转码后几乎难以溯源。平台审核机制更多依赖被动识别和用户举报,缺乏前置筛查能力,导致违规内容在传播后才被处理,治理节奏明显滞后,导致规则在执行端出现“看得见却管不住”的尴尬局面。
利益驱动进一步加剧了规避行为。部分内容生产者借助AI工具批量生成吸睛视频,通过夸张叙事和虚假信息吸引流量,再引导至私域变现。在这一生产模式下,标识缺失会增强内容的“真实感”,从而提升转化效率,这使得一些主体主动规避标识要求,甚至形成“去标识”的灰色操作链条。
治理困境还体现在责任划分不清。现行制度强调用户标识义务,但对平台的技术责任和审核责任规定细化不足。平台既是内容分发者,也是技术提供方,应当承担更高强度的识别与管理职责。如果平台在关键环节缺位,仅靠内容发布者自律,显然难以形成有效约束,制度执行就难免乏力。
综上所述,破局AI短视频治理困境,需要在制度、技术和责任三个层面同步发力。监管部门需要推动统一的技术标准,完善水印嵌入、指纹识别等底层能力建设,提高生成内容的可识别性和可追溯性。平台需要强化前端审核和过程监测,提升对多次处理内容的识别能力,建立更严格的违规惩戒机制,压缩灰色空间。制度设计需要进一步明确平台主体责任,将“应标尽标”转化为可核查、可追责的具体要求。行业自律组织则应积极参与制定细化规范,推动形成共识与标准。
AI内容标识制度的关键不在“有没有”,而在“能不能用、管不管用”。在AI内容生产已经成为常态,生产内容逼真程度持续提高的当下,治理体系必须同步强化。只有让规则真正嵌入平台运行逻辑,标识成为稳定、可信、不可绕过的“数字凭证”,标识制度才能发挥应有作用,AI短视频传播秩序才能真正回到可辨、可控的正确轨道上来。
编辑 刘彦 审读 李建国 二审 党毅浩 三审 上官文复
(作者:深圳特区报&读特评论员 赵强)