AI伪造,红线划定
政府和相关机构应加强对AI技术的监管力度,制定严格的技术标准和规范,防止其被用于恶意造假和商业化的认知操控。
9月开始,所有备受原创内容的AI侵权之扰、深受AI造假资讯困扰之苦的群体,迎来了福音。
9月1日起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》正式施行。这一新规的关键变化在于:从国家层面明确要求,所有AI生成的文字、图片、视频等内容都要“亮明身份”。
此次的“标识办法”界定,所谓“人工智能生成合成内容”,是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。而所要求的“标识”则包括显式标识和隐式标识。办法要求,平台在服务提供者的内容上架或上线时,有责任进行审核,核验生成合成内容标识。一旦发现未标识或疑似生成内容,则须添加风险提示,从而在传播端阻断虚假信息扩散。
这一“标识办法”的出台,实现了同《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规的充分衔接与补充,将为“AI创作”(特别是某些所谓“二次创作”)画出一条明规亮矩、定分止争的红线。