AI热点追踪|"清朗·整治AI技术滥用"专项行动解读
作者:微信文章点击关注谷围传媒,
一个专注于媒介技术与社会发展、科学传播的平台
人工智能技术的迅猛发展正以前所未有的速度重塑着我们的社会生活,从智能创作到医疗诊断,从金融服务到教育辅助,AI的触角已延伸至各个领域。然而,技术的双刃剑效应也随之凸显——深度伪造、AI造谣、隐私侵犯等乱象频发,不仅损害公民权益,更威胁网络生态健康。
清朗行动开展
为及早规范好AI相关服务和应用,2025年4月,中央网信办宣布将部署开展"清朗·整治AI技术滥用"专项行动,通过两个阶段的工作推进,聚焦不同类型的突出问题,应用从源头到应用、从技术到内容的系统性治理思路,对AI技术滥用乱象进行集中整治,从而维护清朗网络空间,保障公民合法权益,规范AI服务和应用,促进AI行业健康有序发展。正如官方强调的,这是一场既关乎当下问题解决,又着眼于长远制度建设的综合治理行动。此次专项治理工作将分步骤推进实施。在初始阶段,重点从技术源头进行规范管控,包括下架不合规的AI应用软件,完善人工智能生成内容的标注要求,同时指导网络平台提升对合成内容的识别能力。进入第二阶段后,工作重心将转向打击利用智能技术实施的违法违规行为,特别是针对编造传播虚假信息、制作淫秽内容、仿冒他人身份以及操纵网络舆论等乱象,将全面清除有害信息,并对涉事账号、内容机构及网络平台采取封禁、处罚等措施。
阶段一:加强AI技术源头治理,提升网络平台能力
清朗行动第一阶段的重点放在源头治理上,意在从AI技术开发的起点和平台管理的基础能力入手,构建起一套覆盖产品设计、数据管理、安全保障、内容标识和行业应用的全链条规范体系。面对AI发展带来的伦理、安全和法律风险,这一阶段的整治举措不仅体现了政策的前瞻性与系统性,也为行业设立了清晰的红线。(一)剑指违规AI产品,划出伦理与法律底线违规AI产品的整治被置于首要位置,包括但不限于以下几类典型问题:其一,未履行备案或登记程序,绕过监管要求、削弱行业可控性的生成式AI服务;其二,功能设计违背伦理法律原则,如一键脱衣等低俗、违法应用,严重侵犯人格尊严;其三,未经授权采集和克隆人脸、声音等生物特征信息,触碰个人隐私红线。这些问题多集中在AI应用的灰色地带,直接挑战公众安全感和社会道德共识。因此,清朗行动将以极具针对性的方式加强强化市场准入与功能合规审查,开展重点整治。(二)治理违规教程与营销炒作,堵住传播“暗渠”针对违规AI产品的传播链条,清朗行动计划同步打击“传教卖货”式的二次扩散现象,重点整治网络上传授换脸、变声等技术的教程内容,以及违规语音合成器、换脸工具等商品的销售和营销推广。通过封堵渠道源头和压缩灰色市场空间,遏制了违规产品借助网络传播蔓延的势头,提升了平台在信息审核与商品管理上的防控能力。(三)训练语料治理补齐短板,推动数据合规建设数据作为AI模型训练的地基,其合法性和规范性直接决定了AI的输出质量。清朗行动中强调企业不得使用侵犯知识产权、侵犯隐私的数据,也不得用网络爬取的虚假、低质内容充当语料。同时要求建立语料管理机制,定期清理不合规材料。头部ai相关企业需要围绕数据全生命周期构建安全体系,从源头采集到模型训练再到输出使用,均实施分层管控。此举不仅有助于解决行业普遍存在的数据偏见问题,也推动数据治理成为AI发展的标配能力。(四)筑牢平台安全机制,压实主体责任AI产品的落地应用依赖平台的审核、识别与响应能力。此次行动明确提出,平台应建立与自身业务规模相匹配的内容审核、安全自评、意图识别等机制,健全违规账号管理流程,并对通过API接口接入的AI服务加强源头把控。此前部分平台存在接了什么AI服务自己都不清楚的情况,造成信息泄露和内容失控的隐患。在监管督导下,相关平台将被倒逼建立更严密的风险防火墙,将“可控、可信”从口号落地为能力。(五)推动AI内容显著标识,防范公众误导在AI生成内容日益泛滥的背景下,区分人与机成为治理新课题。行动中明确要求AI生成内容必须显式或隐式标注,并要求平台具备甄别能力,防止虚假信息扰乱视听。此前,国家网信办也已发布了《人工智能生成合成内容标识办法(征求意见稿)》,对AI生成内容的标识行为作出了明确规范。不仅有助于提升公众辨识AI内容的能力,也在可预见的未来显著助力优化舆论生态。(六)严控重点领域应用,守住公众利益底线在医疗、金融、教育等高敏感领域,部分AI应用缺乏安全审核机制,出现AI开处方、诱导投资、虚假教学等乱象。清朗行动中明确要求,相关AI产品需设立专项风控方案与审核措施,防止AI误导用户或扰乱市场秩序。意在通过行业定向治理,为重点领域应用提供了安全指引,压缩AI越界行为的生存空间。截至2025年6月,第一阶段工作已成效初显,大量违规AI产品、信息与相关平台账号得到处理,各地网信部门也纷纷创新治理机制,展现出了清朗行动的较好执行力。
阶段二:打击违法违规行为,全面清除有害信息
在完成对技术源头的规范治理之后,“清朗行动”的第二阶段,意在将整治焦点从建规立制转向落地清障,围绕生成式AI在内容创作、传播、互动中的广泛嵌入过程,重拳出击AI应用端的各类乱象。具体而言,第二阶段将瞄准那些与信息失真、伦理失范、内容污染密切相关的高风险内容与行为,着力优化新技术滥用所衍生的生态问题。(一)聚焦AI造谣乱象,打击虚假信息传播当前,AI捏造不实内容的能力已远超传统谣言制造方式,凭空编造公共政策、社会事件的现象也是屡见不鲜。更为隐蔽的是半真半假型内容,常以真实元素掺杂虚构细节,增加误导性与传播力。此外,一些财经、医疗等专业领域的伪科学炒作和AI占卜、AI算命等数字迷信传播,更是直击公众认知安全的薄弱环节。根据南都大数据研究院发布的数据,2024年热度较高的AI风险案例中,有超过五分之一与AI造谣直接相关,一些工具甚至已能一键生成带有时间、地点、人物等要素的仿真新闻稿,极具迷惑性。此类行为不仅冲击舆论场秩序,更在一定程度上侵蚀公众对真实世界的判断力,急需得到处理与整治。(二)清除色情低俗内容,守护内容生态边界AI被用于生成色情与软色情内容的问题同样严重。无论是通过AI脱衣、AI绘图制作合成的不雅图片和视频,还是通过文本生成小黄文、性暗示段子等内容,都已突破了道德与法律的底线。同时,血腥、暴力、恐怖等视觉刺激内容的泛滥,也对平台内容安全机制构成挑战。清朗行动明确提出:平台必须对生成式内容加大审核力度,技术层面需提前识别敏感指令与结果输出,防止低质内容披上高科技外衣再次流入大众视野。(三)打击深度伪造与AI水军,遏制灰产链条蔓延AI换脸、声音克隆等深度伪造技术日益被不法分子利用,用于诈骗、假冒他人牟利。与此同时,AI水军产业链也悄然兴起,通过养号系统、内容农场批量生成同质化低质内容,扰乱正常信息分发机制。部分MCN机构依托AI工具,日均生产虚假内容超千篇,日均非法收入超过万元。不仅破坏了平台生态,更使普通用户难以分辨信息真伪。对此,需要启动对抗机制,模拟具体场景,训练模型识别能力,有效提升对深度伪造与水军内容的识别与拦截水平。(四)强化未成年人保护,筑牢“底线意识”防线未成年人保护是本轮整治行动中始终贯穿的一条主线。随着生成式AI逐步介入学习、社交、娱乐等未成年人的日常生活场景,其陪伴性特征对青少年的认知与价值观影响愈加显著。清朗行动中明确要求清查诱导沉迷、有害信息频出的AI应用,推动平台优化内容分发机制,鼓励在模型训练中引入儿童心理、教育学等专业领域数据,主动调整模型认知体系,增强对青少年问题的理解与防范能力,展示行业层面对社会责任的积极响应。
总结与展望
中央网信办"清朗·整治AI技术滥用"专项行动意在构建起AI技术治理的中国框架。这场行动远不止于技术层面的监管,其深层意义更在于价值引领——AI时代,技术创新不能成为突破伦理底线的借口,技术发展必须与人文关怀同频共振。未来,AI技术治理仍面临诸多挑战:生成式AI技术持续进化所造成的内容治理难度将不断增加;AI与其他新兴技术的融合可能催生新型滥用形式;全球化背景下跨境平台的治理协同也考验着监管智慧。这些挑战也对持续完善治理体系提出了更高要求。对于AI行业而言,专项行动既是约束也是发展契机。当低俗内容生成、数据违规采集等捷径被阻断,企业将被迫转向真正有价值的技术研发;当恶意竞争空间被压缩,行业资源将更多投入教育、医疗、环保等社会效益显著的领域。长期看,规范有序的市场环境有利于AI产业健康发展,避免劣币驱逐良币。这场仍在进行中的清朗行动,正是以治理促发展、以规范护创新的生动实践,展现出面向数字文明的治理智慧。在此引导下,未来,AI技术有望进一步释放其巨大潜能,为促进社会进步与增进人类福祉发挥更大作用。
参考资料:
中央网信办部署开展“清朗·整治AI技术滥用”专项行动https://www.cac.gov.cn/2025-04/30/c_1747719097461951.htm 中央网信办深入开展“清朗·整治AI技术滥用”专项行动第一阶段工作https://mp.weixin.qq.com/s/Kfckz8Lx1O-S1Atr5HvwtA打击AI滥用!网信办发布清朗重点,南都持续关注AI治理 https://www.163.com/dy/article/JOUGAIJV05129QAF.html
# 征稿启示 #
谷围传媒微信公众号欢迎赐稿!
稿件内容以传媒技术与社会发展、传媒热点动态、人工智能、科学传播等内容为主。欢迎投稿!
愿您与谷围传媒一起,为媒体从业者和广大公众构建实用的传播前沿数据库。
投稿邮箱:974745393@qq.com
文/开心
编辑/姜莹
编审/刘璐
推荐阅读
更
多
资
讯
请扫描右侧二维码
谷围传媒
页:
[1]