我爱免费 发表于 2025-8-14 10:20

记者能用AI写稿吗?

作者:微信文章

文 | 王可(新京报传媒研究)

本来想让AI辅助减轻写稿压力,没想到这“人工智障”一个接一个的挖坑,AI辅助写稿的“甜蜜陷阱”该怎么躲?

01
“人工智障” 风险无穷

从录音自动转写成文字,到依据素材生成初稿,AI 辅助新闻生产早已不是新鲜事,但 “人工智障” 带来的风险也确实层出不穷。

AI 在新闻生产中的 “翻车”,最常见的是对事实如“幻觉”般的篡改和捏造。

小编此前在《几个小妖怪,怎么就成了票房黑马?》一文中做了个“实验”,想用AI查询《浪浪山小妖怪》这部电影未来的出海计划,得到如下答复:



为了进一步交叉验证,小编选择了另一AI平台提出问题:



而新平台在否认了原有答案的同时,给出了更为详细的信源。小编也只好“故技重施”,再次交叉验证:



至此,小编已经放弃了稿件中对于影片出海计划描述,但对于AI幻觉的篡改和捏造能力倒是有了更深刻的认知。

这类事实层面的失真,本质是 AI 对信息的 “创造性重组”—— 它更擅长捕捉语言模式而非核实真实性,当训练数据中存在模糊表述时,就可能凭空生成看似权威的表述,实则毫无依据。

逻辑链条的断裂,则让AI写稿陷入 “自说自话” 的尴尬。

此前,有美国科技新闻网站“实验性”的以AI生成金融稿件发布,但很快报道被发现并未做到预想中精准,相反还漏洞百出:

一篇报道称,如果你有25000美元的车贷,利率为4%,那么你每年将支付1000美元的固定利息。而事实上,贷款余额每年都在减少,只需支付未偿余额的利息即可,不会出现每年固定偿还1000美元利息的情况。AI 混淆了本金与利息的关系,导致完全错误的结论,且未进行基本数学验证,缺乏逻辑链条,让稿件完全无谈“新闻真实”。

02
让使用“更合理”

AI辅助新闻生产无疑是提升效率的利器,但如何更合理地使用,才是新闻人面临的现实问题。

与 AI 协作的关键,在于从源头划定信息边界。

如进行资料整理查询时,仅给AI投喂权威信源如政府官网、主流媒体稿件、已核实数据库等,拒绝来源不清的模糊素材。同时向AI明确指令,如“仅基于提供的 5 份材料生成背景介绍,不添加外部信息”,从而有效避免 AI 擅自添加虚假细节。这种 “素材洁癖” 看似增加前期工作量,却能为后续素材的使用筑牢防火墙。

除此以外,给 AI 内容贴好 “溯源标签” 能大幅降低核实成本。

针对AI最为“擅长”的数据幻想问题,记者可以要求 AI在输出文本时标注信息来源及确切的链接地址,如 “此段数据来自 2024年统计年鉴第156页”“该观点引自受访者的第 3 次采访记录”。需求越具体,对于AI的限定越明确,留给AI的数据幻想空间就能得到最大限度的控制。而对于 AI 自创的 “专家观点”,则必须通过学术数据库、权威媒体报道等渠道交叉验证,确认无误后才能采用。

审核环节的 “双校验” 机制,是防范风险的最后防线。

除了对如时间、地名、机构名称等硬信息的核查,记者应尤其注意对于逻辑链的反复审核,事件的前因、后果,因果逻辑等推导过程,经常是AI幻觉的重灾区。

03
哪些领域碰不得?

新闻业与 AI 共处的前提,是明确划定 “禁区”。财经数据、法律条文、历史事件等对精确性要求极高的内容,必须由记者手工核对原始文本,确保每个数字、每个术语都与原文一致。历史事件的时间、人物、因果关系同样容不得半点模糊,对于这类事实的误写,可能直接摧毁媒体的专业公信力。

涉及人物专访和敏感事件的细节描述,则需要记者牢牢掌握主导权。这类充满主观色彩的细节,蕴含着人物的情感逻辑和事件的核心矛盾,只有面对面采访、多方求证才能准确捕捉,而AI 的 “脑补” 只会制造虚假的感动。此外,在突发事件、灾害报道中,伤亡数字、救援进展等信息的发布更需慎之又慎。

AI时代,文章可以一键生成,但新闻不行。利用AI工具,我们可以在音频转写、材料整理、审核等环节提升新闻生产效率,但新闻事实的采写,永远需要记者亲力亲为。

当记者能清醒识别 AI 的 “短板”,用专业素养为技术划界,就能让 AI 成为深入调查的 “脚手架”,真正助力新闻生产。

校对 | 赵琳

主编推荐







页: [1]
查看完整版本: 记者能用AI写稿吗?