我爱免费 发表于 2025-6-28 18:09

AI大模型长文本文档处理能力大比拼

作者:微信文章


最近因为准备做AI项目,需要详细读取分析已有长文本文档中的内容,尽量保留原有内容,只删除不相关的、冗余的、啰嗦的文字内容,作为AI项目知识库的语料。长文本.doc文件内容有560页,80万字长度。通过亲测对比几种大模型的长文本处理能力,得出更好的长文本处理方式。

首先使用阿里通义处理已有长文件,通义系统处理长文本不受内容长度的约束,但是内容分析读取的不太详细,只是总结概括了22条内容,如图所示。





使用腾讯元宝处理长文档时,受到文档内容长度的限制,只能处理30%的文字,如图所示。


当使用字节豆包处理长文件时,也受到内容字数约束,只能处理27%的内容,如图


使用deepseek处理文件时,也只能处理11%的文字内容,如图所示

当使用昆仑万维的天工AI助手处理长文本时,文档直接就传不上去,无法提取分析。如图所示


当使用360纳米AI处理长文档,上传文档和处理分析速度很快,也没有内容文字长度的限制,生成了一个29页共计2万字比较详细的分析处理最终内容,并且可以导出生成新的.doc文件,如图所示。






最后使用长文本AI助手kimi处理文档,也只能处理22%的文字内容。


综上所述,在处理长文本文档时,使用360的纳米AI分析处理内容能力更有效,不会受到文字内容长度的约束限制,处理速度也比较快速,也可以导出分析处理后的文字内容并生成新的文件,无论从性能还是应用方面都是更好的解决方式。
如果对您有帮助 记得关注
页: [1]
查看完整版本: AI大模型长文本文档处理能力大比拼