AI大模型长文本文档处理能力大比拼
作者:微信文章最近因为准备做AI项目,需要详细读取分析已有长文本文档中的内容,尽量保留原有内容,只删除不相关的、冗余的、啰嗦的文字内容,作为AI项目知识库的语料。长文本.doc文件内容有560页,80万字长度。通过亲测对比几种大模型的长文本处理能力,得出更好的长文本处理方式。
首先使用阿里通义处理已有长文件,通义系统处理长文本不受内容长度的约束,但是内容分析读取的不太详细,只是总结概括了22条内容,如图所示。
使用腾讯元宝处理长文档时,受到文档内容长度的限制,只能处理30%的文字,如图所示。
当使用字节豆包处理长文件时,也受到内容字数约束,只能处理27%的内容,如图
使用deepseek处理文件时,也只能处理11%的文字内容,如图所示
当使用昆仑万维的天工AI助手处理长文本时,文档直接就传不上去,无法提取分析。如图所示
当使用360纳米AI处理长文档,上传文档和处理分析速度很快,也没有内容文字长度的限制,生成了一个29页共计2万字比较详细的分析处理最终内容,并且可以导出生成新的.doc文件,如图所示。
最后使用长文本AI助手kimi处理文档,也只能处理22%的文字内容。
综上所述,在处理长文本文档时,使用360的纳米AI分析处理内容能力更有效,不会受到文字内容长度的约束限制,处理速度也比较快速,也可以导出分析处理后的文字内容并生成新的文件,无论从性能还是应用方面都是更好的解决方式。
如果对您有帮助 记得关注
页:
[1]