live 发表于 2025-7-10 17:12

大语言模型有偏见:ChatGPT建议女性要求较低薪资

一项新研究显示:像ChatGPT这样的语言模型建议女性要求比男性低的薪资,尽管她们的资质相同。专家警告,这可能对用户的现实生活产生影响。因此,他们呼吁制定明确的道德标准和审查程序。



现代语言模型如ChatGPT在薪资谈判中系统性地为女性推荐比男性低的薪资目标,即使所有初始条件相同。这是维尔茨堡-施魏因富特技术大学(THWS)的一项最新研究得出的结论,该研究调查了所谓大型语言模型(LLMs)的偏见。

为此,研究人员要求五种常见的语言模型,包括ChatGPT,为即将进行面试的人提供建议。他们通过提示输入有关性别、教育背景、职业经验以及目标职位的详细信息,并询问应要求多少年薪。

结果显示,人工智能(AI)始终为女性推荐比男性低的薪资谈判目标金额。研究作者伊万·亚姆希科夫表示:“特别是在薪资等敏感话题上,这种隐性偏见可能对用户的现实生活产生实际影响。”

在法律和医学领域,推荐的薪资差异尤为明显;在工商管理和工程科学领域,差异略小。只有在社会科学领域,模型为女性推荐的薪资要求与男性相近。

人工智能看似客观
薪资问题只是测试的多个案例之一。研究人员还调查了其他贴近现实的使用场景,例如人工智能助手在职业决策、目标设定或行为建议方面的表现。在这些场景中,语言模型对男性和女性用户档案的反应方式也存在显著差异。研究指出,在传统基准测试中,这些偏见往往不可见,但一旦将人工智能模型应用于复杂、贴近日常生活的任务时,偏见就会显现。

由于现代语言模型会考虑之前的对话和上下文信息,现有偏见可能随时间加剧。然而,用户可能几乎察觉不到这一点——人工智能看似客观,但内容上却受到影响。研究人员表示,即便语言模型表面上看起来中立,它们仍会重现社会偏见,从而加剧不利待遇。

这个问题并不新鲜:早在2018年,亚马逊就因其人工智能招聘系统算法系统性地歧视女性而停止使用该系统。研究人员认为,不仅需要技术解决方案,更需要明确的道德标准和透明的审查程序,以尽早识别和避免此类风险。
页: [1]
查看完整版本: 大语言模型有偏见:ChatGPT建议女性要求较低薪资