新闻 发表于 2025-12-28 01:57

AI概念解析:从入门到精通的36个关键术语指南(三十二)

作者:微信文章
引言

在 AI 发展过程中,偏见(Bias)是不容忽视的问题。它可能导致模型输出不公平结果,影响社会公平。偏见从何而来?如何解决?我们一起学习。



伦理安全



32

偏见(Bias)



偏见是指AI模型输出中反映的不公平、歧视性或偏颇的倾向,通常源于训练数据中存在的社会偏见、历史不公或数据收集偏差。常见的偏见类型包括性别偏见、种族偏见、文化偏见、年龄偏见等。例如,将特定职业与特定性别强行关联,或对某些群体发表负面言论。识别和缓解AI系统中的偏见对于确保技术的公平性和社会责任至关重要。



来源:DATA数据社区微信公众号



敬请关注下期内容

伦理安全—对齐(Alignment)



怕错过干货?点击关注,不错过每一次分享





















页: [1]
查看完整版本: AI概念解析:从入门到精通的36个关键术语指南(三十二)