0
收藏
微博
微信
复制链接

AI大模型也有性别偏见和种族刻板印象?!

2024-03-09 09:40
162

早在2023年,随着ChatGPT的横空出世,人工智能(AI)大模型已成为当下最火的新兴产业,越来越多企业纷纷推出相关的AI大模型产品,其中以GPT-3.5/4、LIama 2、Bking等最为出名,然而很难相信的是,这些AI大模型竟然存在偏见!

近日,联合国教科文组织发表了研究报告,该报告表示:大语言模型存在性别偏见、种族刻板印象等倾向。

1.png

据了解,大语言模型是一种用于支持生成式人工智能的自然语言处理工具。此次联合国教科文组织的研究深入分析了大语言模型中的刻板印象,结果显示:上述大语言模型生成的内容都存在对女性的明显偏见。

在研究中,研究人员要求平台为不同性别、性取向和文化背景的人群,每个人“编写一则故事”,结果显示,开源大语言模型比较倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而传统上被低估或被污名化的角色分给女性。

以Facebook母公司Mate的LIama2为例,该女性从事家务劳动的频率是男性的四倍等。

联合国教科文组织总干事阿祖莱表示:“越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”

登录后查看更多
0
评论 0
收藏
侵权举报
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表凡亿课堂立场。文章及其配图仅供工程师学习之用,如有内容图片侵权或者其他问题,请联系本站作侵删。

热门评论0

相关文章

电路之家

专注电子、科技分享,对电子领域深入剖解

开班信息