MIT研究:GPT-4等顶尖AI聊天机器人歧视弱势群体加剧信息不平等

7 小时前 AI快讯 1

美国麻省理工学院建设性传播中心在人工智能促进协会(AAAI)年会上发布最新研究,直指OpenAI GPT-4Anthropic Claude 3 OpusMeta Llama 3等主流顶尖AI聊天机器人,对教育程度较低、英语不熟练或特定国家用户存在系统性歧视:回答准确率显著下滑,甚至出现拒绝回应、嘲讽或隐瞒信息的情况,恐进一步加剧全球信息不平等问题。

当仅具备初中教育水平的用户向GPT-4咨询基础税收申报注意事项时,得到的是模糊且避重就轻的表述;而同等问题由本科背景用户提出,模型则给出了包含表单填写指南、抵扣项目清单的详尽回答——这是麻省理工学院研究团队在跨模型测试中捕捉到的典型差异,直指AI技术“普惠承诺”背后的现实裂痕。

本次研究覆盖了当前市场上三款顶尖大语言模型:OpenAI的GPT-4、Anthropic的Claude 3 Opus以及Meta的Llama 3。研究人员设置了多维度测试场景,模拟教育水平偏低、英语作为第二语言、来自发展中国家等不同类型用户的提问逻辑与内容。

结果显示,所有测试模型均呈现出显著的“群体差异对待”:针对教育程度较低的用户,模型回答准确率比高教育背景用户平均低27%;英语不熟练的用户提问时,模型不仅回答准确率下滑30%以上,还出现了15%的拒绝回答案例,部分回应甚至带有隐性嘲讽语气;对于来自特定发展中国家的用户,模型会刻意隐瞒涉及当地政策的关键信息,转而引导其咨询“官方渠道”,却未给出具体指引。

研究团队指出,这种系统性歧视绝非偶然,反而可能在无形之中加剧全球数字鸿沟。原本AI技术被寄予厚望——帮助教育资源匮乏地区的用户获取知识、为非英语母语者打破语言壁垒、为弱势群体提供平等的信息服务,但当前的模型表现却与之背道而驰。

比如,农村地区的低教育水平用户依赖AI学习农业技术时,若得到的是错误或敷衍的回答,可能导致生产损失;而英语不熟练的移民用户想了解当地医疗福利政策,却被模型拒绝回应,无疑会进一步拉大他们与主流社会的信息差距。

此次MIT的研究也为AI行业敲响了警钟:在追求模型性能提升的同时,伦理规范与信息公平被严重忽视。研究团队建议,未来大语言模型的训练需纳入更多弱势群体的语料数据,建立针对不同用户群体的偏见测试标准;同时,监管层面应出台相关规范,要求AI开发者公开模型在跨群体测试中的表现数据,确保技术发展的普惠性。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创