美国麻省理工学院建设性传播中心在人工智能促进协会(AAAI)年会上发布最新研究,直指OpenAI GPT-4、Anthropic Claude 3 Opus、Meta Llama 3等主流顶尖AI聊天机器人,对教育程度较低、英语不熟练或特定国家用户存在系统性歧视:回答准确率显著下滑,甚至出现拒绝回应、嘲讽或隐瞒信息的情况,恐进一步加剧全球信息不平等问题。 当仅具备初中教育水平的用户向GPT-4咨询基础税收申报注意事项时,得到的是模糊且避重就轻的表述;而同等问题由本科背景用户提出,模型则给出了包含表单填写指南、抵扣项目清单的详尽回答——这是麻省理工学院研究团队在跨模型测试中捕捉到的典型差异,直指AI技术“普惠承诺”背后的现实裂痕。 本次研究覆盖了当前市场上三款顶尖大语言模型:OpenAI的GPT-4、Anthropic的Claude 3 Opus以及Meta的Llama 3。研究人员设置了多维度测试场景,模拟教育水平偏低、英语作为第二语言、来自发展中国家等不同类型用户的提问逻辑与内容。 结果显示,所有测试模型均呈现出显著的“群体差异对待”:针对教育程度较低的用户,模型回答准确率比高教育背...