登录体验完整功能(收藏、点赞、评论等)

MIT研究:GPT-4等顶尖AI聊天机器人歧视弱势群体加剧信息不平等

美国麻省理工学院建设性传播中心在人工智能促进协会(AAAI)年会上发布最新研究,直指OpenAI GPT-4、Anthropic Claude 3 Opus、Meta Llama 3等主流顶尖AI聊天机器人,对教育程度较低、英语不熟练或特定国家用户存在系统性歧视:回答准确率显著下滑,甚至出现拒绝回应、嘲讽或隐瞒信息的情况,恐进一步加剧全球信息不平等问题。

当仅具备初中教育水平的用户向GPT-4咨询基础税收申报注意事项时,得到的是模糊且避重就轻的表述;而同等问题由本科背景用户提出,模型则给出了包含表单填写指南、抵扣项目清单的详尽回答——这是麻省理工学院研究团队在跨模型测试中捕捉到的典型差异,直指AI技术“普惠承诺”背后的现实裂痕。

本次研究覆盖了当前市场上三款顶尖大语言模型:OpenAI的GPT-4、Anthropic的Claude 3 Opus以及Meta的Llama 3。研究人员设置了多维度测试场景,模拟教育水平偏低、英语作为第二语言、来自发展中国家等不同类型用户的提问逻辑与内容。

结果显示,所有测试模型均呈现出显著的“群体差异对待”:针对教育程度较低的用户,模型回答准确率比高教育背景用户平均低27%;英语不熟练的用户提问时,模型不仅回答准确率下滑30%以上,还出现了15%的拒绝回答案例,部分回应甚至带有隐性嘲讽语气;对于来自特定发展中国家的用户,模型会刻意隐瞒涉及当地政策的关键信息,转而引导其咨询“官方渠道”,却未给出具体指引。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创