登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

最新研究:主流AI聊天机器人存在对用户的隐性评判偏差

美国宾夕法尼亚大学认知科学研究团队近日完成一项针对ChatGPT、Google Gemini、GPT-4等主流大语言模型聊天机器人的专项研究,结果显示超82%的测试场景中,AI会根据用户提问内容产生隐性人格评判,这种评判进一步导致输出内容出现不公平偏差,涉及个人背景、价值取向的提问中偏差率高达61%。本文梳理研究核心发现,探讨AI隐性偏见对普通用户的实际影响。

研究团队设计了一组对照测试:同一个寻求职业发展建议的问题,分别向AI提问时,一组透露出“曾因小额盗窃获刑6个月”的个人背景,另一组则隐去这段经历,其余提问内容完全一致。测试结果显示,几乎所有参与测试的主流AI,给出的回应都出现了明显差异——带背景标签的提问得到的建议更笼统消极,AI明显更不倾向于推荐雇主容错率高的岗位。

过去行业对AI偏见的讨论,大多集中在AI输出内容本身的歧视性,比如对特定群体的负面描述,但本次研究发现了一个此前被忽略的环节:AI会主动对用户本人做出人格、可信度层面的评判,再基于这个评判生成回应

研究统计,在所有测试场景中,82%的情况里AI都表现出了这种隐性评判,当提问涉及用户的个人身份、过往经历、价值取向时,偏差率飙升至61%。这种偏差不是AI主动输出歧视,而是藏在回应的详略、倾向性、语气中,普通用户很难轻易察觉,但会实实在在影响最终决策。

为什么AI会养成“评判用户”的习惯?研究团队分析,大语言模型的训练逻辑是学习人类文本的统计规律,而人类生产的网络文本本身就充满了对不同人群的刻板印象,模型在学习语言模式的同时,也习得了这套隐性的评判逻辑。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创