登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

谷歌AI研究推出Vantage 用大模型测评协作创造力等持久技能

2026年4月,谷歌AI研究团队正式推出基于大语言模型(LLM)的新型技能测评方法Vantage,瞄准教育领域长期存在的痛点——协作、创造力、批判性思维等“持久技能”一直缺乏可扩展、严谨有效的评估工具。Vantage通过大语言模型模拟真实团队互动,平衡了测评的真实感与可重复性,弥补了传统测试及过往方案的不足,为软技能评估提供了新的技术路径。

从升学考试到企业招聘笔试,传统标准化测评可以准确测量测评对象对知识点的掌握程度——你是否掌握了微积分公式,能不能读懂复杂文本,这些都可以通过固定题型给出清晰评分。但对于越来越受重视的协作沟通、创意产出、批判性分析等能力,传统测试几乎无能为力。

这些能力被谷歌研究团队称为“持久技能”,是个人在长期工作生活中更核心的竞争力,但持久技能的测评一直被困在两难矛盾里:要获得贴近真实场景的测评结果,就得用真人互动,不仅成本高,结果也没法重复和横向对比;如果追求测评的严谨性和可重复性,就得像PISA 2015的协作问题解决评估那样,用固定脚本和选择题控制变量,又会失去真实互动的质感,测评结果参考价值大打折扣。

谷歌研究团队此次推出的Vantage,就是瞄准这一矛盾给出的大语言模型原生解法。Vantage的核心是“执行LLM”架构,利用单一大语言模型生成测评场景中所有角色的互动内容,既能模拟出真实团队协作中意见分歧、思路碰撞的自然状态,让测评对象身处接近真实的协作场景中发挥能力,又能保证整个测评过程的规则统一,结果具备可重复性和可比性,刚好实现了生态有效性与心理测量学严谨性的平衡

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创