Anthropropic邀牛津哲学博士为Claude构建道德体系 探索AI伦理新路径 估值高达3500亿美元的头部AI企业Anthropic近期推出了一项颇具突破性的AI伦理实践:聘请牛津哲学博士阿曼达·阿斯克尔常驻团队,以非技术手段为旗下聊天机器人Claude打造专属人格与道德准则,试图赋予其明辨是非的“数字灵魂”,这一举措为当前技术主导的AI伦理领域开辟了全新路径。 作为OpenAI之后最受资本与市场关注的头部AI企业之一,Anthropic始终将AI安全与伦理置于核心开发位置,3500亿美元的估值背后,也印证了行业对其AI伦理探索方向的认可。而带领这一创新实践的核心人物,是37岁的牛津哲学博士阿曼达·阿斯克尔——与AI开发团队中常见的算法工程师不同,她的工作完全跳出技术框架,以哲学思辨为核心工具,为Claude塑造独特的人格底色与道德边界。 阿斯克尔的工作方式充满人文色彩:她通过持续与Claude进行多场景深度对话,设计上百页的提示词与行为规则,逐一拆解AI在伦理判断中的逻辑偏差,最终构建出一套贯穿Claude所有交互场景的专属“道德准则”。这套准则并非简单的禁忌清单,而是基于经...