近日在印度AI峰会上,OpenAI CEO Sam Altman面对AI模型能源消耗过高的质疑,抛出了极具争议的“人肉成本”对比:培养一个具备基本认知能力的人类需耗费20年生命资源,而训练顶尖AI模型仅需约2小时计算资源。这一荒诞又直白的回应,引发AI行业对技术成本、伦理边界的新一轮深度讨论。 当全球AI厂商竞相追逐大参数、高性能的大语言模型时,“能源消耗”正成为行业无法回避的尖锐命题。此前有研究数据显示,训练一个GPT-3级别的大模型,所消耗的电力相当于一个美国家庭连续使用约500年,对应的碳排放更是达到数百吨量级。每一次大模型的迭代升级,都伴随着环保主义者和行业观察者对能耗问题的追问。 随着大语言模型参数从百亿级跃升至千亿、万亿级别,模型训练和日常推理的能源消耗呈现指数级增长。尽管部分科技巨头已开始布局绿色算力基地,采用可再生能源供电,但依然难以跟上模型规模膨胀的速度。印度作为全球AI新兴市场,此次峰会将能耗问题直接抛给OpenAI掌舵人Sam Altman,也折射出这一争议在全球范围内的普遍性。 在峰会现场的问答环节,当被问及OpenAI模型高能耗是否违背环保理念时,Sam Al...