2026年2月27日,资深互联网观察家胡延平在腾讯研究院发表主题分享,核心观点直指“人的重建,从不仰望AI开始”。他围绕AI浪潮下的科技思潮社会光谱与创世思潮理念生态展开探讨,拆解人与AI的价值边界,呼吁人们在技术变革中坚守主体性,探寻理性应对路径。
当ChatGPT、DeepSeek等大模型以月级迭代速度刷新认知,不少人陷入一种“技术恍惚”——既惊叹于AI生成内容的精准度,又在智能化渗透的日常中,隐隐担忧自身的不可替代性。这种集体情绪,正是胡延平此次分享试图破解的核心议题。
在AI技术的狂飙突进中,当前社会正呈现出两种鲜明的思潮光谱。一方面是“科技思潮”的务实推进:企业聚焦大模型的商业化落地,开发者不断优化模型的多模态能力,技术的迭代逻辑主导着产业走向;另一方面则是“创世思潮”的理念涌现:部分观点将AI视为重构世界的“新创世力量”,甚至赋予其超越人类的价值定位,这种认知偏差让不少人在技术面前失去了判断的主体性。胡延平将这种状态定义为“恍惚”,并强调“走出恍惚”是当前人与AI关系的首要命题。
“人的重建,从不仰望AI开始”,胡延平的核心观点并非否定AI的技术价值,而是要打破对AI的盲目崇拜。在他看来,AI本质上是人类创造的工具,其所有能力都源于人类的知识输入与技术设计。如果将AI置于“被仰望”的位置,本质上是将人类的创造力、判断力与情感价值让渡给技术,最终可能陷入“技术反噬人类主体性”的困境。
他进一步指出,人的核心价值从来不是执行标准化任务——这恰恰是AI最擅长的领域,而是在于批判性思维、跨领域共情能力、以及基于伦理判断的决策力。这些特质无法通过数据训练被AI完全复刻,也是人类在AI时代不可替代的根本。
如何实现“人的重建”?胡延平给出的方向是回归人本位的实践逻辑。对于企业而言,在推进AI产品研发时,不能只追求技术参数的提升,更要将“人的需求”作为核心锚点——比如AI医疗产品应优先关注患者的隐私保护与情感关怀,AI教育工具需聚焦人类的个性化学习需求;对于个体而言,则要主动跳出“技术焦虑”,转而提升自身的“非标准化能力”,比如深耕某一领域的深度认知,培养跨学科的整合思维,让技术成为放大自身价值的工具,而非替代自身的对手。