少找工具,多做创作

Snowflake扩展Cortex Code CLI至dbt与Airflow 简化数据工程工作流

云数据平台服务商Snowflake宣布将旗下AI代码工具Cortex Code CLI扩展至dbt与Apache Airflow两大主流数据工具,此举旨在消除数据工程师的上下文切换痛点,将AI能力深度嵌入生产数据管线。分析师指出,这一布局将显著简化数据工程工作流,提升团队生产效率,进一步强化Snowflake在AI辅助数据处理领域的竞争力。

数据工程师的日常工作流长期被多工具切换困扰——在Snowflake等云数据平台处理数据、用dbt构建数据模型、借助Apache Airflow调度管线,每一次工具跳转都意味着中断当前思路、重新适配环境。据行业调研,这类上下文切换平均占据数据工程师近30%的工作时间,严重拉低团队生产效率。如何让AI能力无缝嵌入核心工作流,成为云数据厂商的重要布局方向。

Snowflake此次将旗下AI代码助手Cortex Code CLI扩展至dbt与Apache Airflow,正是瞄准这一痛点。作为Snowflake Cortex生态的核心组件,Cortex Code CLI原本仅支持在Snowflake原生环境中生成、调试SQL代码与数据管线脚本;扩展后,数据工程师无需离开dbt的建模界面或Airflow的调度控制台,即可直接调用AI能力生成建模逻辑、优化调度任务,彻底消除跨工具切换的损耗。
分析师指出,这一布局的核心价值在于将AI能力从“孤立的辅助工具”转变为“生产管线的原生组件”,让AI真正融入数据工程的全流程,而非停留在事后优化的环节。

Snowflake的动作并非个例,当前云数据赛道的头部厂商正集体加速AI与现有工具链的深度整合。与同类厂商的AI布局相比,Snowflake此次扩展更聚焦数据工程师的“刚需场景”——dbt与Airflow是全球超60%的数据团队的核心工具,将Cortex嵌入其中,能直接覆盖大部分主流数据工作流。
对企业而言,这一变化将降低AI工具的学习门槛:新手工程师可借助Cortex快速生成符合规范的代码与脚本,资深工程师则能将精力集中在数据策略设计、复杂业务建模等高阶任务上,进一步释放团队产能。

随着AI能力持续渗透数据工程领域,“AI-native”将成为未来数据工作流的核心特征。Snowflake通过Cortex Code CLI的扩展,正逐步构建一个无需频繁切换工具的闭环工作环境;后续不排除将Cortex扩展至更多数据工具,进一步完善其AI辅助数据处理的生态。
这一趋势也将推动数据工具厂商的协同进化,迫使更多工具开发者考虑原生支持AI能力嵌入,最终形成更高效、自动化的数据工程体系。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创