东京AI初创公司Sakana AI于2026年2月28日发布Text-to-LoRA(T2L)与Doc-to-LoRA(D2L)两项基于超网络架构的技术。其中D2L可让大模型无需重训,1秒内处理12.8万Token超长文档,速度较传统技术快40至100倍;T2L则支持自然语言生成专属性能插件,为大模型应用场景带来革新空间。
当企业还在为大模型处理百页合同、科研论文等超长文档动辄数小时的效率发愁时,来自东京的AI初创公司Sakana AI给出了新的解决方案——仅需不到一秒,大模型就能“消化”12.8万Token的超长文档,处理速度较传统技术提升40至100倍。
传统大模型处理超长文档时,往往需要通过扩展上下文窗口或全量微调实现适配,但这种方式不仅耗时久、计算成本高,还可能损害模型原有的通用性能。而Sakana AI推出的Doc-to-LoRA(D2L)技术,彻底打破了这一限制:无需对大模型进行重新训练,仅通过生成轻量化的LoRA插件,就能让模型在一秒内完成对12.8万Token超长文档的信息吸收。
数据显示,D2L可将12.8万Token的文档内容打包进不到50MB的插件,处理速度较传统技术快40至100倍,同时还能支持更长文本的处理需求。对于需要处理海量长文档的法律、医疗、科研等行业而言,这一技术将直接推动合同审查、病历分析、论文解读等流程的效率跃升。
与D2L聚焦长文档处理不同,Sakana AI同步发布的Text-to-LoRA(T2L)技术,瞄准的是大模型的定制化需求。传统的模型微调需要专业算法人员编写代码、调整参数,门槛极高,而T2L允许用户通过自然语言描述需求,直接生成专属的性能增强插件。
例如,用户只需输入“生成一个能快速提取金融研报核心数据的插件”,T2L就能自动适配大模型,生成对应的LoRA插件。这一功能大幅降低了大模型适配特定场景的技术门槛,让中小企业甚至个人用户,都能根据自身需求快速定制模型能力,无需投入高额的研发成本。
D2L与T2L的高效表现,核心在于二者均采用了超网络架构。不同于传统LoRA微调依赖预定义的参数空间,超网络能够动态生成适配不同任务的LoRA插件,无需修改大模型的基础权重。
这种底层设计带来了双重优势:一方面避免了全量重训带来的计算资源浪费,大幅降低了技术落地的成本;另一方面,由于未触动大模型的核心权重,模型原有通用性能得以完整保留。正是依托这一创新架构,Sakana AI的两项技术才能实现“轻量化改造+极速生效”的突破性效果。
当大模型行业从“通用模型竞赛”转向“场景落地深耕”,如何平衡定制化需求、处理效率与成本,成为行业普遍的痛点。Sakana AI的两项技术,为行业提供了全新的思路——通过插件式的轻量化改造,而非全量重训,快速赋予大模型特定场景能力。
这种模式不仅能将模型定制的时间从数天压缩至秒级,还能让大模型更灵活地适配不同行业的细分需求。未来,类似的插件式大模型改进技术,或许会成为推动AI应用规模化落地的重要力量,加速人工智能技术向各行各业的渗透。