登录体验完整功能(收藏、点赞、评论等)

Sakana AI推出两项LoRA革新技术,文档处理提速40至100倍

东京AI初创公司Sakana AI于2026年2月28日发布Text-to-LoRA(T2L)与Doc-to-LoRA(D2L)两项基于超网络架构的技术。其中D2L可让大模型无需重训,1秒内处理12.8万Token超长文档,速度较传统技术快40至100倍;T2L则支持自然语言生成专属性能插件,为大模型应用场景带来革新空间。

当企业还在为大模型处理百页合同、科研论文等超长文档动辄数小时的效率发愁时,来自东京的AI初创公司Sakana AI给出了新的解决方案——仅需不到一秒,大模型就能“消化”12.8万Token的超长文档,处理速度较传统技术提升40至100倍。

传统大模型处理超长文档时,往往需要通过扩展上下文窗口或全量微调实现适配,但这种方式不仅耗时久、计算成本高,还可能损害模型原有的通用性能。而Sakana AI推出的Doc-to-LoRA(D2L)技术,彻底打破了这一限制:无需对大模型进行重新训练,仅通过生成轻量化的LoRA插件,就能让模型在一秒内完成对12.8万Token超长文档的信息吸收。

数据显示,D2L可将12.8万Token的文档内容打包进不到50MB的插件,处理速度较传统技术快40至100倍,同时还能支持更长文本的处理需求。对于需要处理海量长文档的法律、医疗、科研等行业而言,这一技术将直接推动合同审查、病历分析、论文解读等流程的效率跃升。

与D2L聚焦长文档处理不同,Sakana AI同步发布的Text-to-LoRA(T2L)技术,瞄准的是大模型的定制化需求。传统的模型微调需要专业算法人员编写代码、调整参数,门槛极高,而T2L允许用户通过自然语言描述需求,直接生成专属的性能增强插件。

例如,用户只需输入“生成一个能快速提取金融研报核心数据的插件”,T2L就能自动适配大模型,生成对应的LoRA插件。这一功能大幅降低了大模型适配特定场景的技术门槛,让中小企业甚至个人用户,都能根据自身需求快速定制模型能力,无需投入高额的研发成本。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创