登录体验完整功能(收藏、点赞、评论等)

东京Sakana AI推出两项大模型革新技术,文档处理提速40至100倍

近日,东京AI初创公司Sakana AI发布Text-to-LoRA(T2L)与Doc-to-LoRA(D2L)两项基于超网络架构的大模型技术。其中D2L无需对大模型重新训练,可在一秒内完成超长文档处理,速度较传统技术提升40至100倍;T2L则支持以自然语言描述生成专属性能增强插件,为大模型应用场景拓展提供新方向。

在大模型商业化落地的进程中,超长文档处理始终是制约效率的核心痛点之一。传统技术方案要么需要对模型进行全量重训,耗费大量算力与时间;要么处理速度极慢,无法满足企业实时分析合同、学术文献等场景的需求。

Doc-to-LoRA(D2L) 是此次发布的核心技术之一,它实现了大模型无需全量重训即可快速“消化”超长文档。据介绍,该技术能在不到一秒的时间内完成12.8万Token的超长文档处理,并将文档信息转化为不到50MB的轻量化插件,处理速度较传统技术提升了40至100倍,同时还支持处理更长文本内容,彻底解决了长文档处理的效率瓶颈。

Text-to-LoRA(T2L) 则聚焦于大模型的定制化需求,它允许用户通过自然语言描述,直接生成专属的性能增强插件。这意味着非技术人员也能根据业务场景需求,快速调整大模型的任务处理能力,无需掌握复杂的模型微调代码,大幅降低了大模型定制化的门槛。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创