登录体验完整功能(收藏、点赞、评论等)

Sakana AI发布T2L/D2L技术:大模型秒处理长文本告别内存依赖

总部位于东京的AI初创公司Sakana AI近日发布Text-to-LoRA(T2L)和Doc-to-LoRA(D2L)两项突破性技术,依托“超网络”架构,让大模型无需重新训练即可在秒级内处理超长文档或学习新任务,将传统方式处理12.8万Token文档所需的12GB显存需求降至50MB,有望终结大模型处理长文本时的“内存焦虑”。

当企业试图让大模型处理百万字级的合同、研发文档时,往往陷入两难:要么硬塞文本导致模型响应迟缓、显存告急,要么花费数天时间微调模型,成本高昂——这是AI开发者长期以来的“内存焦虑”。而Sakana AI的最新技术,正在把这个难题的解决时间压缩到一秒以内。

大语言模型的“内存焦虑”并非个例。随着企业对大模型处理长文本需求的爆发,传统方案的弊端愈发凸显:若直接将超长文档输入模型,需要占据数十GB的显存来临时存储上下文信息,普通算力设备根本无法承载;若选择微调模型适配新任务,则需要投入大量算力资源和时间成本,且每处理一类新文档都需重复操作,效率极低。这种矛盾,直接限制了大模型在法律、医疗、科研等长文本密集领域的落地速度。

Sakana AI给出了第三条路径——依托“超网络”架构推出的T2L和D2L两项技术。与传统微调不同,这两项技术无需对大模型本身进行重新训练,而是通过超网络快速生成极小的LoRA(低秩适配)插件,让大模型在秒级内“内化”海量文档或掌握新任务。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创