Tensorplex AI是由Tensorplex Labs打造的去中心化AI开发平台,核心定位是依托去中心化技术打造AI开发所需的基础设施、工具与应用,推动开源AI生态开放发展。平台聚焦前沿AI技术研究,推出的多个开源大模型在性能上超越了不少主流知名开源模型,可满足AI科研、前端开发等多领域的技术需求,相较于传统中心化AI开发平台,更偏向开源开放,为全球AI开发者提供免费开放的模型资源与技术支撑。
平台目前公开了两个核心大模型落地案例,其一为Sumo-T9-7B通用大模型,该模型性能表现突出,已在公开测试中超越了TII Falcon 7B以及Meta Llama-2-7b-hf等知名开源7B参数模型,可适配多种通用AI开发场景,输出效果更稳定。其二为DOJO-INTERFACE-CODER-7B,作为专门面向前端开发的大语言模型,可生成复杂逻辑、交互性强、视觉效果美观的前端界面代码,能直接满足前端开发的原型代码生成需求。此外平台还发布了参数高效checkpoint合并的前沿研究成果,为PEFT方向优化提供了新思路。
定位差异化明显,聚焦去中心化AI基础设施建设,区别于传统中心化AI开发平台,更偏向开放共享的开源生态建设;模型性能有优势,平台推出的Sumo-T9-7B大模型性能超越多个同参数规模的知名开源模型,能提供更优的推理效果;垂直领域专业化,针对前端开发场景打造专门的大模型,比通用大模型生成的前端代码质量更高;所有研究成果与模型资源面向全球开发者开放,有效降低AI开发的技术门槛与成本。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
1 天前
GitHub近日宣布暂时关闭AI编码辅助工具Copilot的新用户注册通道,核心原因是大量用户运行长周期、并行化的智能体AI编码会话,已超出Copilot原有个体服务架构的承载上限。平台同时宣布将收紧现有用户的使用限额,该事件也成为生成式AI工具商业化落地阶段,基建供给跟不上需求爆发的典型样本。

2 天前
2026年4月19日,阿里云千问团队正式面向全球开发者开源中等尺寸混合专家大模型Qwen3.6-35B-A3B。该模型总参数量达350亿,依托混合专家MoE架构设计,实际推理阶段仅激活30亿参数,可显著降低开发者的算力使用成本。在多项权威AI基准测试中,其性能超越前代产品,可媲美更大参数量的稠密模型,同时新增多模态思考能力。

2 天前
近日AI团队灵光推出定位“AI应用版GitHub”的新型开发协作平台,引发AI开发领域关注。资深科技记者陈骏达分析指出,当前AI Coding已经历三轮演进,从代码补全、对话生成代码发展到Agentic Coding自动生成完整项目,写代码正快速商品化,但AI应用仍未实现大规模爆发,核心痛点卡在应用部署与分发环节。

2 天前
2026年4月20日,爱奇艺创始人兼CEO龚宇在爱奇艺世界大会上正式宣布,公司将启动AI赋能的去中心化内容生态转型,全面开放创作者自主上传通道。龚宇指出,AI技术可显著降低内容制作的成本与周期,预计将带动平台创作者和作品数量实现大幅增长,平台将逐步转型为创作者与用户共同参与的开放社区,目前爱奇艺正急需兼具AI技术与艺术创作能力的复合型人才。

5 天前
2026年4月17日,阿里通义千问团队正式发布旗下首个开源Qwen3.6系列混合专家(MoE)模型Qwen3.6-35B-A3B。该模型总参数量350亿,实际激活参数仅30亿,主打轻量高效特性,在编程、视觉两项核心能力上实现升级,视觉表现直逼Claude Sonnet 4.5,同时兼容OpenClaw开发框架,适配第三方智能体开发需求。

6 天前
2026年4月16日,腾讯混元团队正式发布并开源新一代多模态世界模型混元3D世界模型2.0(HY-World2.0)。该版本实现了从生成视频到产出可交互、可编辑3D资产的功能升级,支持文本、图像、视频三类模态输入,可自动生成包含人、物、景的完整3D空间,兼容多种3D格式导出,能无缝对接Unity、UE等主流游戏引擎,为3D创作与游戏开发领域提供了新的开源工具。

7 天前
4月15日,百度旗下文心大模型团队正式开源8B参数规模的文生图模型ERNIE-Image,该模型可在显存24GB的消费级GPU上正常运行,同步还推出了加速版本ERNIE-Image-Turbo。在GenEval、OneIG等多项国际权威基准测试中,该模型综合得分领跑同类开源模型,文字渲染能力达到与闭源商业模型Nano Banana同级的第一梯队水平。

8 天前
近日开发者JeecgBoot在Mac Studio M4Max设备上完成Claude Code对接本地大模型的实测,测试采用社区魔改蒸馏的gemma-4-26b-a4b-it-claude-opus-heretic-ara模型,对比官方原版Gemma 4,生成速度实现5~6倍提升,最高可达78tok/s,该模型采用稀疏激活MoE架构,支持256K上下文,为本地AI开发提供了新的实践参考。