首页 > Ai资讯 > Ai日报 > 阿里云发布其第一个MoE模型:Qwen1.5-MoE-A2.7B 匹敌7B性能

阿里云发布其第一个MoE模型:Qwen1.5-MoE-A2.7B 匹敌7B性能

发布时间:2024年05月18日

Qwen团队发布了他们的新型混合专家(MoE)模型——Qwen1.5-MoE-A2.7B,这是一款只有2.7亿激活参数的小型MoE模型,但其性能却能匹配到像Mistral 7B和Qwen1.5-7B这样的7B参数模型。与Qwen1.5-7B相比,Qwen1.5-MoE-A2.7B大大减少了训练成本,降低了75%,并将推理速度提高了1.74倍,有效提高了资源利用率,同时保持了出色的性能。

这一更新不仅是模型功能和性能的提升,也预示着Qwen模型从当前版本向更高级版本Qwen2的转变。Qwen1.5携带了若干重要的更新和优化,为未来Qwen2版本的发布铺垫了基础。

Support authors and subscribe to content

This is premium stuff. Subscribe to read the entire article.

Subscribe

Gain access to all our Premium contents.
More than 100+ articles.

如果你想要了解关于智能工具类的内容,可以查看 智汇宝库,这是一个提供智能工具的网站。
在这你可以找到各种智能工具的相关信息,了解智能工具的用法以及最新动态。