首页 > Ai资讯 > Ai日报 > 将 Gemma 2B 的上下文窗口扩展到 1000万的技术方法

将 Gemma 2B 的上下文窗口扩展到 1000万的技术方法

发布时间:2024年05月18日

Gemma-10M 模型使用一种称为 Infini-Attention 的技术,将 Gemma 2B 的上下文窗口扩展到 10M。其主要方法是通过循环局部注意力和压缩记忆,实现长距离依赖关系的保留。

特性:

Support authors and subscribe to content

This is premium stuff. Subscribe to read the entire article.

Subscribe

Gain access to all our Premium contents.
More than 100+ articles.

如果你想要了解关于智能工具类的内容,可以查看 智汇宝库,这是一个提供智能工具的网站。
在这你可以找到各种智能工具的相关信息,了解智能工具的用法以及最新动态。