Home 开源项目案例库 AI 论文 将 Gemma 2B 的上下文窗口扩展到 1000万的技术方法 by 小互 9月 ago Share on FacebookShare on Twitter Gemma-10M 模型使用一种称为 Infini-Attention 的技术,将 Gemma 2B 的上下文窗口扩展到 10M。其主要方法是通过循环局部注意力和压缩记忆,实现长距离依赖关系的保留。 特性:Support authors and subscribe to contentThis is premium stuff. Subscribe to read the entire article.Login if you have purchased 加入会员 加入会员查看更多会员内容和教程。 超过1000+的会员内容,每天更新。 开通会员 Categories: AI 论文, AI 项目 Related Content Meta AI提出了一种新的语言模型架构“Large Concept Model (LCM) 让模型更像人类思考 by 小互 2024年12月25日 阿里巴巴推出QVQ-72B 一个基于Qwen2-VL-72B的新型多模态推理模型 by 小互 2024年12月25日 Fireworks AI新功能 能够将图像或PDF等非文本内容转化为LLM可理解的结构化文本 by 小互 2024年12月24日 Hume AI推出全能文本与语音引擎 OCTAVE 根据文本实时生成特定人格特质的声音 by 小互 2024年12月24日 Anthropic 公布了一种全新的 AI 越狱技术 可以轻松破解所有前沿模型 by 小互 2024年12月23日