StarCoder2拥有三种不同规模的模型,参数量分别为3B、7B和15B。特别地,15B参数的StarCoder2在超过4万亿个token和600多种编程语言上接受了训练,这些训练数据来自于更新且质量更高的代码数据集——Stack v2。所有的StarCoder2模型均采用分组查询注意力机制,具有16384个token的上下文窗口和4096个token的滑动窗口注意力,采用Fill-in-the-Middle训练方法。
StarCoder2:专为编程代码生成和分析而设计开源模型
-
by 小互
- Categories: AI 项目, XiaoHu.AI日报
Related Content
Meta AI提出了一种新的语言模型架构“Large Concept Model (LCM) 让模型更像人类思考
by
小互
2024年12月25日
阿里巴巴推出QVQ-72B 一个基于Qwen2-VL-72B的新型多模态推理模型
by
小互
2024年12月25日
Fireworks AI新功能 能够将图像或PDF等非文本内容转化为LLM可理解的结构化文本
by
小互
2024年12月24日
Hume AI推出全能文本与语音引擎 OCTAVE 根据文本实时生成特定人格特质的声音
by
小互
2024年12月24日
Anthropic 公布了一种全新的 AI 越狱技术 可以轻松破解所有前沿模型
by
小互
2024年12月23日