ChatGPT / AI新闻聚合
10:57 · 2024年7月17日 · 周三
Mistral 发布了2个7B小模型: Codestral Mamba 7B 和 Mathstral 7B
via
XiaoHu.AI学院
(author: 小互)
Telegraph
Mistral 发布了2个7B小模型: Codestral Mamba 7B 和 Mathstral 7B
Mistral 通过 Mamba 2架构训练了一个7B 的代码模型:Codestral Mamba,以及新推出一个与 Mistral 7B 相同的架构的数学推理和科学发现的模型:Mathstral 7B Codestral Mamba超越了 DeepSeek QwenCode,成为小于 10B 参数的最佳模型,并且可以与 Codestral 22B 竞争,并且支持256K的上下文。 与传统的Transformer模型不同,Mamba模型在处理时间上更高效,并且可以处理无限长度的输入序列。用户可以免费使用…
Home
Tags
Powered by
BroadcastChannel
&
Sepia
oaibest.com
2023-2025
[email protected]