原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。

【新智元导读】最近,7B小模型又成为了AI巨头们竞相追赶的潮流。继谷歌的Gemma27B后,Mistral今天又发布了两个7B模型,分别是针对STEM学科的Mathstral,以及使用Mamaba架构的代码模型Codestral Mamba。

Mistral又惊喜上新了!

就在今天,Mistral发布了两款小模型:Mathstral7B和Codestral Mamba7B。

首先是专为数学推理和科学发现设计的Mathstral7B。

在MATH基准测试中,它获得了56.6% pass@1的成绩,比Minerva540B提高了20%以上。Mathstral在MATH上的得分为68.4%,使用奖励模型得分为74.6%。

而代码模型Codestral Mamba,是首批采用Mamba2架构的开源模型之一。

它是可用的7B代码模型中最佳的,使用256k token的上下文长度进行训练。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

两款模型均在Apache2.0许可证下发布,目前权重都已上传HuggingFace仓库。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

Hugging Face地址:https://huggingface.co/mistralai

Mathstral

有趣的是,根据官宣文章,Mathstral的发布恰好庆祝了阿基米德2311周年诞辰。

Mathstral专为STEM学科设计,以解决需要复杂、多步骤推理的高级数学问题。参数仅有7B,上下文窗口为32k。

而且,Mathstral的研发还有一个重量级的合作伙伴——上周刚刚在Kaggle第一届AI奥数竞赛中得到冠军宝座的Numina。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

而且,有推特网友发现,Mathstral可以正确回答「9.·11和9.9哪个更大」这个难倒一众大模型的问题。

整数、小数分开比较,思维链清清楚楚,可以说是数学模型优秀作业的典范了。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

基于Mistral7B的语言能力,Mathstral进一步聚焦STEM学科。根据MMLU的学科分解结果,数学、物理、生物、化学、统计学、计算机科学等领域都是Mathstral的绝对优势项目。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

根据官方博客文章的透露,Mathstral似乎牺牲了一些推理速度以换取模型性能,但从测评结果来看,这种权衡是值得的。

在多个数学、推理领域的基准测试中,Mathstral打败了Llama38B、Gemma29B等流行的小模型,特别是在AMC2023、AIME2024这类数学竞赛题上达到了SOTA。

原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳

而且,还可以进一步增加推理时间以取得更好的模型效果。

如果对64个候选使用多数投票(majority voting),Mathstral在MATH上的分数可以达到68.37%,进一步添加额外的奖励模型,还能取得74.59%的高分。

除了HuggingFace和la Plateforme平台,还可以调用官方发布的Mistral-finetune和Mistral Inference两个开源SDK,使用或微调模型。

Codestral Mamba

继沿用Transformer架构的Mixtral系列发布后,第一个采用Mamba2架构的代码生成模型Codestral Mamba也问世了。

而且,研发过程也得到了Mamba原作者Albert Gu和Tri Dao的协助。

有趣的是,官宣文章专门cue到了和

免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系