
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Mistral AI于1月17日宣布,其Codestral编程模型更新至25.01版。此次更新显著提升了模型的上下文处理能力,支持高达25.6万个Token,并新增对超过80种编程语言的支持,包括Python、Java、JavaScript等主流语言。新模型在HumanEval各语言测试中的平均准确率达到71.4%,并在Fill-In-the-Middle任务中刷新多项基准测试记录,Pass@1测试平均通过率高达95.3%。
原文链接
法国AI初创公司Mistral AI近日推出两款创新AI模型:Codestral Mamba 7B(专为程序员设计,处理长文本速度快,输入上限是GPT-4的两倍)和Mathstral 7B(数学推理模型,32K上下文窗口,开源并具备微调功能)。这两款新模型表明Mistral AI在大模型竞赛中崭露头角,尤其在代码生成和数学应用上超越竞品。随着Mistral AI在B轮融资中获得6.4亿美元,估值逼近60亿美元,显示出AI工具专业化和开源合作的强劲势头,推动AI领域的发展。
原文链接
欧洲OpenAI与"Transformer挑战者"合作,Mistral AI推出基于Mamba2架构的开源代码生成模型Codestral Mamba(7B),支持无限长度输入。该模型在256k token上下文中超越了多个7B和34B规模的代码生成模型。Mistral AI同时发布了数学模型Mathstral(7B),专注于STEM领域,且表现出在数学问题解决上的优势。Mamba初代论文虽曾被ICLR拒稿,但已被CoLM2024会议接收,显示Mamba架构的革新影响力。
原文链接
一夜之间,开源编程大模型领域迎来新巨头!欧洲OpenAI的Mistral发布了Codestral,仅用22亿参数量便超越了70B的Code Llama,能在80多种编程语言上表现出色,包括Python、Java和COBOL(后者依赖于全球43%的银行系统)。Codestral的窗口长度显著提升,甚至解决了一些GPT-4和Claude3-Opus难以完成的任务。模型支持多种语言,如SQL,且在多项评测中取得最佳成绩。此外,Mistral迅速响应,已开始支持Codestral并提供HuggingFace权重下载、多种框架集成及专属API测试。值得注意的是,Codestral采用MNPL非生产许可协议,仅限于研究用途,未来还将发布更多Apache 2.0协议的模型。
原文链接
5月30日,法国AI初创公司Mistral AI推出首款专为编程设计的大模型Codestral,拥有220亿参数,支持Python、Java等80多种编程语言,包括古董级的Fortran。相较于CodeLlama 70B、DeepSeek Coder 33B和Llama 3 70B,Codestral凭借3.2万token的上下文长度,在SQL和Python基准测试中表现出色,例如在MBPP Python测试中,Codestral得分78.2%,优于DeepSeek Coder 3B的80.2%。Mistral AI展示的这些成绩表明Codestral在多语言编程任务中具有竞争力。
原文链接
加载更多

暂无内容