综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Mistral AI于1月17日宣布,其Codestral编程模型更新至25.01版。此次更新显著提升了模型的上下文处理能力,支持高达25.6万个Token,并新增对超过80种编程语言的支持,包括Python、Java、JavaScript等主流语言。新模型在HumanEval各语言测试中的平均准确率达到71.4%,并在Fill-In-the-Middle任务中刷新多项基准测试记录,Pass@1测试平均通过率高达95.3%。
原文链接
一夜之间,开源编程大模型领域迎来新巨头!欧洲OpenAI的Mistral发布了Codestral,仅用22亿参数量便超越了70B的Code Llama,能在80多种编程语言上表现出色,包括Python、Java和COBOL(后者依赖于全球43%的银行系统)。Codestral的窗口长度显著提升,甚至解决了一些GPT-4和Claude3-Opus难以完成的任务。模型支持多种语言,如SQL,且在多项评测中取得最佳成绩。此外,Mistral迅速响应,已开始支持Codestral并提供HuggingFace权重下载、多种框架集成及专属API测试。值得注意的是,Codestral采用MNPL非生产许可协议,仅限于研究用途,未来还将发布更多Apache 2.0协议的模型。
原文链接
5月30日,法国AI初创公司Mistral AI推出首款专为编程设计的大模型Codestral,拥有220亿参数,支持Python、Java等80多种编程语言,包括古董级的Fortran。相较于CodeLlama 70B、DeepSeek Coder 33B和Llama 3 70B,Codestral凭借3.2万token的上下文长度,在SQL和Python基准测试中表现出色,例如在MBPP Python测试中,Codestral得分78.2%,优于DeepSeek Coder 3B的80.2%。Mistral AI展示的这些成绩表明Codestral在多语言编程任务中具有竞争力。
原文链接
加载更多
暂无内容