
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
5月8日,英伟达开源了其OCR(Open Code Reasoning)代码推理AI模型套装,包含32B、14B和7B三种参数规模,均采用Apache 2.0许可证发布,并可在Hugging Face平台下载。OCR模型基于Nemotron架构训练,专为多语言、多任务优化。其中,32B模型适用于高性能场景,14B模型平衡性能与资源消耗,7B模型则适合资源受限环境。32B模型还推出指令微调版本,兼容多种主流框架。在LiveCodeBench基准测试中,OCR模型全面超越OpenAI的o3-Mini和o1(low)模型,展现了强大的代码推理能力。该成果得益于英伟达定制的高质量OCR数据集,聚焦指令遵循、推理及多步骤问题解决能力。
原文链接
今日,《科创板日报》报道,Kimi最新模型k1.6曝光,据LiveCodeBench测试显示,k1.6编程能力超越GPT o3-mini、o1等模型。k1.6基于k1.5进行训练,性能仍在提升。月之暗面研究员Flood及联合创始人张予彤均对k1.6表示期待。目前k1.6尚未正式发布。(记者 李明明)
原文链接
2月27日,Kimi最新模型k1.6在LiveCodeBench上超越GPT o3mini、o1等模型,在代码生成测试中登顶。k1.6基于k1.5训练,性能仍在提升中。尽管k1.6尚未正式发布,月之暗面团队对此表示高兴并期待其持续进化。月之暗面曾因DeepSeek的开源低成本高性能受到刺激,决定继续坚持SOTA的基础模型训练,并探索新的应用机会,如DeepResearch。
原文链接
DeepSeek R1 Preview 模型亮相,其代码能力与 OpenAI o1 中档推理设置相当,并确认开源。该模型在未正式发布的情况下已在 LiveCodeBench 基准测试中霸榜前三,展现了强大的推理能力。LiveCodeBench 由 UC 伯克利、MIT 和康奈尔大学团队推出,全面评估大模型的代码能力。DeepSeek 团队还帮助解决了一些评分系统中的 bug。网友们对这一开源模型充满期待,认为这可能改变2025年的编程方式。
原文链接
加载更多

暂无内容