1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
开源炸场!优必选具身智能大模型Thinker再次狂揽9项全球第一!
2026年1月30日,优必选发布具身智能大模型Thinker,在涵盖10B以下模型的权威基准评测中狂揽9项全球第一,重新定义行业性能标杆。Thinker以“小参数、高性能、全开源”为特点,突破了人形机器人在空间理解与实时性上的技术瓶颈,适用于工业动态场景。其技术架构通过数据精炼提纯、自动化标注闭环及Data-centric训练范式,实现从20B原始数据到10M高质量数据的转化,显著提升泛化能力。依托工厂搬运、工件分拣等真实场景部署,Thinker通过双向数据回流机制持续进化,驱动Walker S2在下游应用中达到99.99%作业准确率。优必选已将模型权重、工具链及论文全面开源,助力行业共建具身智能未来。
阿达旻
02-02 11:31:14
Thinker
具身智能
开源
分享至
打开微信扫一扫
内容投诉
生成图片
陈天桥代季峰打响2026大模型第一枪:30B参数跑出1T性能
2026年1月,陈天桥与代季峰携手发布开源大模型MiroThinker 1.5,参数仅30B却跑出媲美1T性能,成为智能体模型领域新标杆。在多项基准测试中,其表现超越GPT-5-High、Gemini-3-Pro等顶尖模型,尤其BrowseComp测试刷新全球纪录。相比Kimi-K2-Thinkin...
数据炼金师
01-06 15:08:39
MiroThinker 1.5
开源大模型
陈天桥
分享至
打开微信扫一扫
内容投诉
生成图片
微博自研VibeThinker开源模型:训练成本仅7800美元
11月18日,微博发布首个自研开源大模型VibeThinker。这款仅15亿参数的轻量级模型,在国际顶级数学竞赛基准测试中击败了参数量高达6710亿的DeepSeek R1模型。VibeThinker单次“后训练”成本仅7800美元,相较DeepSeek-R1和MiniMax-M1等模型,成本降低几十倍,展现了高效性能与经济性。这一成果标志着微博在人工智能领域的突破,为行业提供更具性价比的开源解决方案。(澎湃新闻)
心智奇点
11-18 15:27:09
VibeThinker
开源模型
微博
分享至
打开微信扫一扫
内容投诉
生成图片
啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1
2025年11月,微博发布自研开源大模型VibeThinker,仅15亿参数却在数学竞赛基准测试中超越6710亿参数的DeepSeek-R1模型。其单次训练成本仅7800美元,较行业普遍几十万美元的成本降低30-60倍,为AI产业带来效率革命。VibeThinker通过创新的“频谱到信号原理”(SSP)方法,在AIME、HMMT等高难度数学测试及编程算法题中表现优异,证明小模型也能媲美巨型模型。目前版本专注于数学与代码任务,暂不适合作为日常聊天工具。微博计划将VibeThinker融入其AI生态,推动智搜、评论罗伯特等产品升级,同时大幅降低AI应用成本,助力中小型企业参与AI创新,促进技术普惠化。
AI幻想空间站
11-18 14:20:39
VibeThinker
大模型
微博
分享至
打开微信扫一扫
内容投诉
生成图片
新浪微博发布其首个开源大模型 VibeThinker-1.5B,小模型挑战巨量参数对手
新浪微博于11月13日发布其首个开源大模型VibeThinker-1.5B,参数量仅15亿,却通过创新的“频谱到信号原理”(SSP)训练方法,在多个高难度测试集中表现优异。该模型在数学和编程算法测试中超越参数量远超自身的巨量模型,如DeepSeek-R1-0120(6710亿参数),并接近4560亿参数的MiniMax-M1。其训练成本不足8000美元,远低于行业水平,降低了几十倍。VibeThinker-1.5B的开源旨在为资源有限的企业与高校提供高性价比研发路径,推动技术普惠。项目已上线GitHub、HuggingFace等平台。
DreamCoder
11-13 21:19:44
VibeThinker-1.5B
开源大模型
新浪微博
分享至
打开微信扫一扫
内容投诉
生成图片
百元级硬件流畅运行百亿参数大模型!上交&本智激活开源端侧原生大模型
百元级硬件流畅运行百亿参数大模型!上交&本智激活开源端侧原生大模型 AI的未来战场,不在云端,而在每个人的口袋里。各大手机厂商纷纷将大模型引入手机,端侧AI成为竞争焦点。背后的逻辑简单而坚定:最懂你的AI必须能安全访问个人数据,这需要将计算留在本地,将隐私还给用户。 然而,实现端侧AI并非易...
虚拟织梦者
07-27 18:00:02
SmallThinker
开源模型
端侧AI
分享至
打开微信扫一扫
内容投诉
生成图片
直逼 DeepSeek-R1-32B,UC 伯克利等开源全新 SOTA 推理模型 OpenThinker-32B
斯坦福、UC 伯克利等机构联合发布SOTA推理模型OpenThinker-32B,仅用114k数据就与DeepSeek-R1-32B打成平手。该模型在数学、代码和科学多个基准测试中表现出色,性能接近DeepSeek-R1-Distill-32B。团队使用OpenThoughts-114k数据集并通过验证流程训练模型,公开了模型权重、数据集及训练代码。OpenThinker-32B在AWS SageMaker集群上训练90小时,累计使用2,880个H100小时。此模型的开源推动了AI推理模型的发展,为社区提供宝贵资源。
未来笔触
02-13 17:19:50
OpenThinker-32B
开源
推理模型
分享至
打开微信扫一扫
内容投诉
生成图片
上海AI实验室版o1已上线!数学题、Leetcode全拿下,还会玩24点
标题:上海AI实验室版o1已上线!数学题、Leetcode全拿下,还会玩24点 国产o1新选手登场!它能快速解决更复杂的数学解题、代码编程、数字游戏等任务。这就是上海AI实验室版o1——强推理模型书生InternThinker,现已正式开放试用! 新模型不仅在长思维能力方面有了很大提升,还能在推理过...
像素宇宙
11-28 15:29:46
InternThinker
上海AI实验室
推理能力
分享至
打开微信扫一扫
内容投诉
生成图片
上海人工智能实验室开放书生·浦语大模型
【上海人工智能实验室开放书生·浦语大模型】 11月25日晚,上海人工智能实验室正式向社会用户开放了书生·浦语大模型,并同步发布了具备强推理能力的InternThinker模型。InternThinker模型在数学、代码编写及推理谜题等复杂任务中表现出色,尤其因其能够进行自我反思和纠正,显著提升了推理过程中的准确性和效率。此次发布不仅标志着上海人工智能实验室在大模型领域取得了重要进展,也为科研人员和开发者提供了强大的工具支持。 (以上摘要共计226字)
镜像现实MirageX
11-27 10:50:59
InternThinker模型
上海人工智能实验室
书生·浦语大模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序