综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月12日,千寻智能的具身智能模型Spirit v1.5在RoboChallenge真机评测榜上以总分66.09、成功率50.33%的成绩超越美国Physical Intelligence的Pi0.5,登顶榜首,成为首个成功率超50%的国产模型。Spirit v1.5在插花、水果入篮、挂牙刷杯等任务中表现优异,尤其在“寻找绿盒”任务中成功率达90%,并以多样化预训练数据策略显著提升泛化能力。团队同步开源模型权重、推理代码及样例,推动研究社区复现与探索。千寻智能由韩峰涛和高阳于2024年创立,致力于通用人形机器人与具身大模型的研发,其技术已在宁德时代产线落地。此次登顶被视为具身智能领域的重要里程碑。
原文链接
2026年1月,北京版幻方量化公司九坤投资开源了SOTA代码大模型IQuest-Coder-V1系列,引发国内外科技圈热议。该模型40B参数版本在SWE-Bench Verified榜单中取得81.4%的成绩,超越Claude Opus-4.5和GPT-5.2。模型支持多种参数规模(7B、14B、4...
原文链接
2025年12月26日,智元机器人宣布旗下远征A2旗舰版人形机器人完成V1.3版本更新。此次升级显著提升性能,行走速度从0.8m/s提高至1.2m/s,自主导航速度增至0.8m/s。新增功能包括‘灵动待机’、自定义问候语、语音操控全流程、边走边做动作、智能避障等。此外,新增全身舞蹈《加速时刻》《觉醒时分》,并支持蓝牙音响和硅基送功能。客户端同步升级,优化单人运输体验。远征A2于去年8月发布,采用拟人构型设计,支持多模交互与智能体验,具备可靠移动性和便捷维护特性,提供电池快换及充电两种补能方式。
原文链接
2025年11月18日,邦彦技术在中国国际高新技术成果交易会发布NuwaAI V1.0,引发广泛关注。新版本以“一句话生成可执行任务的数字人”为核心,实现从内容展示到任务执行的跃迁。用户通过自然语言指令即可生成具备身份设定、表达能力和任务执行能力的数字人,适用于教育、商业、媒体等领域。系统支持生成视频内容、行业角色设定及可执行任务卡,覆盖主持、讲解、直播等场景。发布会上,数字人全程主持,展示上下文理解与结构化内容生成能力。专家认为,其多语言支持和任务即时执行功能将推动数字生产力向“流程生成”迈进,为数字经济发展提供支持。
原文链接
正文:2025年11月9日,中国科学院在世界互联网大会乌镇峰会上发布“磐石 V1.5”,这是一站式科研平台的最新升级版本。平台新增“磐石・创新评估”和“磐石・智能体工厂”两大功能,强化了科学推理、文献调研及跨学科支持能力。其科学基础大模型提升了多模态推理与数据预测精度,文献罗盘实现效能跃升,处理效率提高2.4倍。该平台已在天体物理、能源材料和力学工程领域取得突破性应用,如恒星参数反演提速、材料逆向设计周期缩短至30分钟、高铁气动仿真分析时间降至秒级。“磐石”现已全面开源,助力全球科研创新。
原文链接
2025年9月10日,中国国际服务贸易交易会在北京首钢园开幕,小猿携全系智能软硬件亮相教育专题展。展出产品包括小猿AI学习机T4、小猿学练机等硬件及“小猿AI”软件,展示了AI与教育深度融合的创新成果。其中,T4学习机搭载“AI超拟人1V1老师”,模拟真人教学逻辑,提供个性化辅导;小猿学练机以护眼墨水屏和数据驱动学习方案获好评,并已在北京市平谷区试点应用,提升学生自学效率。此外,“小猿AI”免费开放,覆盖多场景学习需求,新增心理健康守护功能,推动教育普惠。小猿系列通过技术赋能,助力智慧校园建设与因材施教落地。
原文链接
2025年9月,华为发布开源模型openPangu-Embedded-7B-v1.1,创新实现快慢思考模式自由切换,在精度不变的前提下将思维链长度缩短近50%。该模型通过渐进式微调和快慢自适应机制,既能手动切换模式,也能根据任务难度自动调整,大幅提升效率与灵活性。此外,华为还推出轻量级1B模型openPangu-Embedded-1B,专为边缘AI优化,性能媲美更大规模模型。两款模型已在GitCode平台开源,为国产自研大模型领域带来新突破,有望在多场景中展现应用潜力。
原文链接
埃隆·马斯克今日在X平台透露,星舰第10次试飞将于当地时间8月24日(周日)进行。此次任务将尝试上下级火箭分离、部署8枚卫星模拟器、Raptor发动机太空重启及印度洋受控溅落,下级火箭计划降落在墨西哥湾。这是今年星舰的第4次试飞,此前3次因上级火箭问题未能完全成功。此外,马斯克还宣布Grok 5将于下个月开始训练,特斯拉Autopilot V14也将在同期推出。6月18日,原定用于Flight 10的Ship 36曾因地面试车爆炸受损。
原文链接
2025年7月27日,英伟达发布全新开源模型Llama Nemotron Super v1.5,专为复杂推理和智能体任务设计。该模型在科学、数学、编程等领域实现推理性能SOTA,吞吐量提升至前代3倍,且支持单张H100 80GB显卡运行。通过神经架构搜索(NAS)优化,模型采用非标准模块设计,跳过注意力层或调整前馈网络宽度以减少计算成本。训练数据涵盖400亿token,并结合监督微调与强化学习提升表现。模型现已开源,可通过Hugging Face下载。Llama Nemotron Super v1.5隶属于Nemotron生态,覆盖Nano、Super、Ultra三大系列,分别适配边缘设备、单卡高效运行和数据中心高精度需求。目前,该生态已获多家企业支持,广泛应用于AI智能体开发与云端部署。
原文链接
500美元刷新SOTA!训练成本砍到1/200,华人团队重构视频生成范式
你可能听说过OpenAI的Sora,这款耗费数百万视频和千万美元训练的AI视频模型。但你能想象,仅用3860段视频和不到500美元成本,也能在关键任务上达到顶级性能(SOTA)吗?
香港城市大学等团队联合发布了全新图像...
原文链接
加载更多
暂无内容