综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月10日,中国国际服务贸易交易会在北京首钢园开幕,小猿携全系智能软硬件亮相教育专题展。展出产品包括小猿AI学习机T4、小猿学练机等硬件及“小猿AI”软件,展示了AI与教育深度融合的创新成果。其中,T4学习机搭载“AI超拟人1V1老师”,模拟真人教学逻辑,提供个性化辅导;小猿学练机以护眼墨水屏和数据驱动学习方案获好评,并已在北京市平谷区试点应用,提升学生自学效率。此外,“小猿AI”免费开放,覆盖多场景学习需求,新增心理健康守护功能,推动教育普惠。小猿系列通过技术赋能,助力智慧校园建设与因材施教落地。
原文链接
2025年9月,华为发布开源模型openPangu-Embedded-7B-v1.1,创新实现快慢思考模式自由切换,在精度不变的前提下将思维链长度缩短近50%。该模型通过渐进式微调和快慢自适应机制,既能手动切换模式,也能根据任务难度自动调整,大幅提升效率与灵活性。此外,华为还推出轻量级1B模型openPangu-Embedded-1B,专为边缘AI优化,性能媲美更大规模模型。两款模型已在GitCode平台开源,为国产自研大模型领域带来新突破,有望在多场景中展现应用潜力。
原文链接
埃隆·马斯克今日在X平台透露,星舰第10次试飞将于当地时间8月24日(周日)进行。此次任务将尝试上下级火箭分离、部署8枚卫星模拟器、Raptor发动机太空重启及印度洋受控溅落,下级火箭计划降落在墨西哥湾。这是今年星舰的第4次试飞,此前3次因上级火箭问题未能完全成功。此外,马斯克还宣布Grok 5将于下个月开始训练,特斯拉Autopilot V14也将在同期推出。6月18日,原定用于Flight 10的Ship 36曾因地面试车爆炸受损。
原文链接
2025年7月27日,英伟达发布全新开源模型Llama Nemotron Super v1.5,专为复杂推理和智能体任务设计。该模型在科学、数学、编程等领域实现推理性能SOTA,吞吐量提升至前代3倍,且支持单张H100 80GB显卡运行。通过神经架构搜索(NAS)优化,模型采用非标准模块设计,跳过注意力层或调整前馈网络宽度以减少计算成本。训练数据涵盖400亿token,并结合监督微调与强化学习提升表现。模型现已开源,可通过Hugging Face下载。Llama Nemotron Super v1.5隶属于Nemotron生态,覆盖Nano、Super、Ultra三大系列,分别适配边缘设备、单卡高效运行和数据中心高精度需求。目前,该生态已获多家企业支持,广泛应用于AI智能体开发与云端部署。
原文链接
500美元刷新SOTA!训练成本砍到1/200,华人团队重构视频生成范式
你可能听说过OpenAI的Sora,这款耗费数百万视频和千万美元训练的AI视频模型。但你能想象,仅用3860段视频和不到500美元成本,也能在关键任务上达到顶级性能(SOTA)吗?
香港城市大学等团队联合发布了全新图像...
原文链接
6月19日,AI图像生成公司Midjourney推出首个AI视频生成模型V1,支持图像转视频功能,最长生成时长21秒。用户可上传图片或使用Midjourney其他模型生成的图像,V1将其转化为四段五秒视频。该模型目前仅通过Discord平台提供,初期仅支持网页端。Midjourney CEO David Holz称,此举旨在向开发能实现“实时开放世界模拟”的AI模型迈进。未来,公司将开发3D渲染及实时AI模型。值得注意的是,V1发布前一周,Midjourney因被迪士尼和环球起诉而备受关注,指控其AI图像模型生成的角色侵犯版权。定价方面,视频生成费用为图像生成的8倍,基础套餐10美元起,专业和超级套餐分别60美元和120美元,提供无限生成服务。用户可通过设置调整视频运动量和动画效果。尽管V1视频长度有限,但其超现实美感获得初步积极反馈,公司计划调整定价策略。
原文链接
标题:32B 推理模型 AM-Thinking-v1:超越 R1 的秘密
2025年,一支神秘团队低调开源了AM-Thinking-v1,一款32B稠密推理模型,在多个评测中击败DeepSeek-R1,性能媲美更大规模的MoE模型。这支名为A-M-team的团队,未依赖私有数据或海量资源,仅凭借...
原文链接
4月14日消息,字节跳动最新思考模型Seed-Thinking-v1.5的技术细节今日公开,并将于4月17日通过火山引擎开放接口供用户体验。该模型在数学、编程、科学推理等专业领域及创意写作等通用任务中表现出色,总参数200B,激活参数20B,单位推理成本较DeepSeek R1降低50%。专业领域表现上,数学推理得分为86.7,编程竞赛pass@8达55.0%,科学推理得分77.3%,均接近或达到业界领先水平。通用任务中,其人类评估表现优于DeepSeek R1 8%。模型采用双轨奖励机制,融合监督精调与强化学习优化,并基于HybridFlow编程模型和三层并行架构提升训练效率。
原文链接
字节跳动宣布,其最新思考模型Seed-Thinking-v1.5计划于4月17日通过火山引擎开放接口供用户测试体验。目前,该模型的技术报告已公开。Seed-Thinking-v1.5在数学、编程、科学推理等专业领域以及创意写作等通用任务中表现出色。该模型采用了MoE架构,总参数量达200B,但激活参数仅为20B,展现出显著的推理成本优势。据称,其单位推理成本较DeepSeek R1降低了50%,这标志着其在效率和经济性上的双重提升。
原文链接
字节新推理模型逆袭DeepSeek,200B参数战胜671B,豆包史诗级加强?
字节最新推出的深度思考模型Seed-Thinking-v1.5,在数学、代码等多项推理任务中超越了DeepSeek-R1,且参数规模更小。Seed-Thinking-v1.5拥有200B总参数和20B激活参数,而Deep...
原文链接
加载更多
暂无内容