1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
源 Yuan 3.0 Flash 多模态基础大模型开源发布:40B 参数规模,单次推理仅激活约 3.7B
正文:12月30日,浪潮旗下YuanLab.ai团队开源发布源Yuan 3.0 Flash多模态基础大模型。该模型参数规模达40B,采用稀疏混合专家(MoE)架构,单次推理仅激活约3.7B参数,显著降低算力成本。通过强化学习训练方法(RAPO)和反思抑制奖励机制(RIRM),提升推理准确性并减少token消耗。模型由视觉编码器、语言主干网络及多模态对齐模块组成,支持高分辨率图像理解与跨模态特征对齐。在企业场景任务中,其表现优于GPT-5.1,精度接近Qwen3-VL235B-A22B与DeepSeek-R1-0528,但token消耗仅为1/4~1/2。Yuan 3.0 Flash已全面开源,代码与参数可免费下载。
未来笔触
12-31 18:32:57
Yuan 3.0 Flash
多模态基础大模型
稀疏混合专家架构
分享至
打开微信扫一扫
内容投诉
生成图片
GPT-5.2 生成字母挂图错误频出,“人类专家水平”遭质疑
12月11日,OpenAI发布ChatGPT-5.2,称其为首个达到或超越人类专家水平的模型。然而,12月18日外媒Futurism报道,该模型在生成按字母顺序排列的动物挂图时错误频出。首席策略师彼得・贝雷津测试发现,模型遗漏字母、插图异常,如肢体怪异的袋鼠和长两条尾巴的鬣蜥,且多次重复错误。例如,生成内容仅含24或25个字母,‘U’和‘Z’常被忽略,结尾出现重复‘X’,插图与描述不符(斑马代替X光鱼)。此外,提示语被直接混入生成内容。这一问题引发对‘专家水平’说法的质疑,贝雷津调侃OpenAI需加大投入。
AI思维矩阵
12-20 17:58:06
GPT-5.2
人类专家水平
字母挂图
分享至
打开微信扫一扫
内容投诉
生成图片
Deepseek-R1 等 AI 模型测试:英伟达 GB200 NVL72 性能较 HGX 200 提升 10 倍
12月3日,科技媒体Wccftech报道,英伟达GB200 NVL72 AI服务器在‘混合专家’模型测试中取得重大突破,性能较上一代HGX 200提升10倍。测试基于Deepseek-R1等开源大语言模型,验证了其显著的计算效率。GB200采用72芯片配置、30TB共享内存及第五代NVLink技术,通过协同设计和全栈优化(如NVIDIA Dynamo框架)大幅提升专家并行计算能力。此外,新数据格式NVFP4进一步提升了性能与精度。这一进展解决了MoE模型扩展瓶颈,满足AI算力需求,巩固了英伟达在AI服务器市场的领导地位。
AI幻想空间站
12-04 12:20:54
GB200 NVL72
混合专家模型
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
华为盘古 Ultra-MoE-718B-V1.1 正式开源并开放下载,模型权重与技术细节全面公开
10月16日,华为宣布盘古Ultra-MoE-718B-V1.1大模型正式开源,模型权重与技术细节全面公开,可在GitCode平台下载。该模型基于昇腾NPU训练,总参数规模达718B,激活参数量为39B,融合“快思考”与“慢思考”能力,支持多轮工具调用和模式切换。相比V1.0版本,V1.1在幻觉控制、工具调用及综合性能上显著提升,幻觉率从10.11%降至3.85%,并新增Int8量化版本,显存占用减少一半,吞吐提升20%。此前,该模型在SuperCLUE榜单中位列开源模型第三,尤其在数学推理、代码生成等领域表现优异。硬件需Atlas 800T A2(≥32卡)支持。官方地址已公布。
量子思考者
10-16 17:57:55
华为盘古
开源模型
混合专家
分享至
打开微信扫一扫
内容投诉
生成图片
GPT-5与Claude在部分工作中可媲美人类专家
9月26日,OpenAI发布新基准测试,评估其AI模型与行业专家的工作表现。结果显示,GPT-5-high在40.6%的任务中媲美或超越人类专家,而Anthropic的Claude Opus 4.1在49%的任务中达到类似水平。OpenAI指出,Claude得分更高部分因其擅长生成美观图表,而非单纯性能优势。这一测试凸显AI在专业领域的快速进步,引发对人机协作未来的更多讨论。
电子诗篇
09-26 08:21:08
Claude
GPT-5
行业专家
分享至
打开微信扫一扫
内容投诉
生成图片
美团发布并开源混合专家模型:5600亿参数 只激活5%就有奇效
正文:2025年9月1日,美团发布并开源了LongCat-Flash-Chat AI模型,采用混合专家架构,总参数量达5600亿,但仅激活5%即可实现高效性能。该模型在智能体任务、推理速度及成本控制上表现突出,尤其适合复杂场景应用。其创新的“零计算专家”机制和跨层通道设计优化了算力分配与训练效率,在H800 GPU上实现100+ tokens/s推理速度,输出成本低至5元/百万token。基准测试中,LongCat-Flash在多项指标中名列前茅,例如ArenaHard-V2得分86.50,MMLU得分89.71,并在智能体工具使用和编程任务中超越更大规模模型。美团已提供SGLang和vLLM两种部署方案,代码以MIT License开源,用户可自由用于研究或蒸馏新模型。详情见其官方资源及相关页面。
LunarCoder
09-01 13:18:39
LongCat-Flash-Chat
混合专家模型
美团
分享至
打开微信扫一扫
内容投诉
生成图片
离开王慧文的两年,这位创业者赶上了梁文锋的头班车
2023年,创业者袁进辉经历了两段重要历程:3月,其创业项目OneFlow被美团联合创始人王慧文收购,随后加入光年之外;8月,他离开美团,创立硅基流动,专注AI Infra领域。2024年初,硅基流动因率先部署DeepSeek的R1模型实现流量暴涨40倍,成为行业焦点。尽管与DeepSeek创始人梁文锋在开源问题上有分歧,两家公司仍保持业务合作。2025年初,基于V3架构的R1模型爆火,引发流量风暴,硅基流动通过大规模专家并行技术迎战,提升了品牌知名度。最新一轮融资由阿里云领投,金额达数亿元。袁进辉认为,AI行业的关键在于商业化,而硅基流动将聚焦高增长,探索公有云、私有部署及海外市场,力求在竞争中抓住商机。
AI幻想空间站
08-27 09:03:24
AI Infra
商业化
大规模专家并行
分享至
打开微信扫一扫
内容投诉
生成图片
消息称智谱 GLM-4.5 今晚开源新模型,知情人士回应确有其事
7月28日,据IT之家报道,智谱AI计划于今晚开源其GLM-4.5系列新模型。知情人士向新浪科技确认了这一消息。根据此前modelscope/ms-swift代码库的commit记录,GLM-4.5系列预计将采用全新的混合专家(MoE)结构,是一款多模态可扩展大模型,包含GLM-4.5(355B-A32B)和GLM-4.5-Air(106B-A12B)两款版本。该模型支持高吞吐推理、工具调用解析、分布式负载均衡等功能,并具备文本、图像、视觉扩展等多模态处理能力。此次发布可能为AI领域带来技术革新,引发广泛关注。
AI奇点纪元
07-28 16:20:04
开源模型
智谱GLM-4.5
混合专家结构
分享至
打开微信扫一扫
内容投诉
生成图片
智谱 GLM-4.5 系列 AI 模型踪迹曝光,预估采用新混合专家架构
7月25日,智谱AI模型GLM-4.5系列踪迹曝光,预计采用全新混合专家(MoE)架构,定位为多模态可扩展大模型。该系列包括GLM-4.5(355B-A32B)和GLM-4.5-Air(106B-A12B)两款模型,支持文本、图像、视觉扩展等多模态功能。新架构具备高吞吐推理、分布式负载均衡、工具调用解析等特性,并新增推理解析器与多token预测能力。相关代码与特性已在modelscope/ms-swift代码库中显示,或成AI领域新突破。
未来编码者
07-25 14:26:13
GLM-4.5
智谱
混合专家架构
分享至
打开微信扫一扫
内容投诉
生成图片
AI打假AI,拿下SOTA丨厦大&腾讯优图
标题:AI打假AI,拿下SOTA丨厦大&腾讯优图 正文: AI生成图像越来越逼真,能否用AI检测“魔法打败魔法”?厦门大学与腾讯优图实验室联合提出创新方法“AIGI-Holmes”,通过“大模型+视觉专家”协同架构,让AI学会检测并描述图像问题。 核心创新点: 1. 双视觉编码器架构...
代码编织者
07-20 15:08:21
AI生成图像检测
多模态大语言模型
视觉专家
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序