综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
正文:12月30日,浪潮旗下YuanLab.ai团队开源发布源Yuan 3.0 Flash多模态基础大模型。该模型参数规模达40B,采用稀疏混合专家(MoE)架构,单次推理仅激活约3.7B参数,显著降低算力成本。通过强化学习训练方法(RAPO)和反思抑制奖励机制(RIRM),提升推理准确性并减少token消耗。模型由视觉编码器、语言主干网络及多模态对齐模块组成,支持高分辨率图像理解与跨模态特征对齐。在企业场景任务中,其表现优于GPT-5.1,精度接近Qwen3-VL235B-A22B与DeepSeek-R1-0528,但token消耗仅为1/4~1/2。Yuan 3.0 Flash已全面开源,代码与参数可免费下载。
原文链接
12月11日,OpenAI发布ChatGPT-5.2,称其为首个达到或超越人类专家水平的模型。然而,12月18日外媒Futurism报道,该模型在生成按字母顺序排列的动物挂图时错误频出。首席策略师彼得・贝雷津测试发现,模型遗漏字母、插图异常,如肢体怪异的袋鼠和长两条尾巴的鬣蜥,且多次重复错误。例如,生成内容仅含24或25个字母,‘U’和‘Z’常被忽略,结尾出现重复‘X’,插图与描述不符(斑马代替X光鱼)。此外,提示语被直接混入生成内容。这一问题引发对‘专家水平’说法的质疑,贝雷津调侃OpenAI需加大投入。
原文链接
12月3日,科技媒体Wccftech报道,英伟达GB200 NVL72 AI服务器在‘混合专家’模型测试中取得重大突破,性能较上一代HGX 200提升10倍。测试基于Deepseek-R1等开源大语言模型,验证了其显著的计算效率。GB200采用72芯片配置、30TB共享内存及第五代NVLink技术,通过协同设计和全栈优化(如NVIDIA Dynamo框架)大幅提升专家并行计算能力。此外,新数据格式NVFP4进一步提升了性能与精度。这一进展解决了MoE模型扩展瓶颈,满足AI算力需求,巩固了英伟达在AI服务器市场的领导地位。
原文链接
10月16日,华为宣布盘古Ultra-MoE-718B-V1.1大模型正式开源,模型权重与技术细节全面公开,可在GitCode平台下载。该模型基于昇腾NPU训练,总参数规模达718B,激活参数量为39B,融合“快思考”与“慢思考”能力,支持多轮工具调用和模式切换。相比V1.0版本,V1.1在幻觉控制、工具调用及综合性能上显著提升,幻觉率从10.11%降至3.85%,并新增Int8量化版本,显存占用减少一半,吞吐提升20%。此前,该模型在SuperCLUE榜单中位列开源模型第三,尤其在数学推理、代码生成等领域表现优异。硬件需Atlas 800T A2(≥32卡)支持。官方地址已公布。
原文链接
9月26日,OpenAI发布新基准测试,评估其AI模型与行业专家的工作表现。结果显示,GPT-5-high在40.6%的任务中媲美或超越人类专家,而Anthropic的Claude Opus 4.1在49%的任务中达到类似水平。OpenAI指出,Claude得分更高部分因其擅长生成美观图表,而非单纯性能优势。这一测试凸显AI在专业领域的快速进步,引发对人机协作未来的更多讨论。
原文链接
正文:2025年9月1日,美团发布并开源了LongCat-Flash-Chat AI模型,采用混合专家架构,总参数量达5600亿,但仅激活5%即可实现高效性能。该模型在智能体任务、推理速度及成本控制上表现突出,尤其适合复杂场景应用。其创新的“零计算专家”机制和跨层通道设计优化了算力分配与训练效率,在H800 GPU上实现100+ tokens/s推理速度,输出成本低至5元/百万token。基准测试中,LongCat-Flash在多项指标中名列前茅,例如ArenaHard-V2得分86.50,MMLU得分89.71,并在智能体工具使用和编程任务中超越更大规模模型。美团已提供SGLang和vLLM两种部署方案,代码以MIT License开源,用户可自由用于研究或蒸馏新模型。详情见其官方资源及相关页面。
原文链接
2023年,创业者袁进辉经历了两段重要历程:3月,其创业项目OneFlow被美团联合创始人王慧文收购,随后加入光年之外;8月,他离开美团,创立硅基流动,专注AI Infra领域。2024年初,硅基流动因率先部署DeepSeek的R1模型实现流量暴涨40倍,成为行业焦点。尽管与DeepSeek创始人梁文锋在开源问题上有分歧,两家公司仍保持业务合作。2025年初,基于V3架构的R1模型爆火,引发流量风暴,硅基流动通过大规模专家并行技术迎战,提升了品牌知名度。最新一轮融资由阿里云领投,金额达数亿元。袁进辉认为,AI行业的关键在于商业化,而硅基流动将聚焦高增长,探索公有云、私有部署及海外市场,力求在竞争中抓住商机。
原文链接
7月28日,据IT之家报道,智谱AI计划于今晚开源其GLM-4.5系列新模型。知情人士向新浪科技确认了这一消息。根据此前modelscope/ms-swift代码库的commit记录,GLM-4.5系列预计将采用全新的混合专家(MoE)结构,是一款多模态可扩展大模型,包含GLM-4.5(355B-A32B)和GLM-4.5-Air(106B-A12B)两款版本。该模型支持高吞吐推理、工具调用解析、分布式负载均衡等功能,并具备文本、图像、视觉扩展等多模态处理能力。此次发布可能为AI领域带来技术革新,引发广泛关注。
原文链接
7月25日,智谱AI模型GLM-4.5系列踪迹曝光,预计采用全新混合专家(MoE)架构,定位为多模态可扩展大模型。该系列包括GLM-4.5(355B-A32B)和GLM-4.5-Air(106B-A12B)两款模型,支持文本、图像、视觉扩展等多模态功能。新架构具备高吞吐推理、分布式负载均衡、工具调用解析等特性,并新增推理解析器与多token预测能力。相关代码与特性已在modelscope/ms-swift代码库中显示,或成AI领域新突破。
原文链接
标题:AI打假AI,拿下SOTA丨厦大&腾讯优图
正文:
AI生成图像越来越逼真,能否用AI检测“魔法打败魔法”?厦门大学与腾讯优图实验室联合提出创新方法“AIGI-Holmes”,通过“大模型+视觉专家”协同架构,让AI学会检测并描述图像问题。
核心创新点:
1. 双视觉编码器架构...
原文链接
加载更多
暂无内容