
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
5月26日,阿里通义千问团队发布QwenLong-L1-32B模型,这是首个通过强化学习训练的长文本推理AI模型。该模型在七个DocQA基准测试中表现优异,与顶级模型相当。QwenLong-L1-32B的最大特点是上下文窗口支持高达131072个tokens,采用GRPO和DAPO算法及混合奖励函数提升推理能力。团队通过监督微调和课程引导的分阶段强化学习技术优化模型。此外,阿里还推出一套完整的长文本推理解决方案,包括高性能模型、优化数据集、创新训练方法及评估体系。
原文链接
4月14日,智谱发布新一代开源AI模型GLM-4-32B-0414系列,包含四款模型,参数量达320亿。该系列模型在效果上与GPT系列和DeepSeek-V3/R1相当,且支持本地友好部署。GLM-4-32B-0414在指令遵循、代码生成等领域表现优异,多项基准测试成绩突出,如IFEval得分87.6,SimpleQA得分88.1。GLM-Z1-32B-0414则具备更强的数理与复杂任务处理能力,而GLM-Z1-Rumination-32B-0414专注于深度推理。此外,9B小尺寸模型GLM-Z1-9B-0414同样表现出色。所有模型均采用MIT许可,降低计算成本,为企业和研究者提供高效解决方案。
原文链接
阿里通义千问Qwen发布最新多模态模型Qwen2.5-VL-32B-Instruct,该模型具备强大的视觉语言处理能力和数学推理能力。相比之前的Qwen2.5-VL系列,32B版本在尺寸与性能间取得平衡,并支持本地运行。通过强化学习优化,模型在回答人类偏好、数学推理及图像解析等方面均有显著提升。在多个基准测试中,Qwen2.5-VL-32B的表现超越了更大规模的72B版本,甚至达到同类模型中的最佳水平。例如,它能根据交通指示牌照片精确计算卡车是否能在规定时间内到达目的地。此外,模型还展示了优秀的几何分析和复杂问题解决能力。目前,该模型已在Hugging Face开源,用户可通过Qwen Chat直接体验。值得注意的是,这已是春节以来阿里与DeepSeek几乎同时发布的又一成果,引发社区热议。
原文链接
3月17日,国家超算互联网平台宣布QwQ-32B推理大模型集成至其Chatbot可视化对话及API在线调用服务。平台新增Chat对话入口,用户可体验多轮交互与长文本解析功能,适用于学术研究、代码生成等场景。平台API接口服务累计调用量超百万次,新用户注册即获100万Tokens。QwQ-32B由阿里Qwen团队基于Qwen2.5-32B+强化学习构建,在AIME24和LiveCodeBench评测中表现优异,接近DeepSeek-R1。此前,该平台已多次推出免费API服务及相关活动。
原文链接
《科创板日报》报道,广州人工智能公共算力中心已成功适配并上线了阿里通义团队最新开源的QwQ-32B推理模型。这一进展发生在11日,标志着该中心在智能计算领域迈出了重要一步。
原文链接
东南大学基于昇腾国产算力平台接入阿里开源模型QwQ-32B,成为全国首个上线该服务的高校。QwQ-32B参数量虽小,但在多项任务中表现媲美甚至超越671B参数的DeepSeek-R1。该模型支持消费级显卡本地部署,降低了硬件门槛,有助于师生在科研中快速实现AI推理需求。东南大学表示,QwQ-32B集成工具调用与动态推理能力,适用于复杂科研任务。3月10日更新。
原文链接
3月9日,国家超算互联网平台宣布上线阿里巴巴开源推理模型QwQ-32B的API接口服务,用户可免费获得100万Tokens。QwQ-32B基于Qwen2.5-32B+强化学习构建,在AIME24和LiveCodeBench评测中表现优异。平台全面适配QwQ-32B,包括vLLM、PyTorch推理适配,用户可一键启动Notebook功能进行开发或私有化部署。此外,平台还提供DeepSeek-R1全家桶及多种AI模型服务。目前,超算互联网已连接全国14个省份的20多家超算和智算中心,提供超过6500款算力商品。
原文链接
3月6日,阿里云团队开源全新推理模型——通义千问 QwQ-32B。摩尔线程智能科技公司迅速响应,在模型发布后2小时内宣布支持。摩尔线程利用其大语言模型高速推理框架vLLM及MT Transformer推理引擎,展示了QwQ-32B在实际运行中的优越性能与稳定性。该成果已开放至摩尔线程的模型广场“夸娥工场”。体验地址: 和 。
原文链接
《科创板日报》6日,阿里巴巴发布并开源了全新的推理模型通义千问QwQ-32B。该模型在数学、代码及通用能力方面与DeepSeek-R1相当,且降低了部署成本,支持在消费级显卡上进行本地部署。自2023年以来,阿里通义团队已开源超过200款模型。
原文链接
阿里云于3月6日推出最新推理模型QwQ-32B,该模型仅320亿参数即可媲美参数达6710亿的DeepSeek-R1。QwQ-32B在数学推理、编程及通用能力测试中表现优异,超越了包括DeepSeek-R1在内的多个领先模型。此模型已在Hugging Face和ModelScope开源,并集成Agent相关能力,支持批判性思考和环境反馈调整。阿里云表示,这是Qwen在强化学习增强推理能力的第一步,未来将探索更强大的基础模型与RL的结合,目标是实现人工通用智能(AGI)。
原文链接
加载更多

暂无内容