综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月28日,阿里通义发布最新生图模型Z-Image,上线首日下载量达50万,迅速登顶Hugging Face趋势榜双榜第一。该模型以6B小参数规模实现媲美大参数模型的照片级真实感,精细还原皮肤、发丝、光影等细节,并支持中英文混合文本渲染,效果领先。Z-Image具备广泛现实认知能力,可准确生成地标、人物及文化元素,还通过提示词增强器完成复杂创作任务。同时推出两款专用模型:Z-Image-Turbo仅需8步推理即可高效生成高质量图像;Z-Image-Edit支持精准复合编辑,保持身份、光照和风格一致性。模型已在GitHub、Hugging Face和ModelScope开源。
原文链接
11月25日,新加坡国家人工智能计划(AISG)发布基于阿里通义千问(Qwen)架构的“Qwen-SEA-LION-v4”模型,用于提升东南亚语言处理能力。该模型迅速登顶一项开源榜单,解决了印尼语、泰语等区域性语言适配难题。此前,Meta的Llama系列因“英语中心主义”设计难以满足需求,AISG转向阿里的Qwen3-32B基座,其预训练数据覆盖119种语言,具备原生多语言理解能力。新模型采用字节对编码(BPE)分词器,优化了无空格语言处理效果,并可在消费级设备上运行,降低技术门槛。此外,AISG贡献1000亿个东南亚语言token,与阿里实现双向合作,显著提升区域适配性与技术价值。
原文链接
4日,阿里通义千问发布Qwen3-Max-Thinking早期预览版,邀请用户尝鲜试用。据介绍,该模型仍在持续训练中,但即使在当前阶段,借助工具调用和规模化测试计算,其推理能力已在AIME 25和HMMT 25等高难度数学推理基准测试中实现100%准确率,展现出卓越性能。这一进展凸显了阿里在人工智能领域的技术实力,也为用户提供了更强大的数学推理工具选择。
原文链接
《科创板日报》8日讯,阿里通义千问大语言模型负责人林俊旸透露,已组建机器人和具身智能的小型团队。他表示,多模态基础模型正发展为具备工具使用和记忆能力的基础智能体,可通过强化学习实现长视野推理。他强调,这些智能体应从虚拟世界迈向物理世界,探索实际应用场景。这一动态展现了阿里巴巴在具身智能领域的前沿布局,或为未来技术落地提供新方向。(记者 黄心怡)
原文链接
9月30日,全球顶尖AI科学家、IEEE Fellow许主洪转岗加入阿里通义团队,将负责多模态交互模型方向。许主洪拥有超20年AI学术与产业经验,曾发表300多篇顶级论文,被引用超5万次,并获斯坦福全球顶尖1%科学家称号。他曾任Salesforce副总裁,创立多模态AI公司HyperAGI,是业内少有的产学研多栖专家。今年年初,他已加入阿里,担任集团副总裁及智能信息事业群首席科学家,负责多模态基础模型研究。6月,他在上海世界移动通信大会上发表演讲,以夸克App的AI功能为例讲解多模态大模型应用场景。
原文链接
阿里通义实验室于9月2日推出智能体开发框架AgentScope 1.0。该框架以开发者为核心,专注于多智能体开发,包含三层技术架构:核心框架负责构建与编排,Runtime提供安全沙箱环境,Studio支持可视化监控。其强化了实时介入控制、智能记忆管理和工具调用优化三大能力,兼容主流框架如LangGraph和AutoGen。GitHub已发布示例应用代码,包括文献研究助手等。项目地址详见多个GitHub仓库及技术报告链接。
原文链接
8月22日,阿里通义发布新一代语音识别模型Fun-ASR。该模型采用端到端设计,显著提升了上下文感知和语音转写的精准度。目前,Fun-ASR已应用于会议字幕、同声传译、智能纪要及语音助手等场景,并计划未来在阿里云百炼平台上线。这一创新技术将进一步推动语音识别领域的应用发展。
原文链接
财联社8月12日电,阿里通义千问宣布推出Qwen Code服务,用户每天可享受2000次免费调用,且无token额度限制。这一举措为开发者提供了更便捷的使用体验,进一步推动了AI技术的普及与应用。
原文链接
8月1日,阿里通义千问发布全新编程模型Qwen3-Coder-Flash。该模型具备卓越的Agent能力,在代理式编程、浏览器使用及工具调用等领域表现优异,超越当前顶级开源模型,仅稍逊于顶配版Qwen3-Coder-480B-A35B-Instruct以及Claude Sonnet-4、GPT4.1等领先闭源模型。这一发布进一步巩固了通义千问在AI编程领域的竞争力,为开发者提供更高效的解决方案。
原文链接
7月30日,阿里通义千问宣布推出Qwen3-30B-A3B模型的新版本:Qwen3-30B-A3B-Instruct-2507。该模型为非思考模式(non-thinking mode),长文本理解能力提升至256K,仅激活3B参数即可达到与Gemini 2.5-Flash(non-thinking)和GPT-4o等闭源模型相媲美的性能。这一更新显著优化了模型效率与表现,为开发者和用户提供了更强大的工具支持。
原文链接
加载更多
暂无内容