
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
6日,阿里巴巴旗下通义千问发布迄今最大模型Qwen3-Max-Preview,参数量达1T。新模型在中英文理解、复杂指令遵循及工具调用等方面显著增强,同时大幅减少知识幻觉问题。这一发布凸显阿里在大模型领域的持续创新与技术突破,为行业带来更高性能的AI解决方案。(记者黄心怡)
原文链接
9月5日,阿里通义千问在官网和OpenRouter平台上线最新模型Qwen-3-Max-Preview,这是通义千问系列中最强大的语言模型。该模型在推理、指令跟随、多语言支持及长尾知识覆盖等方面有显著提升,尤其在数学、编码、逻辑和科学任务中表现更精准,同时减少幻觉现象,支持超过100种语言。其翻译、常识推理能力增强,并优化了检索增强生成和工具调用功能。定价为输入1.2美元/百万tokens,输出6美元/百万tokens。用户可通过官网Qwen Chat或OpenRouter平台访问体验。
原文链接
阿里通义实验室于9月2日推出智能体开发框架AgentScope 1.0。该框架以开发者为核心,专注于多智能体开发,包含三层技术架构:核心框架负责构建与编排,Runtime提供安全沙箱环境,Studio支持可视化监控。其强化了实时介入控制、智能记忆管理和工具调用优化三大能力,兼容主流框架如LangGraph和AutoGen。GitHub已发布示例应用代码,包括文献研究助手等。项目地址详见多个GitHub仓库及技术报告链接。
原文链接
8月26日,阿里开源多模态视频生成模型通义万相Wan2.2-S2V。该模型仅需一张静态图片和一段音频,即可生成面部表情自然、口型一致的电影级数字人视频,单次生成时长可达分钟级。这一技术突破为内容创作提供了高效工具,展现了AI在视频生成领域的潜力。
原文链接
8月26日,阿里云宣布开源全新多模态视频生成模型通义万相 Wan2.2-S2V。该模型仅需一张静态图片和一段音频,即可生成面部表情自然、口型一致、动作流畅的电影级数字人视频,单次生成时长可达分钟级,大幅提升视频创作效率。模型支持真人、卡通、动物等多类型图片及肖像、半身、全身画幅,还可通过文本控制丰富视频内容。例如,上传人物弹钢琴照片、歌曲和文字,可生成高质量演奏视频,手指动作与音频节奏完美匹配。技术上,Wan2.2-S2V融合音频驱动和文本引导机制,采用层次化帧压缩技术实现稳定长视频生成,训练数据集超60万个音视频片段。实测显示其在FID、EFID、CSIM等指标上领先同类模型。自今年2月以来,通义万相已开源多款模型,下载量超2000万。
原文链接
8月22日,阿里通义发布新一代语音识别模型Fun-ASR。该模型采用端到端设计,显著提升了上下文感知和语音转写的精准度。目前,Fun-ASR已应用于会议字幕、同声传译、智能纪要及语音助手等场景,并计划未来在阿里云百炼平台上线。这一创新技术将进一步推动语音识别领域的应用发展。
原文链接
8月19日,通义千问发布图像编辑模型Qwen-Image-Edit。该模型基于20B参数的Qwen-Image进一步训练,将文本渲染能力扩展至图像编辑领域,可精准编辑图片中的文字内容。这一新功能提升了图像处理的灵活性和效率,为用户提供了更强大的视觉内容创作工具。
原文链接
8月15日,通义千问官方宣布Qwen系列多项升级。Qwen3的100万tokens上下文扩展,性能提升高达3倍,并兼容vLLM和SGLang等高性能框架。Qwen Chat Deep Research能力增强,支持多模态输入,生成更智能、精准的报告,显著减少幻觉问题。此外,ComfyUI上线Qwen-Image distilled模型,仅需10步、5秒即可生成高质量图片,显存要求24G,家用消费级显卡即可运行。团队还预告Qwen-Image图片编辑模型即将发布。
原文链接
财联社8月12日电,阿里通义千问宣布推出Qwen Code服务,用户每天可享受2000次免费调用,且无token额度限制。这一举措为开发者提供了更便捷的使用体验,进一步推动了AI技术的普及与应用。
原文链接
8月11日,阿里通义发布Wan2.2-I2V-Flash模型,推理速度较Wan2.1提升12倍,价格为0.1元/秒。新模型在电影级视觉呈现、指令遵循能力、风格稳定性及动态效果上均有显著优化,并支持精准运镜和特效提示词直出。该模型已上线阿里云百炼平台,可通过API调用体验。此前7月28日,阿里开源通义万相Wan2.2系列,包括文生视频、图生视频及统一视频生成三款模型,均为业界首个使用MoE架构的视频生成模型,参数量达27B,激活参数14B,同时首创电影美学控制系统,光影与微表情等媲美专业水准。
原文链接
加载更多

暂无内容