
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月11日晚间,阿里通义千问推出Qwen Chat更新,新增桌面端支持一键唤起MCP并直接调用,同时网页端首页可直接开启对话。此次更新强化了多项功能,包括深入研究、图像生成、网页开发、深度思考和搜索等,进一步提升了用户体验。这一升级展示了阿里在人工智能领域的持续创新能力,为用户提供了更便捷、高效的交互方式。
原文链接
2025年6月27日,阿里云通义千问宣布推出多模态模型Qwen VLo,实现从感知到生成的跨越。该模型支持动态分辨率生成,可灵活应对不同场景的图像需求,并通过从左到右、从上到下的渐进式生成方式提升创作体验。Qwen VLo具备精准内容理解与再创造能力,能保持语义一致性,同时支持开放指令编辑和多语言交互,满足用户多样化需求。目前仍处于预览阶段,开发团队将持续优化。
原文链接
6月12日,全球AI开源社区Hugging Face发布最新AI开源贡献榜,中国团队表现突出。阿里通义千问排名全球第五、中国第一,DeepSeek位列第九,成为前十榜单中仅有的两家非美国机构。该榜单基于开源模型、数据集、开发者关注度、社区活跃度及全球影响力等多维度评估,全面反映各大机构在AI领域的贡献度。此次上榜彰显了中国在AI开源领域的强劲实力。
原文链接
日经新闻近日报道,阿里通义千问大模型已成为日本AI开发的基础。在日经AI模型综合排名中,通义千问Qwen2.5-Max位列第六,超越多款国内外知名大模型。目前,日本多家新兴企业正基于千问开发企业大模型。例如,ABEJA于4月17日发布的推理模型由千问QwQ-32B驱动;ELYZA于5月1日推出的企业大模型同样源自千问;Lightblue和Axcxept也在开发日语专属大模型。其中,Axcxept的日语模型EZo已应用于日本医疗保健及公共服务领域。截至目前,阿里通义已开源超200个模型,全球下载量超3亿次,千问衍生模型超10万,成为全球第一开源模型。
原文链接
《科创板日报》9日消息,英伟达近日开源了多个代码推理模型,分别为32B、14B和7B参数规模。这些模型以阿里通义千问的Qwen2.5系列为基础,分别是Qwen2.5-32B、Qwen2.5-14B和Qwen2.5-7B。这一举措体现了英伟达在AI领域的技术合作与开放策略,值得关注的是,开源模型有助于推动开发者社区的技术创新与应用落地。
原文链接
5月1日,阿里巴巴旗下通义千问团队发布了Qwen2.5-Omni-3B模型,这是Qwen2.5-Omni-7B的轻量版,参数量为3B,但多模态性能保留了7B版本的90%以上。该模型支持文本、音频、图像和视频等多种输入形式,尤其在实时文本生成和自然语音输出方面表现出色。基准测试显示,其视频理解和语音生成能力接近7B版本。相比7B模型,3B版本显存占用减少了53%,由60.2GB降至28.2GB,使它能在普通24GB GPU设备上运行,适合消费级硬件。此模型采用Thinker-Talker架构和TMRoPE嵌入方法,支持FlashAttention 2和BF16精度优化,提升了运行效率。不过,该模型目前仅限研究用途,企业需获得单独许可才能用于商业开发。
原文链接
阿里 AI 实力获斯坦福权威报告认可!通义千问贡献排名全球第三、中国第一。
近日,斯坦福大学人工智能研究所发布的《2025年人工智能指数报告》显示,2024年度全球重要大模型中,中国贡献15项,其中阿里以6个入选模型排名第三,仅次于谷歌与OpenAI。阿里通义实验室已开源200多款模型,千问衍生模型...
原文链接
《科创板日报》28日消息,阿里通义千问今日正式推出QVQ-Max视觉推理模型第一版。该模型是对去年12月推出的QVQ-72B-Preview的升级版本,后者虽为探索模型但存在一定局限性。QVQ-Max在多模态处理方面表现出色,不仅能识别图片和视频内容,还可通过分析与推理提供解决方案,涵盖数学题解答、生活问题处理、编程代码生成及艺术创作等多个领域。这一新模型的发布标志着AI技术在视觉理解和跨模态应用上的进一步突破。
原文链接
3月28日凌晨,阿里通义千问团队发布新一代视觉推理模型QVQ-Max。该模型具备强大的图片和视频分析、推理能力,不仅能识别细节,还能根据背景知识进行深入推理,适用于多种场景。例如,它可解析复杂图表、生成短视频剧本,甚至创作角色扮演内容。此外,QVQ-Max还支持职场数据分析、学习辅助及生活建议等功能。用户可通过Qwen Chat上传图片或视频,点击“Thinking”按钮体验其推理能力。阿里巴巴称,这仅是模型演化的初期阶段,未来将持续优化性能和拓展功能。
原文链接
北京时间3月27日凌晨,阿里巴巴推出通义千问系列新旗舰模型Qwen2.5-Omni。该端到端多模态模型可处理文本、图像、音频及视频等多种输入,具备实时流式响应能力。Qwen2.5-Omni采用全新Thinker-Talker架构,引入TMRoPE技术,提升多模态输入同步精度。其语音生成自然流畅,端到端语音指令跟随能力出色,在MMLU、GSM8K等基准测试中表现优异。模型在OmniBench多模态任务中达到SOTA表现,单模态任务中亦表现突出。目前,Qwen2.5-Omni已在Hugging Face、ModelScope、DashScope及GitHub开源。
原文链接
加载更多

暂无内容