
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月11日晚间,阿里通义千问推出Qwen Chat更新,新增桌面端支持一键唤起MCP并直接调用,同时网页端首页可直接开启对话。此次更新强化了多项功能,包括深入研究、图像生成、网页开发、深度思考和搜索等,进一步提升了用户体验。这一升级展示了阿里在人工智能领域的持续创新能力,为用户提供了更便捷、高效的交互方式。
原文链接
2025年6月27日,阿里云通义千问宣布推出多模态模型Qwen VLo,实现从感知到生成的跨越。该模型支持动态分辨率生成,可灵活应对不同场景的图像需求,并通过从左到右、从上到下的渐进式生成方式提升创作体验。Qwen VLo具备精准内容理解与再创造能力,能保持语义一致性,同时支持开放指令编辑和多语言交互,满足用户多样化需求。目前仍处于预览阶段,开发团队将持续优化。
原文链接
6月12日,全球AI开源社区Hugging Face发布最新AI开源贡献榜,中国团队表现突出。阿里通义千问排名全球第五、中国第一,DeepSeek位列第九,成为前十榜单中仅有的两家非美国机构。该榜单基于开源模型、数据集、开发者关注度、社区活跃度及全球影响力等多维度评估,全面反映各大机构在AI领域的贡献度。此次上榜彰显了中国在AI开源领域的强劲实力。
原文链接
《科创板日报》10日消息,阿里巴巴通义实验室近日发布并开源了名为MaskSearch的预训练框架。该框架通过结合‘主动搜索’与‘多步推理’技术,使AI具备更强的复杂问题处理能力,能够提供更精准和智能的回答。这一技术突破标志着AI在自然语言处理领域迈出了重要一步,为开发者提供了新的工具选择。MaskSearch的开源将进一步推动相关领域的技术创新与应用落地。
原文链接
阿里通义开源「推理+搜索」预训练新框架:小模型媲美大模型,多个开放域问答数据集表现显著提升
阿里通义实验室发布全新通用预训练框架MaskSearch,大幅提升大模型“推理+搜索”能力。在开放域问答任务中,MaskSearch表现超越基线方法,小模型甚至媲美大模型。
通义实验室的搜索团队此前推出Z...
原文链接
阿里通义发布并行计算新策略:1.6B等效4.4B,内存消耗骤降95%
既能提升模型能力,又不显著增加内存和时间成本,LLM第三种Scaling Law被提出。
对于1.6B模型,能实现性能接近4.4B模型,内存占用仅为后者的1/22,延迟增加量为1/6。该策略可直接应用于现有模型(如Qwen-2.5...
原文链接
日经新闻近日报道,阿里通义千问大模型已成为日本AI开发的基础。在日经AI模型综合排名中,通义千问Qwen2.5-Max位列第六,超越多款国内外知名大模型。目前,日本多家新兴企业正基于千问开发企业大模型。例如,ABEJA于4月17日发布的推理模型由千问QwQ-32B驱动;ELYZA于5月1日推出的企业大模型同样源自千问;Lightblue和Axcxept也在开发日语专属大模型。其中,Axcxept的日语模型EZo已应用于日本医疗保健及公共服务领域。截至目前,阿里通义已开源超200个模型,全球下载量超3亿次,千问衍生模型超10万,成为全球第一开源模型。
原文链接
《科创板日报》9日消息,英伟达近日开源了多个代码推理模型,分别为32B、14B和7B参数规模。这些模型以阿里通义千问的Qwen2.5系列为基础,分别是Qwen2.5-32B、Qwen2.5-14B和Qwen2.5-7B。这一举措体现了英伟达在AI领域的技术合作与开放策略,值得关注的是,开源模型有助于推动开发者社区的技术创新与应用落地。
原文链接
五一假期后,阿里通义实验室传出高层人事变动消息。据传,应用视觉团队负责人薄列峰(职级P10)已于4月30日离职。薄列峰曾主导开发通义App上的“兵马俑跳科目三”等爆款功能。知情人士称,他已加入另一家美国互联网大厂,担任多模态模型部副总经理,直接向副总裁汇报。这是阿里通义实验室近期第二次重要人事变动,此前语音团队负责人鄢志杰已于2月离职。薄列峰于2022年加入阿里,曾担任达摩院XR实验室负责人,是通义实验室图像和多模态方向的重要领导者。他的职业生涯还包括亚马逊和京东的经历,专注于机器学习、计算机视觉等领域。截至目前,阿里尚未对这一离职消息作出官方回应。
原文链接
5月1日,阿里巴巴旗下通义千问团队发布了Qwen2.5-Omni-3B模型,这是Qwen2.5-Omni-7B的轻量版,参数量为3B,但多模态性能保留了7B版本的90%以上。该模型支持文本、音频、图像和视频等多种输入形式,尤其在实时文本生成和自然语音输出方面表现出色。基准测试显示,其视频理解和语音生成能力接近7B版本。相比7B模型,3B版本显存占用减少了53%,由60.2GB降至28.2GB,使它能在普通24GB GPU设备上运行,适合消费级硬件。此模型采用Thinker-Talker架构和TMRoPE嵌入方法,支持FlashAttention 2和BF16精度优化,提升了运行效率。不过,该模型目前仅限研究用途,企业需获得单独许可才能用于商业开发。
原文链接
加载更多

暂无内容