
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,腾讯推出全新3D生成模型Hunyuan3D-PolyGen,支持生成复杂几何模型,面数可达上万,显著提升美术建模效率。该模型已应用于鹅厂内部游戏开发,美术师效率提升超70%。模型具备智能拓扑功能,可将线稿或参考图转化为高质量3D模型,支持三角形和四边形拓扑,细节表现优异。技术上采用自回归生成框架与高压缩率mesh表征BPT,大幅减少token需求,提升复杂物体建模能力。同时通过强化学习后训练提高生成稳定性,布线质量和几何一致性优于现有SOTA模型。目前,该功能已在混元3D工作台上线,每天提供20次免费使用额度。
原文链接
7月7日,腾讯混元3D发布重大升级,推出业界首个美术级3D生成大模型Hunyuan3D-PolyGen。该模型旨在解决3D资产生成中的布线质量与复杂物体建模难题,大幅提升美术师的建模效率。这一突破性技术由“腾讯混元”公众号公布,为3D内容创作领域带来全新可能性,进一步推动行业效率与质量的提升。
原文链接
7月7日,腾讯混元发布业界首个美术级3D生成大模型Hunyuan3D-PolyGen。该模型结合自研高压缩率表征BPT技术,可生成上万面复杂几何模型,布线精度高、细节丰富,并支持三边面和四边面,满足专业管线需求。新技术显著提升建模效率超70%,解决3D资产生成中布线质量与复杂物体建模难题,适用于UGC游戏资产生成等场景。模型采用自回归网格生成框架,通过网格序列化、自回归建模和序列解码三个步骤,生成高质量且符合美术规范的3D模型。此外,腾讯利用强化学习后训练框架优化生成稳定性,降低低质量结果概率,推动3D生成技术向更专业标准迈进。
原文链接
2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。
原文链接
2025年6月27日,腾讯正式发布并开源混元-A13B大模型,该模型基于专家混合(MoE)架构,总参数800亿、激活参数130亿,在数学推理和逻辑任务上表现优异,甚至在极端条件下仅需1张中低端GPU即可部署。用户可通过Github、HuggingFace等平台下载使用。模型支持快慢两种思考模式,兼顾效率与准确性,适用于智能体应用及复杂指令响应,预训练数据达20万亿词元,优化了计算资源分配,为个人开发者和中小企业提供高效解决方案。
原文链接
6月27日,腾讯混元推出首款开源混合推理模型Hunyuan-A13B,该模型参数总量为80B,激活参数仅13B,具备强大的通用能力,在多个权威数据测试集中表现优异。Hunyuan-A13B支持Agent工具调用和长文理解,拥有256K原生上下文窗口,适用于多种复杂任务。模型已在GitHub和Huggingface开源社区上线,并提供API接口供开发者快速接入部署。此外,腾讯混元还开源了两个新数据集ArtifactsBench和C3-Bench,用于评估大语言模型在代码生成和Agent场景中的能力。
原文链接
2023年6月27日,腾讯混元大模型家族发布新成员——混元-A13B模型并开源。该模型是业界首个13B级别的MoE混合推理开源模型,总参数达800亿,激活参数130亿,可在极端条件下仅用1张中低端GPU卡部署。模型通过MoE架构提升推理效率与计算性能,支持快慢两种思考模式,适用于不同任务需求。同时,腾讯开源了两个新数据集ArtifactsBench和C3-Bench,用于代码评估和Agent场景测试。在数学、科学和逻辑推理任务中表现优异,已在GitHub和腾讯云上线。
原文链接
标题:腾讯开源最强3D生成模型,消费级显卡即可运行 | CVPR
正文:
就在刚刚的CVPR会议上,腾讯宣布开源其最新的3D生成模型——混元3D 2.1。这款模型能够细腻呈现流行IP Labubu,并能生成复古风格的青铜器纹理,展现了几何与纹理双重优化的强大能力。相比前一代2.0版本,2.1版本...
原文链接
6月14日凌晨,腾讯在CVPR2025会议上宣布开源混元3D 2.1大模型,这是首个全链路开源的工业级3D生成大模型。该模型不仅优化了几何生成质量,还开放了PBR材质生成能力,提升了3D资产的质感与光影效果。混元3D 2.1支持生成基础颜色、金属度、法线、粗糙度等贴图,并兼容皮革、木质、金属、陶瓷等多种复杂材质的高质量渲染。此外,该模型适配消费级显卡,可在个人电脑运行,并提供GitHub上的详细部署教程,方便企业和开发者快速上手。相关资源已同步上线,包括GitHub地址和项目主页。
原文链接
腾讯近日开源了混元语音数字人模型HunyuanVideo-Avatar,该模型由腾讯混元视频大模型及腾讯音乐天琴实验室技术联合研发。用户只需上传一张人物图像和一段音频,即可生成包含自然表情、唇形同步及全身动作的视频,支持头肩、半身与全身景别,以及多风格、多物种与双人场景。此模型适用于短视频创作、电商广告等多个领域,能有效降低制作成本。目前,单主体能力已开源,用户可通过腾讯混元官网体验,支持上传不超过14秒的音频生成视频,未来还将开放更多功能。开源地址及相关技术文档已同步发布。
原文链接
加载更多

暂无内容