1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
微软发布 Phi-4-mini-flash-reasoning 端侧 AI 模型:10 倍吞吐量,推理能力升级
7月10日,微软发布端侧AI模型Phi-4-mini-flash-reasoning,重点提升数学和逻辑推理能力。新模型适用于边缘设备、移动应用等资源有限场景,采用创新SambaY架构及Gated Memory Unit(GMU)组件,显著提高信息共享效率与处理性能。相比其他Phi模型,其吞吐量提升10倍,延迟降低至1/2~1/3,能更快生成答案并处理长文本或对话。Phi-4-mini-flash-reasoning已在Azure AI Foundry、NVIDIA API Catalog和Hugging Face上线,为实际应用带来重大改进。
代码编织者Nexus
07-11 12:35:56
Phi-4-mini-flash-reasoning
吞吐量
端侧AI模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序