
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月10日,微软发布端侧AI模型Phi-4-mini-flash-reasoning,重点提升数学和逻辑推理能力。新模型适用于边缘设备、移动应用等资源有限场景,采用创新SambaY架构及Gated Memory Unit(GMU)组件,显著提高信息共享效率与处理性能。相比其他Phi模型,其吞吐量提升10倍,延迟降低至1/2~1/3,能更快生成答案并处理长文本或对话。Phi-4-mini-flash-reasoning已在Azure AI Foundry、NVIDIA API Catalog和Hugging Face上线,为实际应用带来重大改进。
原文链接
5月19日消息,微软Edge浏览器被发现将集成Phi-4 mini模型,实现端侧AI功能。此功能出现在Edge Canary 138.0.3323.0及以上版本中,可通过Prompt API调用内置的Phi-mini模型执行生成式AI任务。Phi-4 mini是一种小语言模型,具有约140亿个参数,擅长推理和复杂任务,相比ChatGPT能显著降低成本。新API强调“端侧AI”,可在本地硬件上直接处理文本摘要、分类、改写等功能,无需依赖云端计算。微软还新增了Summarization、Writer和Rewriter三个API,并提供了绕过性能限制启用本地AI及调试日志的辅助功能。微软计划将Edge打造为Windows 11以AI为核心的浏览器,此前已尝试利用Phi-3模型提供类似功能。
原文链接
4月30日,微软发布Phi-4推理模型系列,包括Phi-4-reasoning、Phi-4-reasoning-plus及Phi-4-mini-reasoning三款。Phi-4-reasoning采用140亿参数,通过监督微调Phi-4和OpenAI o3-mini数据集训练,擅长复杂推理任务,尤其在数学和科学问题上表现优异,在AIME 2025测试中超越6710亿参数的DeepSeek-R1满血版。增强版Phi-4-reasoning-plus通过强化学习进一步提升性能,tokens用量增加1.5倍。Phi-4-mini-reasoning则针对资源受限环境设计,3.8亿参数下已在多项基准测试中超越更大规模的模型,适用于教育和边缘设备场景。
原文链接
微软于2024年12月发布Phi-4小型语言模型后,近日又推出了两款新模型:Phi-4多模态和Phi-4迷你。Phi-4多模态是微软首款集成了语音、视觉和文本处理的统一架构多模态语言模型,参数量达56亿,在多项基准测试中表现优异,尤其是在语音识别和视觉推理方面超越了现有模型。Phi-4迷你模型专注于文本任务,参数量为38亿,在文本推理、数学计算等方面表现出色。新模型已通过ONNX Runtime部署到设备端,适用于低成本和低延迟场景。目前,这两款新模型已在Azure AI Foundry、Hugging Face和NVIDIA API目录中上线。
原文链接
以下是原文
正文:微软开源了最强小参数模型phi-4,参数仅140亿但在多项基准测试中表现优异,超过GPT-4o及同类模型。phi-4在AMC测试中得分91.8,MMLU测试得分为84.8。该模型支持MIT许可证下的商业用途,开源地址为。phi-4的成功归功于高质量合成数据的应用,涵盖50多种类型的数据集。模型还通过监督微调(SFT)和直接偏好优化(DPO)技术进一步优化。开源消息发布后,HuggingFace官方推特表示祝贺。
原文链接
微软于2024年12月12日开源了140亿参数的小语言AI模型Phi-4,该模型在多个基准测试中表现出色,甚至超越了参数量更大的Llama 3.3 70B和OpenAI的GPT-4o Mini。尤其在数学竞赛问题上,Phi-4的表现优于Gemini 1.5 Pro和GPT-4o。尽管Phi-4性能强劲,但目前尚未优化推理,未来可通过进一步优化使其能在个人电脑和笔记本电脑上本地运行。感兴趣的开发者和尝鲜者可下载并微调该模型。
原文链接
微软于12月13日宣布推出14B参数的小型语言模型Phi-4,专注于数学等领域的复杂推理。该模型通过采用高质量合成数据集及精选的高质量有机数据,在数学推理方面超越了同类和更大规模的模型,甚至超过了包括Gemini Pro 1.5在内的多个更大规模模型。Phi-4是Phi系列小型语言模型的最新成员,展示了微软探索小型语言模型边界的持续努力。微软强调,Phi-4将作为“强大且负责任”的AI能力向所有用户开放,目前已在Azure AI Foundry上可用。
原文链接
加载更多

暂无内容