
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月2日,鸿海精密工业股份有限公司申请注册旗下首款AI推理大模型“FoxBrain”商标,当前状态为“等待实质审查”。该模型由鸿海研究院研发,是台湾地区首款AI推理大模型,具备数据分析、数学、推理和代码生成功能。模型基于Meta Llama 3.1打造,初始版本使用120块英伟达H100 GPU训练一个月完成,并对繁体中文进行优化,部分性能略逊于DeepSeek部分模型。此前联发科也曾推出Llama-Breeze2系列AI模型。
原文链接
财联社7月2日电,天眼查信息显示,鸿海精密工业股份有限公司申请注册名为‘FoxBrain’的AI推理大模型商标,国际分类为科学仪器,目前处于等待实质审查阶段。FoxBrain是鸿海研究院自主研发的首款繁体中文AI大模型,于今年3月正式发布,基于Meta Llama 3.1架构开发,专注于数学推演、逻辑分析与代码生成领域。
原文链接
据《科创板日报》26日报道,软银集团董事长兼CEO孙正义近日秘密访问鸿海等供应链企业,就采购细节进行洽谈,可能涉及为‘星际之门计划’订购AI服务器。此消息由台湾经济日报披露。此次密访显示出软银在AI领域的布局加速,或将带动鸿海等相关供应链企业的业务增长。
原文链接
5月15日,全球电子制造巨头鸿海集团宣布进军AI ASIC芯片设计领域,此举被视为其战略升级的重要一步。鸿海董事长指出,这一布局意在抓住人工智能技术发展的历史性机遇,填补其在半导体产业链中的关键空白。作为全球最大电子制造服务商,鸿海此次跨界进入芯片设计具有里程碑意义。AI ASIC芯片因其定制化架构,在计算效能和能耗比上优于通用芯片,成为推动AI技术应用的核心硬件。鸿海通过此番转型,正逐步从“制造服务商”转变为“技术方案提供商”,并计划利用自身丰富的制造经验和广泛的客户网络,迅速拓展AI芯片市场,为智能汽车、边缘计算等新兴领域提供定制化解决方案。
原文链接
据《科创板日报》20日报道,鸿海董事长刘扬伟在2025 GTC大会上透露,AI将是鸿海今年的关键运营驱动力。针对鸿海服务器营收能否超越iPhone业务的问题,他回应称“两年内肯定可以”,并提到最快可能在今年实现这一目标。作为全球最大的电子产品代工制造商,鸿海正加速布局人工智能领域,以推动业务增长。
原文链接
财联社3月14日消息,鸿海董事长刘扬伟在法说会上透露,英伟达GB200 AI服务器的良率已达到批量生产标准。GB200因系统复杂且零组件众多,测试难度较高,但通过持续优化生产流程,目前生产趋于稳定。刘扬伟表示,未来几个季度的出货将不成问题。
原文链接
鸿海今日发布首个大语言模型FoxBrain,由120块英伟达H100 GPU训练完成,耗时约四周。该模型基于Meta的Llama 3.1架构,专门适配繁体中文及本土语言风格。FoxBrain具备推理能力,性能接近全球顶尖水准,主要用于内部数据分析、决策辅助等。鸿海计划与科技企业合作,拓展应用范围,并开放部分源代码。英伟达通过其在高雄的超算Taipei-1提供算力支持。
原文链接
鸿海、软银及ZutaCore联合宣布,采用英伟达H200 GPU的AI服务器首次应用了ZutaCore的两相液体直接冷却技术。软银还设计了一种机架解决方案,集成所有服务器组件,并于2025年2月在数据中心进行了演示和评估,结果证实了其兼容性、稳定性和可靠性。
原文链接
鸿海计划在3月17日至21日举行的英伟达GTC大会上扩大参展规模,展示包括AI、智慧制造、数位孪生、GB200服务器及护理机器人等主题。此外,鸿海研究院还将展示基于开源AI系统的先进AI基础模型。(台湾经济日报)
原文链接
鸿海科技集团宣布,鸿海研究院半导体研究所、人工智能研究所成功将AI学习模型与强化学习技术融合,大幅加速碳化硅功率半导体的研发进程。研究采用Proximal Policy Optimization和Actor-Critic架构,通过AI反向预测设计参数,减少反复试验次数,提升效率。新技术不仅缩短开发时间,降低研发成本,还能模拟和调整复杂工艺参数,优化器件性能。未来可扩展至工艺改进和故障诊断。碳化硅功率半导体因其超宽能隙、耐高温和高压特性,在新能源电动车、智能电网等领域具有广泛应用前景。(12月30日)
原文链接
加载更多

暂无内容