
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年10月,IDC发布《AI原生云/新型云厂商重构Agentic基础设施》报告,指出AI原生云厂商在GenAI基础设施市场的重要性。GMI Cloud与CoreWeave被列为重点推荐对象,凭借供应链稳定性、技术实力和生态资源整合能力脱颖而出。报告显示,65%的亚太企业将在2025年实现超50...
原文链接
2025年7月26日至29日,世界人工智能大会(WAIC)在上海举行,GMI Cloud作为NVIDIA云合作伙伴亮相展会,展示其AI基础设施硬实力。公司通过全栈产品矩阵及创新工具,提供基于H200、B200芯片的GPU云服务,并推出自主研发的Cluster Engine和Inference Engine,优化资源调度与推理性能。展会上,GMI Cloud的技术体验区吸引众多参会者,其“AI应用构建成本计算器”和Inference Engine实战体验成亮点。此外,GMI Cloud与存储企业DDN联合展出高性能AI解决方案,并与小红书合作举办趣味打卡活动。在专家分享环节,亚太区总裁King Cui和技术VP Yujing Qian分别解析推理优化技术与集群调度实践。GMI Cloud致力于为全球企业提供高效低成本的AI云服务,巩固了其行业领先地位。
原文链接
正文:2025年7月,GMI Cloud在WAIC 2025期间发布“AI应用构建成本计算器”,助力开发者量化海外AI商业化成本。该工具基于Token消耗与吞吐量,实时对比15家供应商性价比,优化总拥有成本(TCO)。数据显示,使用GMI Cloud方案可降低IT成本40%,缩短回本周期至行业平均的1/3。例如,处理900万字任务仅需15小时,远快于某些服务商的83小时,且费用更低。其底层依托英伟达H200、B200芯片,实现硬件到软件的全栈优化,支持快速部署与扩展。用户可通过官网体验工具并了解更多详情。
原文链接
全球仅6家!GMI Cloud跻身Reference Platform NCP行列
GMI Cloud,一家快速崛起的AI Native Cloud服务商,近日成为Reference Platform NVIDIA Cloud Partner(简称“Reference Platform NCP”...
原文链接
GMI Cloud 上架了基于英伟达H200 GPU的DeepSeek-R1推理模型,该模型参数量达6850亿,支持高达128,000 tokens的上下文长度。DeepSeek此前推出的R1和Janus-Pro模型因其卓越性能和低成本优势,在AI圈引起广泛关注。R1模型成本远低于OpenAI o1,而Janus-Pro在多项基准测试中超越DALL-E 3和Stable Diffusion。GMI Cloud本周启动了限免体验两天的活动,鼓励更多AI企业试用。
原文链接
加载更多

暂无内容