【Cerebras Systems发布全球最快AI推理解决方案】8月28日,Cerebras Systems宣布推出全新AI推理解决方案——Cerebras Inference,此方案在性能上超越了当前市场上的主流AI推理解决方案,速度达到了英伟达同类方案的20倍。针对Llama 3.1 8B和70B模型,Cerebras Inference分别实现了每秒1800个token和450个token的处理能力,展现出卓越的效能。此外,这款解决方案的定价极具竞争力,仅为每百万个token 10美分,相比市面上流行的GPU云服务,性价比提高了100倍。Cerebras Inference采用Cerebras CS-3系统及Wafer Scale Engine 3(AI处理器),内存带宽达到Nvidia H100的7000倍,有效解决了生成式AI的内存带宽问题。为了满足不同用户的需求,Cerebras Inference提供了包括免费层、开发者层和企业层在内的三个层级服务,旨在为AI应用程序开发者提供更高效、更经济的AI应用构建环境。Cerebras团队表示,Cerebras Inference以其创纪录的性能、业界领先的定价和开放的API访问,为开放的LLM开发和部署设定了新标准,并为AI领域带来了新的可能性。随着AI市场的快速发展,Cerebras和Groq等新兴公司正挑战英伟达在AI市场的主导地位,尤其是推理领域的竞争日益激烈。
原文链接
本文链接:https://kx.umi6.com/article/5511.html
转载请注明文章出处
相关推荐
换一换
中国AI芯片维修需求暴增 有商家月修500块英伟达高端GPU
2025-07-25 12:22:34
马斯克详谈AI5芯片:由三星和台积电一起生产,不会弃用英伟达GPU!
2025-10-23 10:06:47
英伟达GPU,警钟敲响
2024-07-07 09:29:20
谷歌卷土重来:你大爷还是你大爷
2025-12-03 09:08:14
郭明錤:传言中苹果购买英伟达GPU短期内不会带来AI优势
2025-04-01 14:28:52
英伟达GPU被曝严重漏洞,致模型准确率暴跌99.9%
2025-07-23 15:52:55
中国AI长卷(一):大国重算
2024-07-24 18:40:53
AI芯片,再一次开战
2024-08-30 08:02:01
Cerebras 推出全球最快 AI 推理解决方案,速度是英伟达方案的 20 倍
2024-08-28 11:14:44
等效 5000 万块英伟达 H100 GPU,马斯克公布 xAI 五年算力目标
2025-07-23 09:46:53
马斯克在直播中首次披露Grok 3的训练成本:20万块英伟达GPU
2025-02-18 15:36:11
韩国政府与三星、现代等成立AI工作组 制定26万块英伟达GPU部署规划
2025-11-27 14:39:08
SK电信将在首尔开设AI数据中心 全部配套英伟达GPU
2024-08-21 18:15:30
572 文章
350774 浏览
24小时热文
更多
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57