1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

哈佛辍学生Gavin Uberti和Chris Zhu创立的硅谷初创公司Etched发布了一款专为Transformer模型设计的ASIC芯片Sohu,声称其性能优于英伟达H100,推理速度提升20倍且功耗降低。Etched在6月获得1.2亿美元融资,投资者包括Peter Thiel等。这款芯片瞄准AI推理市场,挑战GPU主导地位,可能引发AI硬件革新。其他大公司如博通和字节跳动也涉足AI ASIC研发。国盛证券认为AI芯片发展将经历螺旋上升,看好ASIC芯片公司如寒武纪、芯原股份和嘉楠科技。

原文链接
本文链接:https://kx.umi6.com/article/2210.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
揭秘注意力机制真正起源!10年前3项研究几乎同时独立提出,背后故事细节被Karpathy晒邮件公开了
2024-12-04 16:39:33
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
谷歌全网扒1000亿图像文本对,ViT大佬坐镇:数据Scaling潜力依旧
2025-02-13 18:12:26
Transformer能否推理引争议,DeepMind连夜更新论文开源数据集:Transformer真的很强
2024-10-23 10:38:01
o1方法性能无上限!姚班马腾宇等数学证明:推理token够多,就能解决任意问题
2024-09-17 14:52:32
o3来了,通用人工智能真的触手可及吗?
2025-01-07 09:58:26
最火AI角色扮演流量已达谷歌搜索20%!每秒处理2万推理请求,Transformer作者公开优化秘诀
2024-06-21 15:42:20
Google AI编年史
2025-11-04 16:20:36
AI芯片开启第二战场:谷歌TPU引爆博通股价 硅谷巨头集体“造铲”
2025-11-25 19:04:05
全球首款Transformer专用AI芯片Sohu发布:比英伟达H100快20倍
2024-06-26 16:11:57
一句话生成任务专属LoRA!Transformer作者创业公司颠覆LLM微调
2025-06-13 18:12:01
AI 架构 Transformer 再进化:谷歌新方法突破长文本处理,注意力模块内存需求可降至 1/47
2024-10-09 12:26:03
LLM 的“母语”是什么?
2024-06-03 07:50:10
24小时热文
更多
扫一扫体验小程序