2024-06-26 12:30:19
全球首款 Transformer 专用 AI 芯片 Sohu 登场:每秒可处理 50 万个 tokens,英伟达 H100 的 20 倍
阅读:227
6月26日,新兴科技公司Etched宣布完成1.2亿美元融资,其研发的全球首款Transformer专用AI芯片Sohu亮相,基于4纳米工艺,每秒处理速度高达50万tokens,是英伟达H100的20倍。这款ASIC芯片专为Transformer架构设计,能大幅提升推理性能与能源效率,支持实时语音代理、高速文本处理等高负载任务,预示万亿级参数模型运行的新时代。由哈佛辍学生乌伯蒂和朱创立的Etched公司革新了AI芯片市场。
原文链接
本文链接:https://kx.umi6.com/article/2121.html
转载请注明文章出处
相关推荐
.png)
换一换
Mamba一作预告新架构!长文论述Transformer≠最终解法
2025-07-09 14:03:28
速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
2025-03-14 08:00:03
腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
2024-11-05 17:04:28
两位00后,融资8个亿
2024-06-29 16:53:08
一句话生成任务专属LoRA!Transformer作者创业公司颠覆LLM微调
2025-06-13 18:12:01
张亚勤:Transformer五年内会被逐步重构,15-20年内实现AGI | 清华AIR无锡创新中心成立
2024-06-08 15:19:23
AI怎样模仿人类大脑的注意力机制?
2025-05-17 11:04:36
融资1.2亿美元!00后哈佛华裔辍学生开发Transformer专用加速芯片,比英伟达H100快20倍
2024-06-26 21:44:58
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了
2025-07-19 11:51:22
左手Transformer,右手世界模型,我们距离AGI还有多远?
2024-11-21 18:39:56
哈佛辍学生发布地表最快AI芯片,挑战英伟达
2024-06-28 00:52:50
AI 架构 Transformer 再进化:谷歌新方法突破长文本处理,注意力模块内存需求可降至 1/47
2024-10-09 12:26:03
一位AI从业者的十年
2024-12-05 14:02:03
449 文章
154829 浏览
- 发自 凹非寺量子位 | 公众号 QbitAI 奥特曼点名表扬了两个波兰人。 没有他们,OpenAI就不是今天的样子。 他们是OpenAI首席科学家Jakub Pachocki以及头衔为“Technical Fellow”的Szymon Sidor。 △左:Jakub Pachocki,右:Szymon Sidor 两人不仅是波兰老乡,而且是高中同学,读博时分别选择了计算机科学和机器人,后来又在OpenAI重聚。 在ChatGPT风靡全球、每天服务数亿用户的今天,奥特曼感慨大多数人永远不会想到背
- 中国气象局推动 AI 天气预报模型创新融合应用,伏羲、璞云、风乌、风清、盘古等入选
- OpenAI内部大重组
- 马斯克“金色擎天柱”首曝,一双“真人手”刷屏
- AI将重塑全球能源市场!高盛:到2030年电力需求将飙升165%
阅读更多
24小时热文
更多

-
2025-09-10 01:24:36
-
2025-09-10 00:24:21
-
2025-09-09 23:22:46