
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月16日,甲骨文在全球AI大会上发布新一代云端AI超级计算机OCI Zettascale10。该集群整合跨多个数据中心的数十万NVIDIA GPU,形成多千兆瓦级计算能力,峰值性能高达16 zettaFLOPS。这一突破性技术为AI和大数据处理提供强大支持,展现云计算领域的新高度。
原文链接
10月15日,NVIDIA宣布全球最小AI超级计算机DGX Spark正式交付,起售价3999美元。多家合作伙伴如华硕、技嘉、微星、宏碁、戴尔、惠普和联想推出搭载GB10 Grace Blackwell超级芯片的机型。DGX Spark提供1 petaFLOPS AI性能和128GB统一内存,支持本地推理和模型微调,并整合高速网络技术。华硕Ascent GX10优化散热与存储选项,技嘉AI TOP ATOM支持4TB SSD扩展,微星EdgeXpert注重高性能轻量化设计。此外,宏碁Veriton GN100、戴尔Dell Pro Max、惠普ZGX Nano G1n及联想ThinkStation PGX也加入竞争,为AI领域注入新动力。
原文链接
10月14日,NVIDIA宣布正式交付全球迄今为止最小的AI超级计算机DGX Spark™。这款新型超级计算机专为高效处理人工智能任务设计,标志着AI计算领域迎来新突破。其小巧体积与强大性能结合,为行业提供了更高灵活性和效率。这一发布进一步巩固了NVIDIA在AI硬件领域的领先地位,同时为科学研究及企业应用带来全新可能性。
原文链接
8月8日,特斯拉宣布解散其Dojo超级计算机团队,负责人彼得·班农将离职。部分团队成员转投DensityAI,其余人员被重新分配至特斯拉其他数据中心和计算项目。未来,特斯拉计划加强与外部技术伙伴合作,包括在计算领域依赖英伟达和超威半导体,在芯片制造方面依靠三星电子。这一调整可能影响特斯拉的人工智能发展策略,引发业界关注。
原文链接
标题:对话图灵奖得主唐加拉:全球最快计算机的“幕后英雄”
在2022年世界超算大会(SC22)上,唐加拉因获得图灵奖而登上讲台,现场气氛热烈,几乎成了摇滚现场。超级计算虽不显眼,却是支撑尖端科技发展的“幕后英雄”。从天气预报到新材料研发,高性能计算(HPC)正解决普通计算机难以应对的问题。尤其在AI...
原文链接
英伟达宣布将首次在美国本土全流程生产人工智能超级计算机。未来四年,通过与台积电、富士康、纬创、安靠、矽品精密的合作,英伟达计划投资高达5000亿美元构建AI基础设施。Blackwell芯片已开始在台积电位于亚利桑那州凤凰城的工厂生产。同时,英伟达正与富士康和纬创在得克萨斯州建设超级计算机制造工厂,分别位于休斯顿和达拉斯,预计12-15个月内实现量产。此外,英伟达还与安靠和矽品精密合作,在亚利桑那州开展封装和测试业务。
原文链接
4月14日消息,英伟达宣布将首次完全在美国本土生产人工智能超级计算机。该公司与多家制造伙伴合作,在亚利桑那州凤凰城的台积电工厂生产Blackwell芯片,并在得克萨斯州与富士康、纬创合作建设超级计算机制造工厂。预计未来12至15个月内,这些工厂将逐步扩大大规模生产能力。英伟达还与安靠、矽品合作,在亚利桑那州开展封装和测试业务。根据计划,未来四年,英伟达将通过与上述公司的合作,在美国生产价值高达5万亿美元的人工智能基础设施。此举旨在增强供应链韧性,同时预计未来几十年内将创造数十万个工作岗位,并推动数万亿美元的经济增长。英伟达表示,这些人工智能超级计算机是新型人工智能工厂的核心,未来几年内将建造数十座‘千兆瓦级人工智能工厂’。
原文链接
据路透社报道,3月8日,马斯克旗下xAI公司在美国田纳西州孟菲斯购入9.3万平方米工业用地,用于扩展人工智能基础设施。此次购地是去年12月扩张计划的延续,xAI计划在当地扩建Colossus超级计算机,使其容纳至少100万块GPU。Colossus被视为马斯克AI布局的关键,旨在增强与OpenAI的竞争优势。xAI新设施邻近一座投资5.79亿元人民币的水循环处理厂,并采用全球最大规模的Tesla Megapack电池存储系统。然而,数据中心的高能耗也引发了环保人士的批评。此外,特斯拉还计划在得克萨斯州建设类似规模的工厂,用于管理及存储Megapack电池产品。
原文链接
法国总统马克龙在巴黎AI峰会上表示,欧洲在AI领域落后,面临被美中甩在身后风险。他指出欧洲AI发展的三大瓶颈:资金短缺、算力不足及监管桎梏。法国计划2025年秋季建成欧洲最大AI超算,扶持本土公司Mistral对抗OpenAI。马克龙呼吁欧洲简化监管流程,加大投入,以应对未来科技竞争。
原文链接
美国阿贡国家实验室的Aurora超级计算机于2024年5月正式对外开放,该计算机早在2015年公布,原计划2018年完成,却因多次延迟,最终于2023年完工。Aurora具备超过1 FP64 ExaFLOPS的模拟计算能力和11.6混合精度ExaFLOPS的人工智能性能。它由166个机架、10624个计算节点组成,每个节点配备两个Xeon Max处理器和64GB HBM2E内存,以及六个Ponte Vecchio GPU。Aurora拥有21248个CPU、110万个x86核心,配备19.9PB DDR5内存和1.36PB HBM2E内存,支持31TB/s的带宽。
原文链接
加载更多

暂无内容