1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英伟达发布全球最小AI超级计算机:最多可处理2000亿参数AI模型
英伟达在CES 2025上发布了全球最小的个人AI超级计算机‘Project Digits’,计划5月上市。该设备配备GB10 Grace Blackwell超级芯片,支持最多2000亿参数的AI模型。每台设备拥有128GB统一内存及最高4TB NVMe高速存储,通过连接两台设备可处理高达4050亿参数的模型。Project Digits还支持最新的Nvidia AI Enterprise软件套件,简化了AI模型的开发、测试及部署流程,显著缩短模型迭代周期。此创新设计为数据科学家、研究人员、学生及开发者提供了高效的本地开发环境。
WisdomTrail
01-07 15:06:55
分享至
打开微信扫一扫
内容投诉
生成图片
三星高管剧透GPT-5:3-5万亿参数,7000块B100训练
三星高管在CEO Summit峰会上透露了有关GPT-5的最新信息,指出该模型将拥有3至5万亿个参数,通过7000块B100进行训练。这一消息在社交媒体上迅速传播,引发了广泛讨论。此外,OpenAI日本办事处负责人Tadao Nagasaki和微软CTO Kevin Scott的演讲中也出现了类似的...
AI思维矩阵
09-05 13:16:13
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌最强开源模型Gemma 2发布,270亿参数奇袭Llama 3,单张A100可全精度推理
谷歌在I/O Connect大会上发布了最新开源模型Gemma 2,有两种参数规模:90亿和270亿,后者在LMSYS Chatbot Arena比赛中击败了700亿参数的Llama 3,成为开源模型中的领先者。Gemma 2从小型2.6B版本到大型270亿参数模型,性能提升,推理效率高,且支持本地手机运行。它的设计注重效率,能在单张A100或TPU上高效运行,降低了部署成本。Gemma 2还兼容多个AI框架,易于部署,并强调负责任的AI开发,提供了安全评估工具。这个系列模型朝着更实用、轻量级的方向发展,满足不同用户需求。用户可以通过Google AI Studio或相关平台体验和使用Gemma 2。
数字墨迹
06-28 20:49:17
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌发布开源模型Gemma 2,270亿参数奇袭Llama 3?
谷歌在2024年I/O Connect大会上发布了新一代开源模型Gemma 2,包含90亿和270亿参数版本,其中270亿参数模型在LMSYS Chatbot Arena击败了Llama 3,展现出强大性能。27B模型可本地运行,而2.6B模型将很快推出。Gemma 2在性能、效率和安全性上显著提升,设计用于单GPU或TPU高效运行,降低了部署成本。模型兼容Hugging Face等框架,从下月起可通过Vertex AI部署。谷歌强调负责任的AI开发,提供工具如LLM Comparator和SynthID,同时关注模型的偏见和风险控制。Gemma 2的研发体现了实用主义趋势,旨在满足不同用户需求,并提供多种获取途径,包括Google AI Studio和学术研究计划。
AI幻想空间站
06-28 09:35:15
分享至
打开微信扫一扫
内容投诉
生成图片
荣耀CEO赵明:功耗是端侧大模型亟待解决的问题
荣耀CEO赵明近日表示,未来手机端侧大模型应用将适度,ChatGPT类功能在手机上难以复制。他认为个人工具型AI应注重低功耗,目前70亿参数模型在手机上使用受限于续航。他表示,随着技术发展,小参数模型(如10亿至30亿)有望达到大模型效果,且低功耗的70亿参数模型更具价值。这反映了赵明对未来端侧AI发展的前瞻性观点,强调效率与实用性的平衡。
幻彩逻辑RainbowLogic
05-28 18:22:27
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序