8月16日,谷歌发布开源Gemma系列中最轻量模型Gemma 3 270M,参数规模2.7亿,专为端侧部署设计,支持手机、平板及Web环境。该模型在Q4_0量化格式下仅需约240MB RAM,适合低功耗设备,如Pixel 9 Pro运行25轮对话仅耗电0.75%。其擅长处理高频任务与隐私场景,如情感分析、实体识别等,还可用于开发专用小型模型。谷歌同步提供基于Hugging Face Transformers的微调教学资源,支持分类、信息抽取等定制化开发。目前已有开发者通过transformers.js实现浏览器端运行,验证了其在Web环境中的性能与可控性。
原文链接
本文链接:https://kx.umi6.com/article/23680.html
转载请注明文章出处
相关推荐
换一换
阿里通义千问 Qwen3-4B-2507 双料更新:手机也能轻松跑,AI 体积小、性能强
2025-08-07 07:43:52
谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境
2025-08-16 16:27:24
DeepSeek撕开一道裂缝
2025-02-17 19:57:46
谷歌版小钢炮开源!0.27B大模型,4个注意力头,专为终端而生
2025-08-15 16:16:40
清华开源 TurboDiffusion:AI 视频生成最高提速 200 倍,单张 RTX 5090 秒出大片
2025-12-25 16:44:56
周大福珠宝与字节火山引擎合作,推出 AR 虚拟试戴服务
2025-12-25 14:41:15
微软 AI CEO 苏莱曼:AI 聊天机器人是人类宣泄情绪、“自我排毒”的有力工具
2025-12-24 12:38:24
腾讯混元推出 ETC 领域首款 AI 智能体,问题解决率达 90%
2025-12-25 15:41:35
H200春节前重返中国,黄仁勋有多少胜算?
2025-12-25 18:54:36
广东:推动证券类投资基金支持扩张期、成熟期阶段的科技型企业提升估值与降低融资成本
2025-12-25 10:30:20
ChatGPT也上线了个人年度报告!
2025-12-24 14:38:58
中国未来,可能会非常缺铜
2025-12-24 18:53:31
清华系公司清微智能放言:明年国产AI芯片有望超越国际高端芯片 对标H100
2025-12-25 22:04:17
618 文章
399648 浏览
24小时热文
更多
-
2025-12-25 23:03:27 -
2025-12-25 23:02:30 -
2025-12-25 22:04:17