
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,谷歌开源轻量化模型Gemma 3 270M,专为终端设备设计。该模型仅含0.27B参数和4个注意力头,支持快速微调与高效运行,适合处理情感分析、文本结构化等专业任务。其能源效率极高,在Pixel 9 Pro上运行25轮对话仅耗电0.75%。此外,模型可直接在浏览器或终端设备上运行,无需联网,保障用户隐私。通过Vertex AI等工具即可轻松测试与部署,适合批量处理任务、严格控制成本及多任务专业部署场景。Gemma 3 270M已在Hugging Face等平台上线,开发者可快速迭代并部署定制化模型。
原文链接
标题:参数量暴降,精度反升!哈工大宾大联手打造点云分析新SOTA
正文:
新架构选择用KAN做3D感知,点云分析有了新SOTA!
来自哈尔滨工业大学(深圳)和宾夕法尼亚大学的联合团队推出基于Kolmogorov-Arnold Networks(KANs)的3D感知解决方案——PointKAN...
原文链接
3月14日,加拿大AI初创公司Cohere发布轻量级AI模型“Command A”。该模型只需两块英伟达A100或H100 GPU即可部署,号称性能媲美GPT-4o,且能以最少硬件实现高效运行。Command A专为中小企业设计,支持256k上下文长度及23种语言,远超多数竞品所需的32块GPU部署需求。性能测试显示,其最高每秒可输出156个Token,较GPT-4o快1.75倍,在指令追踪、SQL、代理程序等任务中表现优异。Cohere指出,大模型可能因规模过大导致延迟,而Command A更适于追求快速准确答案的应用场景。目前,Command A已上线Hugging Face平台供开发者使用。
原文链接
标题:Transformer能否推理引争议,DeepMind更新论文开源数据集
近日,一篇由DeepMind发表的论文引发了推特上的热烈讨论,关于Transformer模型是否具备推理能力的问题引起了广泛争议。起初,DeepMind训练了一个仅有270M参数的小型Transformer模型,该模型无...
原文链接
标题:轻量化虚拟试衣新框架——CatVTON
只需两张图像,不到30秒,就能实现虚拟试衣奇技,让马斯克穿上牛仔走红毯,或让寡姐展示国风Polo衫。这背后是中山大学、Pixocial等机构联合发布的CatVTON轻量化模型架构,它以Stable Diffusion v1.5 inpainting为基础...
原文链接
加载更多

暂无内容