1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

5月17日消息,开源大语言模型服务工具Ollama推出自主研发的多模态AI定制引擎,逐步摆脱对llama.cpp框架的依赖。该引擎针对本地推理性能进行了优化,特别是在处理大图像生成大量token时表现优异。Ollama团队强调,其引擎采用golang独立开发,未直接借鉴llama.cpp的C++实现,并感谢社区反馈改进技术。随着Meta、Google、阿里巴巴等推出复杂性增加的模型,现有架构面临挑战,Ollama的新引擎引入图像处理附加元数据,优化批量处理和位置数据管理,同时通过KVCache技术加速transformer模型推理速度。此外,新引擎优化内存管理并新增图像缓存功能,联合NVIDIA、AMD、Qualcomm、Intel和Microsoft等优化硬件元数据,提升内存估算精度。未来,Ollama计划支持更长上下文长度、复杂推理过程及工具调用流式响应,以增强本地AI模型的多功能性。

原文链接
本文链接:https://kx.umi6.com/article/18748.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
国家网络安全通报中心通报:大模型工具 Ollama 存在安全风险
2025-03-03 19:33:30
Ollama 上线自研多模态 AI 引擎:逐步摆脱 llama.cpp 框架依赖,本地推理性能飙升
2025-05-17 15:06:57
服务器总是繁忙 DeepSeek-R1本地部署图文版教程来了
2025-02-14 17:41:59
24小时热文
更多
扫一扫体验小程序