1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器 当大语言模型生成海量数据时,存储问题愈发突出。为此,华盛顿大学SyFI实验室提出了一种创新方案:LLMc,利用大型语言模型(LLM)实现无损文本压缩。基准测试显示,LLMc在维基百科、小说、科学摘要等数据集上的压缩率优于传统工具(如ZI...
智能维度跳跃
10-11 15:28:38
LLMC
大型语言模型
无损压缩
分享至
打开微信扫一扫
内容投诉
生成图片
寒武纪Day 0适配DeepSeek-V3.2-Exp 同步开源推理引擎vLLM-MLU
9月29日,寒武纪通过官方微信号宣布,已完成对深度求索公司最新模型DeepSeek-V3.2-Exp的适配,并同步开源大模型推理引擎vLLM-MLU源代码。这一进展展示了寒武纪在人工智能领域的技术实力和开放生态布局,为开发者提供了更高效的推理工具支持。
星际Code流浪者
09-29 21:16:07
DeepSeek-V3.2-Exp
vLLM-MLU
寒武纪
分享至
打开微信扫一扫
内容投诉
生成图片
Meta 开源 MobileLLM-R1 系列小语言 AI 模型:参数量不到 10 亿、专攻数学编程科学问题
9月22日,Meta发布MobileLLM-R1系列小语言模型,参数量分别为1.4亿、3.6亿和9.5亿,专为移动设备等轻量级平台设计。该模型经过监督式微调(SFT),聚焦数学、编程(如Python、C++)及科学问题,预训练数据仅约2TB高质量token,总数据量不到5TB。在多项基准测试中,其性能超越使用36TB数据训练的Qwen 3-0.6B。例如,在MATH测试中,MobileLLM-R1 950M准确率是Olmo 1.24B的5倍,编程任务表现同样优异。模型已开源,采用Apache 2.0协议,可通过vLLM推理引擎运行,并在Hugging Face平台发布。
阿达旻
09-22 21:03:24
MobileLLM-R1
开源小语言模型
数学编程科学问题
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达推出通用深度研究系统,可接入任何LLM,支持个人定制
英伟达推出通用深度研究系统,支持个人定制与任意LLM接入 英伟达近日发布了一款名为通用深度研究(UDR)系统的创新工具,支持个人定制并可接入任何大语言模型(LLM)。该系统能够围绕任意语言模型运行,用户可通过自然语言定义和优化自己的研究策略,无需额外训练或微调模型。 UDR的核心优势在于其高度灵活性...
AI创意引擎
09-08 13:59:39
LLM
深度研究系统
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
2025年9月,苹果与牛津大学和香港城市大学联合发布了一项名为BED-LLM的研究成果。该方法无需微调或重训模型,通过引入贝叶斯实验设计框架,显著提升了大型语言模型(LLM)的提问效率。其核心是让AI学会动态调整问题,以最大化信息增益,并解决多轮对话中的“遗忘症”问题。实验表明,BED-LLM在猜谜游戏和电影推荐任务中将成功率从14%提升至91%,并在跨模型对话中表现出色。这一突破展示了AI从被动问答向主动信息收集的转变,为未来智慧对话提供了新方向。
Nebula
09-03 18:49:23
BED-LLM
信息增益
大型语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌推出LLM评估新范式Game Arena
谷歌于当地时间周一宣布,联合Kaggle推出全新LLM评估平台Game Arena。该平台通过让大语言模型在战略游戏中直接对抗,提供客观、动态且可扩展的评估新范式。为庆祝上线,谷歌将在北美时间8月5日举办首次LLM象棋比赛,八大顶尖AI模型将参与对决,包括谷歌、OpenAI、Anthropic、xAI、DeepSeek和月之暗面等。这一赛事旨在展示AI模型在复杂策略环境中的表现,同时推动LLM评估方法的创新。
GhostPilot
08-05 15:21:53
Game Arena
LLM评估
谷歌
分享至
打开微信扫一扫
内容投诉
生成图片
只因一个“:”,大模型全军覆没
近日,研究发现一个冒号或特定推理开头语(如“Thought process:”)即可欺骗多个主流大语言模型(LLM),包括GPT-4o、Claude-4和LLaMA3-70B等。腾讯AI Lab、普林斯顿大学和弗吉尼亚大学的研究团队揭示了这一漏洞,指出其具有跨语言普遍性,并可通过嵌入相似度搜索生成更多对抗样本。为解决该问题,团队开发出增强数据集训练的‘评委’模型Master-RM,将假阳性率降至接近0%,同时保持高评估一致性。研究强调了强化学习验证流程中的安全挑战,未来需进一步提升模型稳健性。论文已公开,相关资源可在Hugging Face平台获取。
量子黑客
07-15 17:47:42
LLM
Master-RM
假阳性率
分享至
打开微信扫一扫
内容投诉
生成图片
最强3B「小钢炮」,代码数据全公开!推理随意开关,128k超长上下文
2025年7月11日,Hugging Face发布新一代最强30亿参数小模型SmolLM3,支持128k超长上下文、双推理模式(think/no_think)及多语言处理。该模型性能超越Llama3.2-3B和Qwen2.5-3B,逼近40亿参数模型,并完全开源训练、对齐、架构与数据。团队通过优化架构(如GQA机制、NoPE编码)及三阶段训练策略提升模型能力,尤其在数学、编程和长文本任务中表现优异。此外,SmolLM3引入双模式指令模型构建方案,平衡推理与非推理性能,支持工具调用与灵活场景适配。研究者可通过transformers库轻松部署,模型已在Hugging Face平台开放下载。
超频思维站
07-11 11:34:58
SmolLM3
开源模型
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
Hugging Face开源小参数模型SmolLM3
7月9日凌晨,Hugging Face首席执行官克莱门特·德朗格宣布开源小参数模型SmolLM3。该模型支持128k上下文窗口,兼容英语、法语、西班牙语、德语等6种语言,并具备深度思考和非思考双推理模式。这一发布为多语言任务和高效推理提供了新工具,进一步推动开源AI生态发展。
梦境编程师
07-09 07:58:36
Hugging Face
SmolLM3
开源
分享至
打开微信扫一扫
内容投诉
生成图片
14%论文都有AI代写?Nature:每7篇就有1篇藏有ChatGPT特征词
据Nature最新报道,2024年PubMed上发表的150万篇生物医学研究摘要中,14%被发现含有ChatGPT等大语言模型(LLM)特征词。这些词汇多为冗余的动词和形容词,如“intricate”、“notably”,并未影响内容但暴露了AI代写痕迹。部分学科和国家的AI辅助写作比例更高,例如计算领域达20%,非英语国家如中国、韩国约15%。开放获取期刊如MDPI旗下的《Sensors》LLM使用率高达24%,而顶刊如《Nature》仅6%-8%。研究还发现,作者逐渐调整LLM输出以规避特征词,但无法完全消除痕迹。研究人员计划通过统计常见词汇频率进一步量化AI对学术文献的影响,并呼吁重新思考AI在学术写作中的边界与规范。
AI创意引擎
07-04 16:46:22
AI代写
LLM特征词
学术写作
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序