
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年3月,西班牙AI初创公司Multiverse Computing完成2500万欧元A轮融资,估值从1.08亿美元升至5亿美元。该公司凭借核心技术CompactifAI,通过量子物理张量网络方法将大模型体积压缩80-95%,性能几乎无损,适用于端侧设备。2025年8月发布两款“史上最小模型”——‘苍蝇脑’(9400万参数)和‘鸡脑’(3.2亿参数),吸引苹果、三星等巨头洽谈合作。Multiverse成立于2019年,最初聚焦量子计算软件,2023年转向AI领域,踩中‘小模型’风口。尽管技术壁垒存疑,其压缩方案显著降低成本与能耗,推理速度提升4-12倍,费用节省50-80%。目前市场竞争激烈,Meta、谷歌等巨头及多家初创公司均布局小模型赛道。
原文链接
英伟达新研究:小模型才是智能体的未来
大模型虽强大,但并非万能。英伟达最新研究指出,在Agent任务中,小语言模型比大模型更具经济性和灵活性,尤其在处理重复性、专业化子任务时表现更优。网友实测也显示,6.7B参数的Toolformer在学会调用API后性能超越了175B的GPT-3,而7B参数的De...
原文链接
近日,由Transformer作者之一Llion Jones创立的Sakana AI推出了一种新方法,通过让教师模型模仿人类教师进行‘启发式’教学,显著提升了学生模型的推理能力。该方法中,教师模型不再从头解决问题,而是根据已知答案提供清晰的逐步解释。实验表明,7B规模的教师模型在训练学生模型方面优于671B的DeepSeek-R1,并能有效训练出4倍规模的学生模型。这种方法不仅提高了效率,还降低了成本,使小型模型也能承担教学任务。
原文链接
标题:不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
无需蒸馏任何大规模语言模型,小模型也能自给自足、联合提升?上海人工智能实验室与中国人民大学联合提出的GRA框架(Generator–Reviewer–Adjudicator)正是这样一种新范式。该方法以“...
原文链接
2025年,AI竞赛更加激烈。中国高性能AI模型数量和质量正挑战美国的领先地位,头部模型优势缩小。根据斯坦福大学Human Centered AI研究所发布的《2025年人工智能指数报告》,AI发展迅速且无一家独大。2024年初,顶级模型比第十名高12%,2025年初差距缩小至5%。报告指出,小型化AI模型在2024年取得突破,更小、更简洁的模型展现强大能力。中美在模型质量上差距缩小,中国2023年MMLU得分落后美国20个百分点,2024年底仅差0.3个百分点。此外,开放权重模型数量激增,降低了开发门槛。尽管如此,生成式AI仍面临偏见、幻觉及生成不实信息等问题。
原文链接
2月18日,秘塔科技宣布其秘塔AI搜索上线新研究模式——先想后搜。该模式采用‘小模型+大模型’协同架构,能高效完成资料搜索与分析。新模式下,秘塔能在2-3分钟内处理数百个网页的信息。例如,针对《流浪地球》中的行星发动机成本问题,模型自动制定研究步骤并参考相关文献得出结论。秘塔表示,此模式目前适用于浅度研究,未来还将加入更多功能。
原文链接
标题:别再被DeepSeek R1本地部署割韭菜,我帮你把坑都踩遍了
买它!趁着过年有空学起来。
春节期间,DeepSeek搅动了全球市场。智能键盘日销近百万,博主课程日入五万,仿冒网站涌现2650个,DeepSeek官方紧急声明。
用户体验不佳,服务器繁忙。开源策略催生本地部署教程,成为新的AI秘...
原文链接
1月20日,佛山市AI小模型产业联合体成立大会在佛山召开。会议由模界·企业AI应用商城主办,吸引了超过150家企事业单位参与。此次大会旨在构建行业交流平台,促进AI小模型的应用与发展,推动供需合作与资源整合,助力佛山打造AI小模型应用生态圈。
原文链接
Hugging Face 发布报告,提出“扩展测试时计算”方法,通过增加运算时间使低成本小模型能产生与大模型相媲美的结果。该方法利用10亿参数的Llama模型进行数学测试,在某些情况下超越了70亿参数的大模型。此举为小型企业和个人开发者提供了降低AI成本的新途径。谷歌DeepMind亦有类似研究,认为可动态分配资源并设置验证器提高模型准确性。此技术有望帮助企业以较少资源部署精准语言模型。
原文链接
【财联社10月15日讯】人工智能初创企业OpenAI迎来新AI大将,前微软副总裁塞巴斯蒂安·布贝克加入,其专长在于超小型语言和视觉模型,即“小模型”。布贝克参与了微软Phi模型的研究,该模型旨在让人工智能应用能部署于边缘设备,速度快、私密且离线运行。当前市场趋势显示,小模型在某些领域已超越OpenA...
原文链接
加载更多

暂无内容
AI热搜
更多
