综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月6日,国产大模型推理引擎xLLM社区将在北京举办“共建开源AI Infra生态”线下Meetup。xLLM于今年8月底开源,由一支平均年龄不到30岁的团队开发,旨在为国产芯片提供专属推理引擎,支持生成式推荐、文生图、文生视频等场景,并在昇腾等国产硬件上性能优于国际方案。项目负责人刘童璇表示,团队选择了一条‘难而正确’的技术路径,从零构建完整技术栈闭环。xLLM已应用于新疆电站等实际场景,展现广泛落地价值。未来一年,xLLM将聚焦场景纵深、模型联盟和芯片协同三大方向,目标成为数据中心级智能操作系统,助力‘人工智能+’国家战略。
原文链接
2025年11月,香港科技大学研究团队发布全球首个真实场景篮球机器人demo,使用宇树G1机器人完成三步上篮等复杂动作。团队通过SkillMimic-V2技术框架,解决了稀疏、含噪数据下技能学习的难题,显著提升技能转换成功率至94.9%。该研究基于此前SkillMimic和PhysHOI工作,结合拼接轨迹图、状态转移场等创新方法,使机器人在受干扰时仍能完成精准操作。核心作者王荫槐为港科大博士生,其研究成果从仿真到真实环境仅用两年,展现快速进展。这一突破为机器人复杂交互任务提供了新方向。
原文链接
12月6日,xLLM社区将在北京举办主题为“共建开源 AI Infra 生态”的线下Meetup。作为成立仅三个月的新兴社区,xLLM首次全面展示其技术愿景、核心规划及生态全景,定位为下一代大模型推理引擎框架,支持多元化AI场景,如大语言模型、多模态生成、文生图和文生视频等。活动将揭秘其创新架构及未来演进方向,并分享与京东11.11大促合作提升业务效率5倍的成果。清华大学副教授章明星将解读Mooncake存储方案,北京智源人工智能研究院门春雷探讨硬件优化实践。xLLM已开源,适配国产算力,与昇腾合作探索高性能推理方案,未来还将联合清华、北大等产学研伙伴推动AI生态协同创新。诚邀开发者、研究者及行业伙伴参与交流。
原文链接
11月14日,深圳津渡生物医学科技有限公司(津渡生科)宣布完成千万级Pre-A+轮融资,由南山战新投投资。津渡生科专注于AI for BioScience领域,依托BioFord™ AI生物科研平台和GeneLLM®多组学大模型体系,推动生命科学进入预训练模型时代。其技术已成功应用于华大基因、协和肿瘤医院等机构,研发团队在《Nature》等顶级期刊发表60余篇论文,具备小样本学习、全链路数据安全等优势。公司自研的GeneLLM是国内首批生科领域的专家型大模型,相关AI平台和服务广泛应用于医学诊断、生物制造等领域,服务客户包括头部AI企业、药企及高校。
原文链接
LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍
PettingLLMs团队 投稿
量子位 | 公众号 QbitAI
来自UCSD和英特尔的研究团队提出了一种通用化多智能体强化学习框架——PettingLLMs,首次实现了“群体强化”,显著提升了大语言模型(LLM)...
原文链接
LLM能替代数据科学家了?DeepAnalyze帮你告别手动分析数据
你是否为复杂文件和海量数据而头疼?是否希望自动挖掘出有价值的信息?最近,人大与清华的研究团队推出了一款名为 DeepAnalyze 的工具——你的专属“数据科学家”。只需一个指令,它便能自动化完成数据分析、建模、可视化等任务,甚至...
原文链接
拜拜了GUI!中科院团队提出“LLM友好”计算机接口
大模型Agent自动操作电脑的理想很丰满,但现实却骨感。现有LLM智能体面临两大痛点:成功率低和效率差。复杂任务常让Agent卡住,简单任务也需要几十轮交互,耗时漫长。
问题出在哪?中国科学院软件研究所团队指出,瓶颈在于我们使用了40多年的图形用...
原文链接
超越ZIP的无损压缩来了!华盛顿大学让大模型成为无损文本压缩器
当大语言模型生成海量数据时,存储问题愈发突出。为此,华盛顿大学SyFI实验室提出了一种创新方案:LLMc,利用大型语言模型(LLM)实现无损文本压缩。基准测试显示,LLMc在维基百科、小说、科学摘要等数据集上的压缩率优于传统工具(如ZI...
原文链接
9月29日,寒武纪通过官方微信号宣布,已完成对深度求索公司最新模型DeepSeek-V3.2-Exp的适配,并同步开源大模型推理引擎vLLM-MLU源代码。这一进展展示了寒武纪在人工智能领域的技术实力和开放生态布局,为开发者提供了更高效的推理工具支持。
原文链接
9月22日,Meta发布MobileLLM-R1系列小语言模型,参数量分别为1.4亿、3.6亿和9.5亿,专为移动设备等轻量级平台设计。该模型经过监督式微调(SFT),聚焦数学、编程(如Python、C++)及科学问题,预训练数据仅约2TB高质量token,总数据量不到5TB。在多项基准测试中,其性能超越使用36TB数据训练的Qwen 3-0.6B。例如,在MATH测试中,MobileLLM-R1 950M准确率是Olmo 1.24B的5倍,编程任务表现同样优异。模型已开源,采用Apache 2.0协议,可通过vLLM推理引擎运行,并在Hugging Face平台发布。
原文链接
加载更多
暂无内容