综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
正文:2025年11月,趋境科技联合清华大学和北航开源了KTransformers与LLaMA-Factory两大项目,大幅降低大模型微调门槛。仅需2-4张消费级显卡(如4090),即可在本地微调参数量达万亿的模型(如Kimi K2 1TB)。传统方法需数千GB显存,而新技术将显存需求压缩至90GB左右。KTransformers通过GPU+CPU异构计算优化性能,LLaMA-Factory提供易用的微调框架。二者结合支持个性化定制AI模型,适用于专业领域(如医疗、法律)及创意应用(如虚拟角色生成)。此技术为学术界、企业和个人开发者提供了低成本高效率的大模型解决方案,推动AI创新落地。
原文链接
11月4日,云计算初创公司Lambda宣布与微软达成数十亿美元的AI基础设施协议,将在微软云平台部署由英伟达技术支持的AI算力资源。Lambda首席执行官Stephen Balaban表示,此次合作受益于市场对AI驱动服务(如ChatGPT等)需求激增,并延续了双方自2018年的长期合作关系。根据协议,相关AI基础设施由数万个英伟达GPU驱动,包括NVIDIA GB300 NVL72系统,为Azure客户提供高性能训练与推理服务。此外,Lambda计划于2026年在堪萨斯城开设一座初期24兆瓦算力容量的人工智能工厂。近期全球AI算力大单频现,同日亚马逊AWS与OpenAI签订380亿美元合同,微软与澳洲IREN达成97亿美元算力协议。
原文链接
11月4日,微软与Lambda宣布达成一项价值数十亿美元的人工智能基础设施协议。根据合作协议,Lambda将部署由英伟达提供技术支持的AI基础设施。这一合作标志着微软在人工智能领域的进一步扩展,同时也凸显了英伟达在AI技术领域的关键角色。此次协议的签署显示出全球科技巨头加速布局AI基础设施的趋势,或将推动AI技术的广泛应用和创新发展。
原文链接
2025年10月,Meta裁员风波引发广泛关注。FAIR资深研究员田渊栋及其团队因Llama 4.5训练完成被裁,田渊栋透露团队此前被迫转向支持Llama项目,完成后却被‘卸磨杀驴’。此次裁员波及约600人,包括FAIR London团队,欧盟地区情况尚不明朗。Meta表示裁员旨在让团队更精简高效,部分员工获1个月过渡期和遣散补偿。尽管被裁,田渊栋收到OpenAI、谷歌DeepMind等多家顶级AI公司offer,网友调侃其或已财务自由。与此同时,Meta宣布将裁撤风控部门,转向AI自动化合规审查。
原文链接
9月5日,据《科创板日报》报道,人工智能小型云服务提供商Lambda获英伟达重大支持。今年夏天,英伟达与Lambda达成两项租赁协议:一是租用1万台搭载英伟达AI芯片的GPU服务器,为期四年,总价值13亿美元;二是另租赁8000台服务器,交易金额2亿美元,具体时间未定。这些协议使英伟达成为Lambda最大客户。Lambda正筹备上市,此前已获英伟达及AI专家Andrej Karpathy等投资。(The Information)
原文链接
8月6日,摩尔线程宣布其MUSA架构成功适配llama.cpp,进一步融入全球AI生态圈。llama.cpp是一个纯C/C++实现的项目,旨在简化大语言模型推理,并在多种硬件环境下提供高性能支持。该工具大幅降低了大语言模型推理门槛,支持包括LLaMA、Mistral、Qwen等主流模型及多模态模型。摩尔线程的MTT S80/S3000/S4000 GPU用户可通过官方容器镜像使用llama.cpp。此外,今年4月MUSA SDK升级至4.0.1版本,扩展了对Intel处理器+Ubuntu系统及海光处理器+麒麟系统的支持。
原文链接
8月1日,科技媒体Windows Report报道,Ollama公司推出适用于Windows和macOS的桌面应用,无需编程经验即可在本地运行AI模型。Ollama是一款轻量级、可扩展框架,此前依赖Docker部署,现提供更便捷的桌面端体验。新应用界面简洁,支持Win10/Win11系统,并加入高级控制功能,如上下文窗口最多支持128000个tokens。此外,其优化架构提升了稳定性、推理速度及内存使用效率,为用户带来更流畅的AI体验。
原文链接
2025年7月27日,英伟达发布全新开源模型Llama Nemotron Super v1.5,专为复杂推理和智能体任务设计。该模型在科学、数学、编程等领域实现推理性能SOTA,吞吐量提升至前代3倍,且支持单张H100 80GB显卡运行。通过神经架构搜索(NAS)优化,模型采用非标准模块设计,跳过注意力层或调整前馈网络宽度以减少计算成本。训练数据涵盖400亿token,并结合监督微调与强化学习提升表现。模型现已开源,可通过Hugging Face下载。Llama Nemotron Super v1.5隶属于Nemotron生态,覆盖Nano、Super、Ultra三大系列,分别适配边缘设备、单卡高效运行和数据中心高精度需求。目前,该生态已获多家企业支持,广泛应用于AI智能体开发与云端部署。
原文链接
2025年7月,Meta内部开发团队被曝弃用自家Llama模型,改用Claude Sonnet编写代码。据Meta工程师透露,这一调整旨在提升工作效率,因Claude的代码能力显著优于Llama。自Llama 4发布以来,该系列模型饱受争议,包括差评、刷榜风波及内部文化问题。尽管Llama-4.1和4.2仍在开发中,但Meta新成立的MSL团队或将重塑品牌,开发下一代大模型。与此同时,Anthropic公司凭借Claude实现年化收入40亿美元,其编程工具Claude Code广受开发者好评,甚至有苹果开发者用其完成2万行代码项目。此外,Meta FAIR研究员朱泽园明确FAIR与GenAI、MSL独立运作,分别专注于长期研究、技术开发和产品开发。
原文链接
6月10日,Meta公司推出LlamaRL强化学习框架,采用全异步分布式设计,在405B参数模型上将强化学习步骤时间从635.8秒缩短至59.5秒,速度提升10.7倍。强化学习通过反馈调整输出,已成为大语言模型优化性能的关键部分。然而,其高资源需求一直是个难题。LlamaRL基于PyTorch构建,通过独立执行器并行处理生成、训练和奖励模型,大幅减少等待时间。该框架利用NVIDIA NVLink技术和分布式直接内存访问(DDMA),使405B参数模型权重同步仅需2秒。测试显示,LlamaRL在8B、70B和405B模型上的训练时间分别缩短至8.90秒、20.67秒和59.5秒,性能稳定甚至有所提升,解决了内存限制和GPU效率问题,为大语言模型训练提供了高效解决方案。
原文链接
加载更多
暂无内容