
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月5日,据《科创板日报》报道,人工智能小型云服务提供商Lambda获英伟达重大支持。今年夏天,英伟达与Lambda达成两项租赁协议:一是租用1万台搭载英伟达AI芯片的GPU服务器,为期四年,总价值13亿美元;二是另租赁8000台服务器,交易金额2亿美元,具体时间未定。这些协议使英伟达成为Lambda最大客户。Lambda正筹备上市,此前已获英伟达及AI专家Andrej Karpathy等投资。(The Information)
原文链接
8月6日,摩尔线程宣布其MUSA架构成功适配llama.cpp,进一步融入全球AI生态圈。llama.cpp是一个纯C/C++实现的项目,旨在简化大语言模型推理,并在多种硬件环境下提供高性能支持。该工具大幅降低了大语言模型推理门槛,支持包括LLaMA、Mistral、Qwen等主流模型及多模态模型。摩尔线程的MTT S80/S3000/S4000 GPU用户可通过官方容器镜像使用llama.cpp。此外,今年4月MUSA SDK升级至4.0.1版本,扩展了对Intel处理器+Ubuntu系统及海光处理器+麒麟系统的支持。
原文链接
8月1日,科技媒体Windows Report报道,Ollama公司推出适用于Windows和macOS的桌面应用,无需编程经验即可在本地运行AI模型。Ollama是一款轻量级、可扩展框架,此前依赖Docker部署,现提供更便捷的桌面端体验。新应用界面简洁,支持Win10/Win11系统,并加入高级控制功能,如上下文窗口最多支持128000个tokens。此外,其优化架构提升了稳定性、推理速度及内存使用效率,为用户带来更流畅的AI体验。
原文链接
2025年7月27日,英伟达发布全新开源模型Llama Nemotron Super v1.5,专为复杂推理和智能体任务设计。该模型在科学、数学、编程等领域实现推理性能SOTA,吞吐量提升至前代3倍,且支持单张H100 80GB显卡运行。通过神经架构搜索(NAS)优化,模型采用非标准模块设计,跳过注意力层或调整前馈网络宽度以减少计算成本。训练数据涵盖400亿token,并结合监督微调与强化学习提升表现。模型现已开源,可通过Hugging Face下载。Llama Nemotron Super v1.5隶属于Nemotron生态,覆盖Nano、Super、Ultra三大系列,分别适配边缘设备、单卡高效运行和数据中心高精度需求。目前,该生态已获多家企业支持,广泛应用于AI智能体开发与云端部署。
原文链接
2025年7月,Meta内部开发团队被曝弃用自家Llama模型,改用Claude Sonnet编写代码。据Meta工程师透露,这一调整旨在提升工作效率,因Claude的代码能力显著优于Llama。自Llama 4发布以来,该系列模型饱受争议,包括差评、刷榜风波及内部文化问题。尽管Llama-4.1和4.2仍在开发中,但Meta新成立的MSL团队或将重塑品牌,开发下一代大模型。与此同时,Anthropic公司凭借Claude实现年化收入40亿美元,其编程工具Claude Code广受开发者好评,甚至有苹果开发者用其完成2万行代码项目。此外,Meta FAIR研究员朱泽园明确FAIR与GenAI、MSL独立运作,分别专注于长期研究、技术开发和产品开发。
原文链接
6月10日,Meta公司推出LlamaRL强化学习框架,采用全异步分布式设计,在405B参数模型上将强化学习步骤时间从635.8秒缩短至59.5秒,速度提升10.7倍。强化学习通过反馈调整输出,已成为大语言模型优化性能的关键部分。然而,其高资源需求一直是个难题。LlamaRL基于PyTorch构建,通过独立执行器并行处理生成、训练和奖励模型,大幅减少等待时间。该框架利用NVIDIA NVLink技术和分布式直接内存访问(DDMA),使405B参数模型权重同步仅需2秒。测试显示,LlamaRL在8B、70B和405B模型上的训练时间分别缩短至8.90秒、20.67秒和59.5秒,性能稳定甚至有所提升,解决了内存限制和GPU效率问题,为大语言模型训练提供了高效解决方案。
原文链接
6月4日,英伟达发布基于Llama 3.1架构的Llama Nemotron Nano VL视觉-语言模型,专攻文档级理解任务。该模型整合CRadioV2-H视觉编码器与Llama 3.1语言模型,支持长达16K上下文处理,适用于多图像和复杂文本解析。模型分三阶段训练:图文预训练、多模态指令微调及文本指令优化,借助Megatron-LLM框架和A100/H100 GPU集群完成。在OCRBench v2测试中,其在OCR、表格解析及图表推理等任务上表现出色,尤其在结构化数据提取上媲美大规模模型。Llama Nemotron Nano VL支持灵活部署,兼容服务器与边缘设备,并提供4-bit量化版本,显著提升推理效率。此模型为企业文档处理提供高效解决方案。
原文链接
近日,Meta AI团队面临严峻的人才流失问题,Llama模型创始团队14名核心成员中已有11人离职。其中5人加入法国AI创企Mistral,该公司由前Meta研究人员Guillaume Lample和Timothée Lacroix创立,他们曾主导Llama模型开发。Meta还因Llama 4模型性能争议及缺乏专用“推理”模型,面临竞争压力。DeepSeek和Qwen等开源模型快速崛起,进一步压缩了Meta的市场空间。此外,Meta内部领导层调整频繁,Joelle Pineau卸任FAIR负责人,由Robert Fergus接替。Meta虽投入数十亿美元,但在开源AI领域的优势地位正在减弱。
原文链接
据《科创板日报》23日报道,由埃隆·马斯克参与的美国政府效率部(DOGE)正在利用Meta开发的Llama 2模型,对联邦工作人员针对此前优化和裁员计划的回复邮件进行审查与分类。根据该计划,若员工回复‘辞职’,即可离职;拒绝者则可能被强制复工并面临更严格的工作要求。(来源:Wired)
原文链接
Meta 推出“Llama for Startups”计划,为符合条件的美国初创企业提供每月最高6000美元补贴,最长持续6个月。申请截止时间为5月30日,目标是推动生成式AI应用开发。入选企业可获Meta技术支持及资金援助,助其降低AI解决方案成本。此举旨在强化Meta在开源AI领域的竞争力,但面临DeepSeek、Qwen等对手挑战。此前,Meta的Llama模型因测试表现问题推迟新版本发布,并被指在基准测试中作弊。尽管如此,Meta对Llama寄予厚望,预计2025年其生成式AI产品将带来20亿至30亿美元收入,2035年达4600亿至1.4万亿美元。目前,Meta正加大投入,2024年GenAI预算超9亿美元,未来可能通过AI助手展示广告或提供付费订阅服务。
原文链接
加载更多

暂无内容