文章
(693)
1月21日,美股知名科技分析师丹·艾夫斯及其团队表示,围绕格陵兰岛的纷争正导致美股疲软,冲击AI概念股和科技股。然而,艾夫斯认为这是购入优质科技股的机会,并建议投资者关注IVES AI 30指数中的股票,包括英伟达、微软、苹果等科技巨头。
原文链接
在2025年世界人工智能大会上,端侧AI技术成为焦点,一款AI手机可在极短时间内完成长篇法律文档的本地分析处理,功耗仅相当于快充水平。端侧AI芯片正从云端走向日常生活,中国企业虽规模仅为美企的十四分之一,但增长迅猛。例如,OPPO展示峰值出字速度达200 token/s的成果,炬芯科技和瑞芯微等企业通过差异化技术路径取得突破。数据显示,2025年上半年美股五大巨头营收达2444.5亿元,而18家中国公司总营收193.3亿元,但部分企业如瑞芯微、炬芯科技实现超50%增长。未来竞争将围绕“智能体硬件化”、场景深度渗透及生态协同展开,端侧AI芯片从“跑起来”迈向“会思考”,体验定义或成制胜关键。
原文链接
1月27日将迎来‘DeepSeek时刻’一周年,全球AI社区期待其新动作。科技评论人Kevin Xu分析指出,DeepSeek最坚固的护城河是零外部融资、无商业化压力的模式。创始人梁文锋依靠量化基金‘幻方量化’的巨额利润支撑研发,完全掌控研发方向。相比之下,其他AI实验室因资本裹挟面临资源内耗和商业化压力。尽管DeepSeek未开源数据集,不再是市场最开放玩家,但其纯粹专注AGI研究的特质备受认可。Kevin认为,一旦接受外部投资,DeepSeek的独特性将消失,而这正是其长期优势所在。
原文链接
根据TrendForce集邦咨询报告,北美云服务供应商加大对AI基础设施的投资,预计2026年全球AI服务器出货量将增长28%以上。同时,AI推理服务带来的运算负荷推动通用型服务器进入替换与扩张周期,预计2026年全球服务器(含AI服务器)出货量将增长12.8%,增幅较2025年扩大。这一趋势显示AI技术需求持续升温,带动相关硬件市场快速增长。
原文链接
摩根大通最新研究报告指出,高带宽存储器(HBM)市场自2023年起进入第四年上升周期,预计增长将持续至2027年。报告强调,人工智能(AI)和高性能计算(HPC)需求激增推动HBM技术重要性提升,其在AI资本支出与收入中的占比不断攀升,成为存储行业增长的核心驱动力。此外,HBM结构性短缺可能延续至2028年,进一步凸显其长期供需紧张态势。该研究聚焦亚太地区存储行业,揭示了HBM在未来数年的关键市场地位。
原文链接
标题:人大高瓴赵鑫团队新作:拆解 RLVR,优化推理模型训练
正文:
大语言模型在数学题、任务规划等复杂任务中暴露出一个核心问题:会生成不等于会推理。尽管行业通过 RLHF 和奖励技术提升了模型表现,但“一本正经胡说八道”的现象仍普遍存在。人大高瓴学院赵鑫团队针对这一问题展开研究,提出了一种新的...
原文链接
2026年1月,AI制药在二级市场引发炒作热潮,但多数公司缺乏实质技术支撑。真正的AI制药公司需具备同行评审的AI模型、专业团队及高价值BD交易,而当前疯涨的企业多无原创模型或研发成果。行业经历2020-2021年资本热潮后进入融资寒冬,部分中国企业通过十年努力崭露头角,与单纯接入DeepSeek蹭概念的公司形成鲜明对比。医药基金关注靶点和临床数据,科技基金则倾向更高确定性的领域,导致AI制药在二级市场投资逻辑受限。若看好该领域,应聚焦挖掘真正龙头,而非依赖赛道思维躺赚。
原文链接
1月17日,OpenAI宣布将在未来几周于ChatGPT免费版及Go版本中引入广告,以筹集资金支持通用人工智能(AGI)研发。AGI目标是打造具备人类思维、学习和解决问题能力的超级AI系统。广告将以独立模块形式置于AI回答底部,并清晰标注,确保与AI内容区分。OpenAI承诺广告不会干扰答案生成逻辑,敏感话题如健康、心理或政治讨论时将屏蔽广告。用户对话记录不会出售给广告商,且可随时清除数据。付费订阅用户(Plus、Pro等)将继续享有无广告体验,若想避免广告需升级至20美元月度订阅服务或选择其他平台。
原文链接
2026年初,微软、谷歌等科技巨头正大力招聘能源领域专家,以应对AI发展中的电力瓶颈问题。数据显示,自2022年以来,微软已在能源领域新增超570名员工,亚马逊新增605人,谷歌新增340人。巨头间还互相挖角,如微软挖走谷歌能源市场负责人Betsy Beck,谷歌则吸引前英国石油顾问Eric Schubert加盟。微软CEO纳德拉曾公开表示,“缺电比缺GPU更致命”,并指出电力供应和数据中心建设速度是主要挑战。此外,大厂积极布局核电与可再生能源,Meta已与多家核能公司合作,微软承诺承担更高电价以平衡居民用电需求。同时,巨头们也在投资核聚变技术,如Helion和CFS等初创公司获多方支持。
原文链接
1月15日,谷歌发布基于Gemma 3架构的开放翻译模型系列TranslateGemma,提供4B、12B和27B三种参数规模,支持55种核心语言及多模态图像翻译,已在Kaggle和Hugging Face开放下载。性能测试显示,12B版本超越参数量更大的27B基线模型,4B版本适合移动端,性能接近12B基线。TranslateGemma采用两阶段微调工艺,结合监督微调和强化学习技术,优化翻译质量,并覆盖近500种语言,为濒危语言研究提供支持。该模型还具备多模态能力,无需额外视觉任务微调即可提升图像内文字翻译效果。三种尺寸分别适配手机、笔记本电脑及云端高性能场景,开发者可通过Vertex AI等平台部署。
原文链接
加载更多
24小时热文
更多
-
2026-01-22 06:40:59 -
2026-01-22 04:36:47 -
2026-01-22 00:31:16