
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年8月,谷歌DeepMind团队在最新开发者节目中展示了Gemini 2.5 Flash Image模型,该模型具备原生图像生成与编辑能力,支持多轮对话式场景一致性操作,堪称图像生成领域的革命性突破。其亮点包括创意解读模糊指令、文本渲染改进及复杂任务的交错生成机制,适用于家居设计、人物OOTD等场景。团队核心成员包括Logan Kilpatrick、Kaushik Shivakumar、Robert Riachi、Nicole Brichtova和Mostafa Dehghani,他们在AI、多模态学习等领域有深厚积累。相比专注文本到图像的Imagen,Gemini更适合复杂多模态任务,未来目标是迈向通用人工智能(AGI)。
原文链接
谷歌DeepMind推出AlphaEarth Foundations(AEF)模型,实现高精度绘制地球,为科学家提供近乎实时的观测能力。该模型整合PB级多源数据,如光学卫星图像、气候模拟等,解决数据过载和标注不足问题,生成通用地理空间表示,支持按需创建地图。AEF通过时空精度编码器和多源信息融合技术,实现时间连续建模与高效存储,其嵌入向量仅64字节,存储需求为其他系统的1/16。目前,联合国粮农组织、哈佛森林等超50个组织已应用其卫星嵌入数据集,用于生态监测与资源管理。AEF在土地覆盖分类等任务中表现卓越,准确率达0.82,显著优于传统方法。巴西MapBiomas团队正利用其研究亚马逊雨林变化。网友称AI模型正成为公共基础设施。论文与参考链接已公开。
原文链接
2025年7月,谷歌DeepMind团队在IMO(国际数学奥林匹克竞赛)中斩获金牌后,公开晒出团队大合照,并圈出每位成员的联系方式,引发广泛关注。这一举动被外界解读为对Meta(小扎)此前挖角行为的回应与‘挑衅’。此前,Meta迅速挖走了谷歌IMO团队中的三名核心华人成员,但这三人并未出现在合照中。团队负责人Thang Luong透露,来自山景城、纽约、新加坡等地的核心成员在伦敦总部集结,进行了一周的冲刺训练,最终完成对模型Gemini Deep Think的巅峰优化。团队成员包括多位顶尖科学家,如Yi Tay、Quoc Le等,他们在数学推理与代码生成等领域取得突破性进展。此次公开合照和名单不仅展示了谷歌的信心,也引发了行业对人才争夺战的新一轮关注。
原文链接
7月23日,谷歌DeepMind推出名为Aeneas的AI模型,助力解读古代文本。该模型专为拉丁语设计,可处理多模态输入,填补残缺文本空白,并识别铭文间的深刻联系。通过将文本转化为包含内容、语言及来源的“历史指纹”,Aeneas帮助历史学家更高效地背景化和解读孤立碎片,丰富对古代文明的理解。DeepMind称其为解码人类历史的重要工具,现已开源,适用于多种古代语言与媒介。
原文链接
7月23日,微软从谷歌DeepMind部门挖走超20名AI人才,包括前谷歌Gemini聊天机器人工程主管阿马尔·苏布拉马尼亚,他已出任微软AI副总裁。此次招聘热潮使微软吸纳至少24名DeepMind员工,包括多名核心技术人员。微软与谷歌的竞争加剧,尤其因DeepMind联合创始人穆斯塔法·苏莱曼现负责微软消费级AI战略。此外,Meta也加入AI人才争夺,OpenAI CEO批评行业‘雇佣兵’文化。尽管DeepMind流失部分员工,但其员工留存率仍高于行业平均,且谷歌称持续吸引顶尖AI人才。
原文链接
2025年7月22日,谷歌DeepMind在第66届国际数学奥林匹克竞赛(IMO)中取得35分,达到金牌级别成绩。本届IMO中,中国队荣获团体第一,上海中学邓乐言和巴蜀中学张恒烨均获满分42分。下届IMO将于2026年在上海中学举办,进一步彰显赛事影响力与科技结合的新趋势。
原文链接
2025年7月,OpenAI宣布其未公开实验性大语言模型在国际数学奥林匹克竞赛(IMO)中获得金牌,得分35/42,引发争议。IMO组委会曾要求参赛AI公司闭幕式后一周再公布结果,以尊重人类选手并验证答案,但OpenAI在闭幕式当天(7月19日)即抢先发布。谷歌DeepMind同样获得金牌,但选择低调遵守规则。IMO评审团批评OpenAI的做法不尊重赛事规范。此外,OpenAI未参与官方评分流程,且拒绝了IMO提供的Lean格式题目支持。专家指出,若依据官方评分标准,OpenAI可能仅获银牌。OpenAI回应称未被告知‘一周后发布’的要求,且强调其发布时间符合闭幕式后建议。此事件引发广泛讨论。
原文链接
正文:2025年7月19日,KAIST、谷歌DeepMind等机构联合发布了一种全新LLM架构——Mixture-of-Recursions(MoR),被业界称为潜在的“Transformer终结者”。MoR通过动态路由和递归机制,在推理速度上提升2倍,内存占用减半,并在135M到1.7B参数规模下划出新的帕累托前沿,全面超越传统Transformer。其核心创新包括小型路由器为token打分以减少冗余计算,以及KV缓存策略优化内存效率。实验表明,MoR在相同训练FLOPs下实现更低困惑度和更高小样本准确率,推理吞吐量提升超2倍。研究团队认为,MoR展现了高可扩展性和参数效率,或成为下一代LLM架构的标杆。
原文链接
7月14日,原计划被OpenAI以30亿美元收购的AI编程初创公司Windsurf交易失败,转而与谷歌达成合作。谷歌宣布将聘用Windsurf的CEO Varun Mohan、联合创始人Douglas Chen及部分研发团队成员,他们将加入谷歌DeepMind部门。这一举措标志着谷歌在AI编程领域的重要布局,同时显示了其与OpenAI竞争高端AI人才和技术的决心。此次事件凸显了科技巨头间对AI技术资源的激烈争夺。
原文链接
7月12日,Windsurf宣布OpenAI对其的收购计划已取消。取而代之的是,Windsurf CEO Varun Mohan、联合创始人Douglas Chen及部分员工将加入谷歌DeepMind团队,专注于Gemini项目和AI编码智能体开发。谷歌未获得Windsurf控制权或股权,但取得部分技术的非独家许可。此前报道称OpenAI曾计划以30亿美元收购Windsurf。即日起,Jeff Wang担任Windsurf临时CEO,Graham Moreno出任新总裁。谷歌发言人表示,此次引入Windsurf顶级AI人才将进一步提升其在AI编码领域的能力。
原文链接
加载更多

暂无内容