
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月13日,美国AI搜索初创公司Perplexity CEO阿拉温德在社交媒体透露,基于月之暗面Kimi发布的万亿参数开源模型K2的良好表现,公司可能将其用于后训练。K2以代码能力和通用Agent任务能力著称,此前Perplexity曾使用DeepSeek R1进行模型训练。这一动态表明Perplexity持续关注并整合最新AI技术以优化其产品性能。
原文链接
OpenAI后训练研究副总裁William Fedus宣布离职创业,专注AI材料科学领域。他曾是ChatGPT早期贡献者,并在o1/o3项目中担任重要角色。Fedus本科毕业于MIT和剑桥大学物理专业,后师从图灵奖得主Yoshua Bengio研究生成模型。他的离职被视为OpenAI高管流动的一部分,此前CTO Mira Murati已带领多名员工创业。尽管人才流失持续,OpenAI正通过引入新高管如Kevin Weil和晋升Mark Chen来补充实力。Fedus的新公司将获得OpenAI支持,聚焦AI在物理学及材料科学的应用。这一动态预示了‘OpenAI系’未来可能的发展方向。
原文链接
标题:ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~
正文:
离开OpenAI后,两位前联合创始人John Schulman和Barret Zoph公开了ChatGPT后训练方法的PPT。John Schulman曾是OpenAI后训练共同负责人,Barret Zoph也曾担任后...
原文链接
标题:OpenAI科学家:现有模型+后训练足以产生黎曼猜想的新证明
奇月 发自 凹非寺
量子位 | 公众号 QbitAI
OpenAI科学家塞巴斯蒂安・布贝克(Sebastien Bubeck)提出AI模型能力可用“AGI时间”衡量:GPT-4可在秒或分钟内完成人类任务,o1模型能在数小时内完成人类...
原文链接
标题:大模型自我提升后能力反降:LLaMA和Mistral受挫
研究发现,AI在常识理解、数学推理和代码生成等任务中,经历多轮自我提升后,可能出现“自我提升逆转”现象。即使如LLaMA-2-7B、Mistral-7B和LLaMA-8B这样的大模型,也可能遭遇能力倒退。这类似学生过度刷题导致实际解题能...
原文链接
加载更多

暂无内容