综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年10月,媒体报道了一种新兴职业:通过录制家务视频为机器人训练提供数据。参与者每小时可赚取最高150美元(约合1000元人民币)。这些视频被Encord、Micro1、Scale AI等数据服务商高价收购,用于训练人形机器人。目前,机器人行业面临数据短缺问题,因缺乏现成互联网数据集,必须依赖真实世界或合成数据进行训练。真实数据质量高但成本昂贵,合成数据则通过虚拟环境生成,兼顾规模与成本。多家AI公司正加速布局,如Scale AI已生成超10万小时训练影像。然而,优质数据仍供不应求,某初创公司甚至在Craigslist上以10-20美元时薪征集家务视频。业内人士指出,当前最大数据集仅约5000小时,远未满足需求。
原文链接
广东省政府10月21日发布《广东省人工智能赋能制造业高质量发展行动方案(2025—2027年)》,支持深圳、东莞建设国家级人工智能应用中试基地,推动工业模型中试验证等工作;同时支持广州、深圳建设具身智能训练场体系,提供数据训练和验证支撑。方案提出建设人工智能开源社区与生态中心,鼓励企业基于开源大模型开发工业模型,并培育省级制造业数字化转型促进中心,提供一站式服务。此外,还将推动人工智能赋能中心、大模型中心等平台建设,助力制造业高质量发展。
原文链接
2025年10月,OpenAI研究副总裁Jerry Tworek在播客中首次详解GPT-5的思考机制,称其更像o3.1的迭代。他指出,强化学习(RL)与预训练结合是实现通用人工智能(AGI)的关键,并强调模型推理过程类似人类思考,需平衡思考时长与用户体验。OpenAI通过o1到o3的演进,逐步提升模型能力,如工具使用和复杂任务解决。Jerry还分享了加入OpenAI的经历及公司独特的工作结构,融合自上而下与自下而上的模式推动高效创新。此外,他对DeepSeek的GRPO算法表示认可,认为其推动了美国RL研究的发展。未来,OpenAI将继续优化RL与预训练结合路径,探索更自主、更智能的AI模型。
原文链接
10月18日,Meta为Facebook推出AI拼贴与照片编辑功能,可扫描用户相册生成创意内容,如拼贴、视频回顾和风格化重绘。但用户分享AI生成作品后,相关内容将被用于AI模型训练,引发隐私争议。Meta表示,仅当用户启用功能并分享时,素材才会被使用,未分享内容不会涉及训练。同时,Meta提醒不希望照片被用于训练的用户应避免启用该功能。从今年12月起,Meta还计划利用AI聊天记录优化内容与广告推荐,且用户无法选择退出,进一步引发外界对隐私政策的担忧。
原文链接
2025年10月17日,维基媒体基金会警告称,AI技术导致维基百科人类访问量显著下降,过去几个月页面浏览量同比减少8%。运营方表示,生成式AI聊天机器人和搜索引擎通过总结内容分流了流量,威胁到平台的长期可持续发展。维基媒体基金会高级总监Marshall Miller指出,虽然AI模型普遍依赖维基百科数据进行训练,但访问量下降可能削弱志愿者贡献和内容更新速度,同时影响个人捐赠支持。他呼吁用户支持人工整理的知识,强调查看原始来源和传播可信信息的重要性,以应对AI对信息获取方式的深远影响。
原文链接
正文:2025年10月,腾讯发布一种超低成本AI训练方法——无训练组相对策略优化(Training-Free GRPO)。该方法无需调整模型参数,仅通过提示词学习简短经验即可显著提升性能。实验表明,在数学推理和网页搜索任务中,使用DeepSeek-V3.1-Terminus模型的Training-Free GRPO效果显著优于传统微调方案,成本从70000元降至120元。例如,在AIME24和AIME25测试中,模型得分分别提升至82.7%和73.3%,工具调用效率也显著提高。此外,在WebWalkerQA基准测试中,其Pass@1得分达67.8%,较基线提升明显。
原文链接
2025年10月14日,苹果公司再次陷入版权纠纷,两名神经科学家苏珊娜·马丁内斯-康德与斯蒂芬·麦克尼克提起集体诉讼,指控苹果在训练AI模型时未经授权使用他们的受版权保护作品。据称,苹果通过“影子图书馆”和“网络爬虫软件”获取盗版内容,包括两位教授的两本著作。这并非苹果首次因类似问题被起诉,一个月前也曾因使用盗版书籍训练AI遭到指控。根据美国版权法,若被判故意侵权,苹果可能需为每部作品支付最高15万美元赔偿金。
原文链接
真正的AI竞争力,藏在大模型“后训练”这一步
当全球目光聚焦基座模型的参数竞赛时,一场更深刻的变革正在发生——后训练(Post-Training)。产业共识是:后训练不再是简单的优化,而是AI落地的关键步骤。企业需将通用模型转化为理解业务、具备领域知识并能执行复杂策略的“专属智能引擎”。
后训练技术...
原文链接
标题:对话Kimi付强:模型应与人类共同演化,追逐AGI需突破传统思维
在今年AI创造者嘉年华上,硅星人创始人骆轶航与月之暗面(Kimi)技术副总裁付强围绕Kimi的K2模型及其对AGI的探索展开了一场深度对话。
预训练为何重要?
骆轶航提到,Kimi从去年开始重新聚焦预训练,直到今年6月发...
原文链接
2025年9月,明星AI创企Thinking Machines发布第二篇研究论文《Modular Manifolds》,提出通过约束神经网络各层/模块在统一框架下优化以提升训练稳定性与效率。论文由Jeremy Bernstein独立撰写,核心概念是将权重参数约束在Stiefel流形上,避免数值不稳定问题,并设计了适用于多模块的‘模块化流形’方法。小规模实验显示,新算法在准确率和权重稳定性上优于AdamW,但运行时间稍长。公司首篇论文于9月10日发布,主题为克服大语言模型推理中的不确定性。Thinking Machines估值已达840亿人民币,清华姚班校友陈丹琦及其团队也参与相关研究,近期发布了关于可验证奖励强化学习的新作。公司研究成果加速涌现,其首个产品备受期待。
原文链接
加载更多
暂无内容