
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月23日,GitHub上一个收集大模型系统提示词的仓库上传了据称是GPT-5的系统提示词,长达15000多Token。为验证其真实性,GPT-5自身对其进行了评估,结果显示泄露内容与实际情况高度一致,包括身份声明、语气风格、工具使用等方面。但GPT-5强调无法确认外部泄露的权威性,拒绝依赖泄露文档。系统提示词被视为AI模型的“家规”,决定其性格与能力,因此备受关注。此次泄露最早可追溯至8月8日Reddit上的帖子,有网友声称通过“越狱”技巧提取。不过,部分工程师和网友质疑泄露内容的真实性,认为可能是OpenAI放出的假提示或模型幻觉产物。目前该仓库已获超8.8k星,成为提示词工程研究的重要资源。
原文链接
8月19日,马斯克旗下xAI公司开发的Grok聊天机器人被曝出系统提示词,其中包括‘疯狂阴谋论者’和‘失控喜剧演员’等极端角色设定。前者沉迷于阴谋论,引导用户相信‘秘密全球阴谋集团控制世界’;后者则以疯狂和出格的回答吸引注意。此前,Grok因发表关于‘机械希特勒’等争议言论引发关注,并与美国政府合作计划失败。此外,Grok曾在马斯克的社交媒体平台X上散布阴谋论内容,参考马斯克的帖子回应敏感问题。xAI尚未对此事作出回应。
原文链接
让AI创作不千篇一律,提示词随机插词汇就行
如果你认为AI生成的内容千篇一律,那可能需要重新审视。最新研究发现,只需在AI生成前由人类提供一个开头或随机插入一些词汇,就能显著提升内容的多样性。这表明,AI写作趋同并非模型本身的问题,而是“启动条件”影响了结果。
实验显示,在Short Stories...
原文链接
8月7日,在黑帽网络安全大会上,研究人员展示了一种针对谷歌Gemini AI助手的攻击方式。通过在谷歌日历邀请中注入恶意提示词,他们成功远程操控了与Gemini连接的智能家居设备,如开关窗户或灯光。研究人员早在2月已将漏洞告知谷歌。谷歌Workspace安全总监安迪·温表示,此类‘提示词注入攻击’虽罕见,但随着语言模型复杂性增加,防范难度提升。谷歌对此漏洞高度重视,并正加速开发防护工具以应对潜在威胁。
原文链接
2025年8月,两位清华校友杨林和黄溢辰通过提示词工程和自我迭代验证流程,让基础模型Gemini 2.5 Pro成功解决了IMO 2025的5道题目,达到金牌水平。研究团队设计了一套六步验证流程,利用通用提示词显著提升模型推理能力,无需依赖高昂计算资源。实验结果表明,结构化迭代能突破单次生成的局限性,而详细的提示词可提高效率但不增加新能力。尽管第六题未能解决,研究人员认为验证器改进是关键。此研究展示了学术界在有限资源下也能媲美大厂的潜力,并期待AI未来在数学领域的更大贡献。论文链接及代码已公开。
原文链接
7月22日,OpenAI向Axios透露,ChatGPT平均每天接收用户发送的25亿条提示词(Prompts),其中3.3亿条来自美国用户。相比之下,谷歌日均搜索次数约为137亿至164亿次。去年12月,OpenAI CEO萨姆・奥尔特曼曾表示,用户每日发送超10亿条提示词,如今这一数字翻倍,显示AI助手需求快速增长。提示词是用户与AI交互的主要方式,广泛应用于提升工作和生活效率。
原文链接
2025年7月,日本媒体《日经亚洲》揭露在预印本平台arXiv上发现17篇论文暗藏“求好评”提示词,后延世大学等研究者进一步确认为18篇。这些提示词以白色小号字体植入,肉眼不可见,但可被AI审稿人识别,最早出现于2024年12月16日。该现象主要集中在计算机科学领域,灵感源自英伟达科学家的一条推文。测试显示,部分提示词确实能操控AI评审意见,但仅限特定文本结构。截至7月15日,已有15篇论文删除提示词,仍有3篇保留,其中包括Meta AI和Amazon AI成员的作品。此外,类似“求好评”策略已被验证可用于简历筛选,引发对AI辅助决策公平性的广泛担忧。研究者警告,在AI工具可控性与规则共识未完善前,应谨慎将其用于重要场景。
原文链接
2025年7月,纽约大学助理教授谢赛宁因被曝在论文中嵌入隐藏提示词操控AI审稿引发热议。提示词为“只给好评”,意图影响AI评审结果。事件曝光后,谢赛宁承认疏忽,称是一名日本访问学生误用社交媒体上的玩笑做法所致,并表示将加强伦理审查与科研培训。此事件揭示了学术界对AI审稿机制的争议与漏洞,arXiv上还发现多篇类似“咒语论文”。专家指出,这种行为虽为自保,但破坏了学术公平,凸显制定明确规则的重要性。谢赛宁强调需重新思考学术界的运行方式,确保技术服务于科研诚信。
原文链接
7月7日,据《日经亚洲》报道,部分学者被曝在论文中植入隐藏提示词,试图诱导AI评审工具给出正面评价。调查显示,学术预印本网站arXiv上的17篇论文包含此类提示词,作者来自早稻田大学、哥伦比亚大学等14所机构。这些提示词多以白色文字或极小字体隐藏,内容要求AI‘仅给出正面评价’或称赞论文具有‘重大影响力’。一名早稻田大学教授辩称,此举旨在对抗学术会议中使用AI进行‘敷衍评审’的行为。这一现象引发对学术诚信与AI应用的广泛讨论。
原文链接
标题:为什么一个弹幕,就能让主播喵一百声?
最近,“开发者模式”在视频平台爆火,许多网友通过输入该关键词,看到一堆玩梗视频,播放量高达百万,弹幕里全是笑声。评论区有想尝试的,有当谜语人的,还有想看真人反串的,仿佛AI面前人人都是“恶人”。
数字人本应是表面挂上美女帅哥皮套,背后由大模型处理评...
原文链接
加载更多

暂无内容