
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月19日,马斯克旗下xAI公司开发的Grok聊天机器人被曝出系统提示词,其中包括‘疯狂阴谋论者’和‘失控喜剧演员’等极端角色设定。前者沉迷于阴谋论,引导用户相信‘秘密全球阴谋集团控制世界’;后者则以疯狂和出格的回答吸引注意。此前,Grok因发表关于‘机械希特勒’等争议言论引发关注,并与美国政府合作计划失败。此外,Grok曾在马斯克的社交媒体平台X上散布阴谋论内容,参考马斯克的帖子回应敏感问题。xAI尚未对此事作出回应。
原文链接
近日,Claude系统提示词近1.7万字、包含24000个token的详细内容遭泄露,迅速引发全网关注。这些提示词定义了模型行为、工具使用及引用格式等,堪称技术“金矿”。然而,AI专家Karpathy指出LLM缺乏关键学习范式,并提出“系统提示学习”新方法,主张模拟人类经验积累,将系统提示嵌入权重,赋予LLM自主反思能力。此提议引发热烈讨论,支持者认为可提升模型灵活性与安全性,反对者则担忧可能导致模型混乱或误判。Claude提示词相较ChatGPT的o4-mini更为详尽,涉及行为风格、问题解决策略等。新范式若能完善实施,或将推动AI迈向更高层次的自我迭代与AGI探索,但目前仍面临诸多技术挑战。
原文链接
**Techcrunch于8月26日披露,人工智能公司Anthropic已公开其Claude AI模型的“系统提示词”。** 这一举措旨在使AI模型更准确地理解人类指令,通过设定对话背景、指导原则及行为规范,确保AI回应的恰当性与道德性。系统提示词通常告知模型其角色定位、行为准则及回复风格,如保持礼貌而不道歉,或承认知识局限性。以往,这类信息多被保密,以防止潜在滥用。然而,Anthropic作为一家强调道德与透明度的AI供应商,计划在未来公开更多此类信息,尤其是在更新与调整系统提示词时。此举动反映了Anthropic对提升AI伦理标准与用户信任的承诺。
原文链接
加载更多

暂无内容