
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2023年,自OpenAI内部冲突后,AI领军人物Ilya Sutskever创立了Safe Superintelligence Inc. (SSI),专注于研发安全的超级智能,回归初衷,避免商业干扰。新公司由Ilya任首席科学家,与Daniel Gross(曾是YC AI计划负责人)和Daniel Levy(OpenAI优化团队领导者)联手,后者在AI项目和优化上经验丰富。Gross,类似早期的Sam Altman,凭借硅谷人脉和技术视野,支持Ilya的安全研究路线。SSI目标是开发强大而安全的AI系统,类似于《辐射》游戏中的Vault-Tec,暗示着对技术进步潜在风险的警惕。公司成立引发了业界对AI安全与创新之间平衡的关注。
原文链接
前OpenAI联合创始人兼首席科学官Ilya Sutskever于6月20日宣布创立Safe Superintelligence Inc.,这是一家专注于研发安全强AI的合资企业。新公司承诺在纯科研背景下开发首个安全AI系统,避免商业化压力和市场竞争,旨在确保产品的独立与安全性。Sutskever强调,公司初期将仅专注于这一核心目标,体现了对AI伦理的重视和创新的前瞻思维。
原文链接
加载更多

暂无内容