前OpenAI首席科学官伊利亚·苏茨克维与同事丹尼尔·列维、丹尼尔·格罗斯联手创立了Safe Superintelligence (SSI),专注于开发安全的超级智能技术。苏茨克维曾领导AlexNet研究并推动OpenAI的发展,特别是大型模型,他对ChatGPT的兴起有直接影响。在经历OpenAI内部动荡后,他退出并致力于在纯研究机构内开发不涉及销售的产品。SSI的使命是创造不会大规模伤害人类的AI,并强调安全性和伦理价值观。尽管面临技术和市场不确定性,但鉴于创始团队的影响力和AI领域的关注,公司筹资预计不成问题。新公司承诺在保证安全的前提下追求技术突破,打造革命性的安全超级智能。
原文链接
本文链接:https://kx.umi6.com/article/1734.html
转载请注明文章出处
相关推荐
换一换
“AI投资潮”应刹车?OpenAI联合创始人:规模化到头了,应回归研究!
2025-11-26 16:54:58
前OpenAI首席科学官苏茨克维再次创业,成立超级智能公司SSI
2024-06-20 16:04:30
扎克伯格:超级智能已经近在眼前,Meta 要让每个人都用上
2025-07-30 22:54:31
超800名科技领袖联合呼吁:停止研发超级智能 可能导致人类灭绝
2025-10-23 00:54:02
Meta 重组 AI 部门成立 MSL:未来几年投入数千亿美元,瞄准超级智能
2025-07-01 13:54:43
微软大动作开发超级智能!AI主管:若威胁人类将立即喊停
2025-12-12 19:04:23
OpenAI路线遭质疑,Meta研究员:根本无法构建超级智能
2025-06-20 21:05:08
OpenAI 联合创始人 Sutskever 的 AI 初创公司估值飙升至 300 亿美元,目标打造安全超级智能
2025-02-18 12:14:29
AGI 这个词“过时”了?硅谷大佬开始重金押注“超级智能”
2025-07-06 20:17:59
OpenAI被曝训出GPT-5,但雪藏
2025-01-17 21:24:08
消息称 Meta CEO 扎克伯格亲自组建 AI 团队,目标实现“超级智能”
2025-06-11 10:09:21
OpenAI GPT-5发布:模型能力全面“屠榜”,构建“超级智能”第一步
2025-08-08 04:02:48
图灵奖得主:AI取代人类比想象中快30年
2024-06-17 11:34:44
736 文章
530948 浏览
24小时热文
更多
-
2026-03-10 09:02:22 -
2026-03-10 09:01:12 -
2026-03-10 09:00:02