10亿美元估值背后的AI创新与挑战
去年,OpenAI经历了轰动一时的“宫斗事件”,董事会解除创始人兼CEO Sam Altman的职务,随后Ilya Sutskever,OpenAI的联合创始人和首席科学家,也宣布离职。尽管风波最终平息,但事件揭示了OpenAI在发展路径上的分歧:一边是Altman倡导的快速部署与商业化策略,另一边是Sutskever坚持的研发导向。
今年5月,Sutskever离职后创立了Safe Superintelligence (SSI),仅3个月后,这个仅有10人团队、尚未推出产品的项目,完成了总额10亿美元的融资,估值高达50亿美元,即每名成员估值5亿美元。投资方阵容豪华,包括A16z、红杉资本、DST和SV Angel等知名VC,以及Daniel Gross,他曾是苹果内部AI项目负责人和Y Combinator AI主管,此次作为SSI合伙人参与创业并投资。
SSI的愿景是“加速开发远超人类能力的安全人工智能系统”,计划利用融资购买算力并全球招募顶尖人才。不同于多数初创企业的激进扩张,SSI更倾向于“徐徐而来”,强调安全与性能的平衡,旨在通过革命性工程和科学突破实现“安全的超级智能”。
面对投资人,SSI承诺将不受运营费用或产品周期干扰,追求安全、有保障的商业模式,以避免短期商业压力影响研发进程。对于员工,SSI要求他们全心投入,专注于安全超级智能的研究,承诺提供一生的事业机会。
投资方之所以看好SSI,是因为其关注人工智能安全性的前瞻视角,以及Sutskever在AI领域的深厚背景。然而,SSI的模式也面临挑战,如寻找真正理解并支持其愿景的投资人,以及在全球范围内吸引顶尖人才。
当前,SSI官网简洁至极,仅包含团队自述和联系方式。其“公司化”治理尚不明朗,短期内无意销售人工智能产品。这一模式或将成为其独特之处,但也考验着其能否在保持科研初心的同时,实现可持续发展。
.png)

-
2025-07-19 20:57:00
-
2025-07-19 18:55:37
-
2025-07-19 17:56:25