综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月26日,OpenAI联合创始人伊尔亚·苏茨克维在最新采访中表示,人工智能行业应暂停对规模化的过度追求,回归研究阶段。他指出,单纯扩大模型规模和计算能力已难以带来质变,预训练数据红利正逐渐耗尽。去年5月,苏茨克维离开OpenAI后创立SSI,专注于开发更聪明且安全的AI技术。他认为,当前行业需更多关注底层创新,例如提升模型泛化能力,以高效利用现有计算资源。尽管计算能力仍重要,但研究才是突破关键。
原文链接
财联社2月18日电,由OpenAI前首席科学家伊尔亚·苏茨克维创立的人工智能初创公司Safe Superintelligence(SSI)近期融资超10亿美元,公司估值达到300亿美元。这一消息彰显了SSI在人工智能领域的巨大潜力和市场认可度。
原文链接
苏茨克维,OpenAI前首席科学家,宣布成立新公司"安全超级智能",专注于AI安全,标志着与OpenAI的公开竞争升级。他曾是OpenAI宫变的关键人物,与CEO奥特曼不和。Anthropic,OpenAI离职员工创办的另一AI公司,也强调安全并取得显著进展。苏茨克维的举动似乎证实了他与奥特曼的分歧,而他的新公司将直接挑战OpenAI在AI安全领域的地位。OpenAI内部的“英雄主义”与理念冲突持续,OpenAI成员出走潮下,各家公司都在寻求以“安全”为中心的AI发展路径,但如何避免版权争议和保持可持续发展仍是未知数。AI行业的动态发展和内部竞争预示着一场关于AI伦理和控制权的深层较量。
原文链接
前OpenAI首席科学官伊利亚·苏茨克维与同事丹尼尔·列维、丹尼尔·格罗斯联手创立了Safe Superintelligence (SSI),专注于开发安全的超级智能技术。苏茨克维曾领导AlexNet研究并推动OpenAI的发展,特别是大型模型,他对ChatGPT的兴起有直接影响。在经历OpenAI内部动荡后,他退出并致力于在纯研究机构内开发不涉及销售的产品。SSI的使命是创造不会大规模伤害人类的AI,并强调安全性和伦理价值观。尽管面临技术和市场不确定性,但鉴于创始团队的影响力和AI领域的关注,公司筹资预计不成问题。新公司承诺在保证安全的前提下追求技术突破,打造革命性的安全超级智能。
原文链接
加载更多
暂无内容