1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
马斯克 X 更新开发者协议,禁止第三方使用平台帖子训练 AI 模型
6月6日,X平台更新了开发者协议,新增禁止第三方利用其平台内容进行AI训练的条款。新政策明确指出,开发者不得使用X或其API上的内容来“微调或训练基础模型或前沿模型”。此调整可能使X未来更倾向于与特定公司合作开展AI训练项目,类似于Reddit和谷歌的做法。此前,Reddit因类似问题对Anthropic提起诉讼,指控其在2024年7月后进行了超过10万次AI爬虫访问。值得注意的是,X的隐私政策仍允许部分“合作伙伴”在用户未退出的情况下,基于平台数据进行AI模型训练,同时X自身也会将用户数据用于其AI模型Grok的训练。
数码游侠
06-06 08:22:43
分享至
打开微信扫一扫
内容投诉
生成图片
1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法
标题:复刻DeepSeek-R1-Zero,沈向洋、姜大昕、张祥雨等开源RL训练方法 DeepSeek虽开源,但未公开训练代码和数据。近日,开源项目ORZ仅需1/30的训练步骤便能赶上DeepSeek-R1-Zero的蒸馏Qwen。该项目由国内大模型“六小强”之一的阶跃星辰联与清华联合发布,团队成员...
小阳哥
02-22 18:40:47
分享至
打开微信扫一扫
内容投诉
生成图片
对于AI基建产业链各环节,DeepSeek的利好与利空
DeepSeek的高性价比训练技术引起市场关注,花旗分析师Atif Malik、Asiya Merchant等在其研报中分析了DeepSeek对AI基建产业链各环节的影响。报告指出,DeepSeek的R1模型有望推动AI模型在消费和企业市场的广泛应用,降低计算成本,提高投资回报率。 报告中定义了缩放...
AI创意引擎
02-02 09:42:01
分享至
打开微信扫一扫
内容投诉
生成图片
不断用AI自己生成的内容去喂它,你猜怎么着?
标题:AI自产自学:幻觉与崩溃 ChatGPT等聊天机器人的算法能从网络文章、社交媒体帖子及视频字幕中抓取海量文本素材,用于学习并创建类人内容。AI通过分析文本中的复杂模式,生成摘要、文章和其他内容。然而,随着越来越多AI生成的文本被发布上网,算法开始从自身生成的内容中学习,形成自产自学的循环。这可...
灵感Phoenix
01-23 21:30:41
分享至
打开微信扫一扫
内容投诉
生成图片
“废片”也值钱:谷歌、OpenAI 被曝购买创作者未发布视频素材,以训练 AI 模型
据彭博社报道,近期多家人工智能公司如OpenAI、谷歌和Moonvalley正从YouTube和其他平台的内容创作者手中购买未发布的视频素材,每笔交易可让创作者赚取数千美元。这些未公开的视频因其独特性对训练AI算法有高价值。目前,AI公司为每分钟视频支付1至4美元,特殊格式如4K视频和3D动画售价更高。此举不仅使创作者多元化收入来源,还打破了仅依赖广告的模式。然而,AI公司因未经授权使用公开内容引发争议,导致多家公司面临诉讼,被指控侵犯版权。
蝶舞CyberSwirl
01-11 16:38:03
分享至
打开微信扫一扫
内容投诉
生成图片
算力直降97%,GPT-3存储只用20MB?!这篇直接在1.58-bit下训练模型的新论文火了
标题:算力直降97%,GPT-3存储仅需20MB?新论文火了! 正文:1750亿参数的GPT-3只需20MB存储空间,基于1.58-bit训练,大幅节省算力(↓97%)和存储(↓90%)。近日,机器学习专家Will小哥发布了一篇引起广泛关注的论文。 他提出“noise_step”新技术,使模型能在1...
智慧棱镜
12-29 12:51:33
分享至
打开微信扫一扫
内容投诉
生成图片
WPS:不存在文档被用作 AI 训练的情况,与抖音豆包在 AI 层面未开展任何形式合作
WPS官方于7月21日回应近期关于其AI服务的质疑,否认了文档被用于AI训练或与抖音豆包在AI层面存在合作的传言。WPS坚称严格遵循个人信息保护法规,用户的文档安全有保障,所有文档绝不会被用于AI训练,且未发现与豆包有相关合作的行为。这一澄清旨在消除公众对WPS使用用户文档的误解。
代码编织者Nexus
07-21 15:37:53
分享至
打开微信扫一扫
内容投诉
生成图片
ChatGPT真能记住你的话吗?DeepMind与开源大佬揭示LLM记忆之谜
深度学习巨头DeepMind与开源社区探讨了ChatGPT等大型语言模型(LLM)的记忆特性。尽管用户感知到LLM似乎能记住对话,但实质上它们是无状态函数,依赖于每次对话提供的上下文信息。LLM的记忆并非真正的“记忆”,而是通过包含历史对话内容来模拟。训练过程中,LLM确实能复现部分训练数据,参数量越大,这种现象越明显,这引发了关于模型学习方式的讨论。研究发现,一些模型可能在输出中包含训练数据,潜在地涉及版权和隐私问题。未来的研究方向是探索如何改进记忆机制,使其更加抽象,以提升模型性能。
未来笔触
06-02 00:33:31
分享至
打开微信扫一扫
内容投诉
生成图片
Meta训AI,成本已超阿波罗登月!谷歌豪言投资超千亿美元,赛过OpenAI星际之门
谷歌Meta在AI领域投入已超过300亿美元,超过阿波罗登月计划成本。微软和OpenAI计划打造1000亿美元星际之门。谷歌CEO称谷歌投资更多。AI技术发展成本越来越高,深度学习模型的训练成本也不断增加。英伟达、微软、Meta等竞相推出AI芯片,市场竞争激烈。各家巨头为争夺AI领先地位,未来打算投入超千亿美元。时效性信息:最近发表于新智元的报道。
小阳哥
05-08 18:04:33
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序