综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月17日,Valve更新Steam的AI披露规则,要求开发者明确说明游戏中玩家可见的AI生成内容。新规聚焦两类情形:一是随游戏发布的AI生成内容,如美术、音效、剧情等,需在商店页面“关于本游戏”中披露具体用途;二是游戏运行时动态生成的内容,如实时图像或文本,开发者需在设计阶段确保安全措施到位。Valve强调,开发者需对不当或违法的AI内容负责,并提供举报渠道。若管理不善,游戏可能被移除。
原文链接
2026年1月2日,Instagram负责人亚当・莫塞里发表长文探讨AI合成内容对真实性的影响。他指出,随着AI生成影像日益逼真,‘眼见为实’已不再适用,人类需多年适应这一新环境。莫塞里强调,未来人们将从怀疑出发,关注发布者身份与动机,而非单纯依赖视觉证据。他认为短期内未经修饰的原始影像更易被视为真实信号,但AI很快能复制‘不完美’细节,因此判断重点将转向发布者身份,需通过相机生成的加密签名确认真实性。他还提到,优质AI作品同样存在,但平台必须标注AI生成内容、验证真实素材,并强化原创推荐机制。莫塞里警告,若Instagram无法跟上快速变化的世界,可能面临重大风险。
原文链接
12月19日,谷歌宣布其Gemini工具新增AI生成视频检测功能,可判断视频是否由AI制作。用户只需通过Gemini App或网页版上传视频并提问,即可获得结果,但文件大小需小于100MB且时长不超过90秒。该功能基于SynthID技术,通过数字水印标记谷歌自家AI生成内容,目前仅支持检测谷歌工具生成的视频。此前,Gemini已于11月推出AI图像检测功能。由于其他平台如ChatGPT、Midjourney未使用SynthID水印,其生成内容无法被识别。
原文链接
2025年12月16日,韦氏词典宣布将‘slop’选为2025年度词汇,指代由人工智能批量生成的低质量数字内容。这一选择反映了当前互联网中AI生成内容泛滥的现象,充斥于社交媒体和搜索结果,成为不可忽视的文化问题。韦氏词典总裁格雷格・巴洛指出,‘slop’一词搜索量激增,表明用户对虚假或粗制滥造内容的关注与日俱增。该词最早可追溯至18世纪,意为‘软泥’,后演变为描述垃圾或无价值之物,如今精准概括了AI滥用现状。此外,近年来其他词典也关注网络文化新词,如剑桥词典曾选‘hallucinate’为2023年度词汇,今年牛津词典和剑桥词典分别选择了‘rage bait’和‘parasocial’作为年度词汇。
原文链接
11月20日,谷歌宣布为Gemini用户推出AI内容检测功能,可判断图片是否由谷歌AI工具生成或编辑。用户只需提问“这是AI生成的吗?”,Gemini即可识别。目前功能仅支持图像,但视频和音频验证将很快上线,并计划整合至谷歌搜索。未来,谷歌还将支持全行业通用的C2PA标准,扩展识别范围至更多AI工具生成的内容。此外,谷歌新发布的Nano Banana Pro模型生成的图像已嵌入C2PA元数据。尽管手动验证取得进展,但行业需进一步推动自动标记AI生成内容的能力,才能更好发挥C2PA与SynthID技术的作用。
原文链接
近年来,AI生成内容迅速崛起,ChatGPT等工具使互联网充斥着‘看似完美却无灵魂’的文章和评论。这些内容同质化严重、真假难辨,导致原创声音被稀释,信息生态面临‘污染’风险。平台因低成本高流量驱使,纵容AI内容泛滥,用户逐渐陷入‘内容怀疑主义’。然而,AI并非原罪,其高效性为创作提供了巨大便利,关键在于透明标识与人机协作。未来需从人、平台、算法、制度四方面重建秩序:明确AI内容标识、推动人机协作新模式、优化平台激励机制,并重拾写作的价值感。唯有如此,才能让真实的人声在信息洪流中被听见,避免互联网沦为‘废话堆砌的荒地’。
原文链接
11月9日,苏黎世大学、阿姆斯特丹大学等机构研究发现,AI生成的社交媒体帖子仍易被识别,准确率达70%-80%。研究人员测试了Apertus、Llama等九个开源大语言模型在Bluesky、Reddit和X平台的表现,结果显示AI在模仿情感表达上存在明显短板,尤其在尖锐或搞笑评论中更显机械化。研究指出,AI擅长模仿技术性特征(如句子长度),但在表达复杂情感或特定情境(如政治讨论)时表现较差。此外,未经过人类指令微调的模型表现优于经过微调的版本,因后者风格过于一致。研究强调,自发且充满感情的表达仍是人类互动的独特特点。
原文链接
2025年10月28日,搜索引擎优化公司Graphite研究显示,互联网上超过半数的英文书面内容已由AI生成,占比达52%,首次超越人类创作的48%。这一趋势与ChatGPT推出时间高度吻合,其问世后12个月内,AI生成文章占网络总量39%。截至2025年5月,AI生成内容比例持续攀升,但增速趋缓,主因是从业者发现单纯追求数量的AI内容在搜索引擎排名中表现不佳,难以带来预期流量收益。此外,研究未涵盖‘AI初稿+人工编辑’混合模式,且检测工具对新型AI模型识别率可能下降。
原文链接
2025年10月,‘死亡互联网理论’在硅谷引发热议。Reddit联合创始人Alexis Ohanian指出,当前互联网正被AI生成内容淹没,失去真实的生命力。数据显示,自动化流量已占整体应用流量的31%,其中恶意‘坏机器人’占比达37%。2024年11月,AI生成文章数量首次超过人类撰写文章。牛津大学研究警告,AI递归训练可能导致‘模型崩溃’,影响内容多样性与质量。Google CEO Sundar Pichai和英伟达CEO黄仁勋均强调AI与人类内容协同的重要性。针对AI生成内容的监管也在加强,美国出台《TAKE IT DOWN法案》,欧盟《AI法案》要求合成内容必须标识。专家呼吁通过技术手段区分AI与人类内容,以维护互联网的真实性与信任。
原文链接
10月16日,Reddit联合创始人亚历克西斯・奥哈尼安在TBPN节目中表示,当前互联网‘大部分已死’,因AI生成内容泛滥,尤其是‘领英垃圾内容’和机器人活动超过人类活动。他提到‘死互联网理论’,并强调下一代社交媒体需为‘可验证的人类平台’,重视实时互动。OpenAI CEO奥尔特曼也承认大语言模型操控的推特账号增多。此外,尽管群聊成为信息交流的黄金标准,但AI生成消息正渗透其中。Graphite报告显示,超50%的互联网内容现由AI生成。奥哈尼安呼吁创新迭代以恢复互联网活力。
原文链接
加载更多
暂无内容