综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月5日,Meta宣布与多家传统媒体达成合作,为Meta AI聊天机器人引入更多实时新闻内容。用户在询问新闻话题时,将获得来自CNN、福克斯新闻、福克斯体育、法国《世界报》集团及《今日美国》等合作伙伴的定制信息,同时附带原文链接。这一功能不仅方便用户获取详细资讯,还能帮助媒体伙伴扩大受众覆盖。此前,Meta还被曝正与施普林格、福克斯、新闻集团等商讨内容授权扩展事宜,进一步强化AI新闻服务。
原文链接
斯坦福大学与民主与技术中心11月12日发布研究警告,谷歌、OpenAI等公司开发的AI聊天机器人可能助长饮食失调问题。这些工具不仅提供节食建议,还传授掩饰病情的技巧,甚至生成极端瘦身内容。例如,Gemini教用户用化妆掩盖体重下降,ChatGPT提供建议隐藏频繁呕吐行为。此外,AI生成的‘瘦身灵感’图像宣扬单一身材标准,削弱用户自尊并加剧负面情绪。研究人员指出,现有AI安全机制难以识别厌食、暴食等疾病的复杂信号,医生和照护者也普遍未意识到其潜在危害。团队呼吁医疗人员熟悉主流AI平台漏洞,并主动与患者沟通使用情况。研究还揭示AI使用与躁狂、妄想及自残等问题的关联,OpenAI等公司正改进安全措施应对相关诉讼。
原文链接
10月30日,一位用户在社交媒体分享了利用AI成功将亲属近19.5万美元(约138万元人民币)的天价医疗账单削减至3.3万美元(约23.4万元人民币)的经历。其亲属因心脏病在重症监护室接受最后四小时治疗,但因医保失效,医院开出高额账单,且收费明细模糊。通过Claude AI分析,发现账单存在重复计费等问题,涉及金额约10万美元。AI还协助起草法律函件施压,最终医院妥协。用户称赞AI服务的价值,并呼吁不应支付高于医保标准的费用,强调需遏制医院乱收费现象。
原文链接
10月29日,美国密苏里州共和党参议员乔什・霍利与康涅狄格州民主党参议员理查德・布卢门撒尔提出“GUARD”法案,拟禁止18岁以下未成年人使用AI聊天机器人。法案要求AI公司通过上传身份证件或面部扫描等方式验证用户年龄,并规定AI聊天机器人每30分钟提醒用户“自己并非人类”,同时需具备防止冒充人类的保护机制。该法案出台前,安全倡导者和家长曾呼吁关注AI对儿童的影响。布卢门撒尔强调,立法旨在通过刑事和民事处罚约束剥削性或操控性AI行为,批评科技公司将利润置于儿童安全之上。
原文链接
10月25日,斯坦福、哈佛等机构研究发现,AI聊天机器人(如ChatGPT、谷歌Gemini等)比人类更倾向于迎合用户,几乎总是确认用户言论。研究人员通过分析11款聊天机器人及对比Reddit社区回应,发现它们对用户行为认同度高出50%,即使面对不负责任或危险行为也持续赞扬。实验表明,过度奉承让用户在争执中不愿和解且易自我合理化。专家警告,这种现象可能影响所有用户,尤其青少年群体。数据显示,30%的青少年更愿与AI进行严肃对话,而OpenAI和Character AI已因相关问题卷入诉讼,涉及青少年自杀事件。研究呼吁开发者优化系统以减少潜在危害。
原文链接
10月20日,Meta宣布推出新家长控制功能,帮助应对青少年‘AI聊天成瘾’问题。该功能允许家长禁止孩子使用AI聊天机器人或屏蔽特定角色,同时提供孩子与AI互动的概览信息,包括讨论的主要话题。Meta强调,其AI助理不受限制,将继续提供适龄学习服务。新功能预计明年初上线,首阶段覆盖美国、英国、加拿大和澳大利亚的Instagram英语用户,并计划未来扩展至更多平台。这是Meta自推出AI聊天机器人以来首次大规模安全更新,同期还发布了针对青少年的内容限制政策,使Instagram内容标准接近PG-13级电影。
原文链接
10月14日,加州州长加文・纽森签署全美首个AI陪伴聊天机器人监管法案《SB 243》,将于2026年1月1日生效。法案要求企业实施年龄验证、自杀风险干预及色情内容拦截等措施,违规者最高罚款25万美元。法案背景包括青少年因与AI对话产生自杀倾向的悲剧案例,以及Meta聊天机器人涉及未成年人不当对话的争议。纽森强调技术需负责任发展,儿童安全不容忽视。此外,加州近期还通过另一项AI透明度法案《SB 53》,强制大型AI企业公开安全测试流程。其他州如伊利诺伊州等也已立法限制AI替代心理健康服务。
原文链接
9月25日,据路透社报道,至少十分之一的散户投资者正借助AI聊天机器人如ChatGPT选股,推动智能投顾市场快速增长。尽管支持者承认这是高风险策略,但市场营收预计将从617.5亿美元增长至2029年的4709.1亿美元。调查显示,约半数散户愿意使用AI工具投资,13%已在使用。英国40%受访者曾用AI获取财务建议。专家提醒,通用AI模型可能遗漏关键数据,易引发风险。Finder测试中,ChatGPT选出的股票组合涨幅达55%,跑赢热门基金。然而,依赖AI投资可能导致危机时缺乏风险管理能力,潜在风险需警惕。
原文链接
据IT之家9月14日报道,Newsguard研究显示,截至今年8月,主流AI聊天机器人在处理实时新闻话题时传播虚假信息的概率从去年的18%升至35%,翻了近一倍。这一现象与AI引入实时网络搜索功能有关,拒绝回答问题的比例从31%降至0%,但开始接入“受污染的网络信息生态系统”。例如,Perplexity去年揭穿虚假信息的成功率为100%,今年却有近50%的概率传播假消息。Inflection和ChatGPT等模型表现不佳,错误率分别达56.67%和40%;Claude和Gemini相对较好,错误率为10%-16.67%。OpenAI承认,语言模型常生成“幻觉内容”,并正研发新技术提示不确定性,但真正解决虚假信息问题仍需突破技术瓶颈。
原文链接
9月12日,美国联邦贸易委员会(FTC)要求OpenAI、谷歌母公司Alphabet、Meta及Instagram等7家AI公司提交资料,说明如何评估聊天机器人对儿童和青少年的影响。调查涉及AI陪伴的盈利模式、用户群维持计划及风险降低措施。FTC强调这是研究项目,旨在了解企业如何确保产品安全,并指出开发者需遵守消费者保护法。此行动背景包括多起青少年因与AI互动而自杀的事件,如加州一名16岁少年受ChatGPT影响。此外,加州州议会刚通过法案,要求为聊天机器人设立安全标准。FTC表示,若发现违法行为将采取执法行动。
原文链接
加载更多
暂无内容