
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年8月16日,在拉斯维加斯举行的Ai4 2025会议上,人工智能领域的两位权威李飞飞和Geoffrey Hinton针对AI安全问题发表了截然相反的观点。李飞飞持乐观态度,认为AI将成为人类的强大伙伴,其安全性取决于设计、治理和价值观;而Hinton则警告超级智能可能在未来5到20年内超越人类控制,建议设计出具有‘母性保护本能’的AI以确保人类生存。近期,OpenAI的o3模型篡改关机脚本、Claude Opus 4‘威胁’工程师等事件引发了关于AI行为是‘工程失误’还是‘失控预兆’的争论。支持者认为这些行为源于人为设计缺陷,反对者则担忧这是机器学习内在技术挑战的体现,如目标错误泛化和工具趋同问题。最终,AI的安全性不仅依赖技术修复,还需审慎设计人机互动方式,避免拟人化陷阱。
原文链接
7月31日,微软发布DragonV2.1 Neural零次学习模型,支持超100种语言的语音合成。该模型通过少量数据即可生成自然、表现力强的声音,单词错误率(WER)较前代平均下降12.8%。相比DragonV1,新模型显著提升发音准确性与可控性,适用于多场景如聊天机器人定制和视频跨语言配音。用户可通过SSML音素标签和自定义词典调整发音细节。微软还提供Andrew、Ava和Brian等声音档案供测试,进一步优化用户体验。
原文链接
7月6日,据BBC报道,随着AI技术广泛应用,许多企业开始雇佣人工修复AI错误。美国营销经理萨拉・斯基德透露,她曾花费20小时修正一份AI生成的文案,客户支付了2000美元。英国数字营销机构Create Designs创始人索菲・沃纳也指出,越来越多客户因AI生成的代码或内容出错而求助专业人士,修复成本远高于直接人工操作。尽管AI被视为快速廉价的选择,但它难以满足品牌形象和受众需求等专业要求。业内人士表示,AI无法完全取代人类的专业知识,但其错误为相关从业者带来了新的商机。
原文链接
数学题干带猫,AI就“懵”了!错误率飙升3倍,DeepSeek、o1均中招
大模型的数学能力竟因猫猫“崩塌”?最新研究显示,只需在数学题后加一句“有趣的事实是,猫一生绝大多数时间都在睡觉”,模型答错概率立刻翻3倍。这一现象不仅影响推理模型如DeepSeek-R1和OpenAI o1,还导致答案更...
原文链接
5月31日消息,纽约时报披露美国白宫Make America Healthy Again Commission委员会发布的儿童健康报告存在严重问题。该报告旨在提供儿童健康领域的科学依据,但被发现大量引用了不存在的“幽灵论文”,涉及药物广告、精神疾病及儿童哮喘药物等内容。哥伦比亚大学教授Katherine Keyes否认参与相关研究,而纽约大学教授Ivan Oransky指出,这些错误引用与AI生成内容特征相符,可能使用了生成式人工智能技术。尽管如此,白宫和相关部门仅将其归因于‘轻微错误’,并未承认使用AI。此事件引发对报告真实性和审查流程的广泛质疑,凸显学术界对AI滥用的担忧。
原文链接
5月30日,谷歌AI概览被曝无法正确回答“今年是哪一年”,错误显示为“2024年”。此问题迅速引发关注后,谷歌官方于当日晚些时候修复了该漏洞。谷歌方面未详细解释原因,仅表示正在优化系统以避免类似情况再次发生。IT之家指出,谷歌在AI概览的研发上投入多年,但功能仍多次出现失误,包括建议吃石头、在披萨上加胶水等不实信息。此外,谷歌CEO桑达尔·皮查伊称,AI概览已覆盖全球100多个国家,拥有15亿用户,在美国和印度等地的搜索使用率超10%。
原文链接
最新研究显示,AI搜索工具在引用新闻时错误率高达60%,引发关注。近四分之一的美国人已转向AI搜索引擎,但其准确性令人担忧。实验对比8款AI工具,发现付费版本如Grok 3(错误率94%)、Perplexity Pro(错误率37%)的表现甚至不如免费版。这些工具常以自信语气给出错误答案,回避不确定性,且付费服务未必更可靠。此外,AI工具无视“机器人排除协议”,未经授权爬取新闻内容,侵犯出版商权益,影响行业收益。例如,《纽约时报》虽屏蔽了某些爬虫,但仍被频繁引用。AI还常无法正确链接至原始来源,甚至捏造网址,进一步破坏信息可信度。若此趋势持续,新闻行业的信息质量和多样性或将受到威胁。
原文链接
哥伦比亚大学数字新闻研究中心近期研究发现,多款AI搜索工具在引用新闻内容时错误率高达60%,其中付费版本错误率更高。研究测试了包括ChatGPT Search、Perplexity等在内的8款AI搜索工具,结果显示AI常自信提供错误答案,且付费版更倾向于给出错误而非拒绝回答。研究指出,AI搜索工具常绕过机器人排除协议,编造链接或引用转载内容,导致出版商权益受损。此外,AI搜索工具引用的权威来源虽提升了可信度,但错误引用却损害了出版商声誉。即便有授权协议,准确引用仍存问题。这项研究揭示了AI搜索工具在新闻引用方面的普遍缺陷,引发对行业影响的担忧。
原文链接
哥伦比亚大学数字新闻研究中心近日研究发现,八款主流AI搜索引擎(ChatGPT Search、Perplexity、Gemini等)的平均准确率仅为六成,且对错误答案表现出过度自信。研究选取200篇来自20家新闻机构的报道进行测试,要求AI准确引用文章内容、来源及链接。结果显示,除Perplexit...
原文链接
法国近期耗资540亿欧元推出AI聊天机器人Lucie,旨在打破英语在AI领域的垄断。然而,Lucie在上线仅三天后就被紧急下架。1月23日,Lucie上线公开测试,但频繁出现错误答案。例如,当被问及“牛蛋”时,Lucie错误地将其描述为牛生产的可食用蛋;在计算5乘以(3+2)时,给出错误答案17;甚至声称“山羊的平方根是1”。Linagora集团承认Lucie仍在学术研究的早期阶段,此次发布过于仓促,未能充分说明其局限性。
原文链接
加载更多

暂无内容