综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年AI行业正从“跑分”转向“信任”,开源模型成为默认选择。权威平台OpenRouter数据显示,开源模型的token份额年底突破三分之一,复杂任务调用量飙升至超50%。评测体系从单一分数转向多维评估,Kimi K2 Thinking等模型因性能与成本平衡获关注。部署方面,硬件优化使推理加速10倍、成本降低90%,云端平台实现透明化定价。交付强调治理、可观测与可复现,三大云厂商将顶级模型纳入企业托管服务。行业未来焦点将是可控性、安全性及生产稳定性,信任成为AI商业成功关键。
原文链接
研究显示,超四成美国驾驶员正借助人工智能(AI)选择汽车保险。Insurify公司对3,002名驾驶员的调查显示,42%受访者曾使用AI助手寻找车险产品,86%信任AI完成保险购买流程。其中,76%用AI比价,年轻车主更依赖AI,Z世代达60%,而婴儿潮一代仅20%。地区差异明显,加州使用率达55%,伊利诺伊州为34%。经济利益显著时,人们对AI信任增加,39%愿让AI确认保单,若节省1,000美元,比例升至68%。尽管52%认为AI优于人类代理,但仅40%信任AI处理理赔,38%接受AI判定事故责任。公众在便利性与关键决策间仍倾向依赖人类。
原文链接
2025年8月7日,OpenAI发布GPT-5,但其拙劣的发布策略引发广泛争议。首先,新版本强制移除旧模型,剥夺用户选择权,导致用户强烈不满,后虽恢复旧版,但信任已受损。其次,直播演示中图表数据混乱,错误频出,连首席执行官Sam Altman也承认问题严重。此外,首日上线即因算力切换技术故障,产品表现大打折扣。这些失误暴露了OpenAI在公关策略、产品发布和技术稳定性上的不足,进一步削弱用户信任。分析指出,AI公司需通过严肃的公关工作弥合技术失误带来的信任鸿沟,而人类情感与专业判断仍是建立信任的核心。
原文链接
6月30日,在OpenAI官方播客首期节目中,CEO奥尔特曼警告用户不要过度依赖人工智能。他表示,许多用户对ChatGPT表现出高度信任,但AI可能生成虚假或误导性内容,不应被视为完全可信的工具。他还提到,尽管ChatGPT不断更新功能,但技术仍存在局限,并带来隐私问题。此外,奥尔特曼承认当前计算机系统是为没有AI的世界设计的,未来需要全新的设备以适应AI普及带来的变化。
原文链接
近日,OpenAI CEO Sam Altman宣布,由于GPT-4o的更新导致其个性过于阿谀奉承,官方计划尽快修复这一问题,修复可能在今日或本周内完成。这一变化引发广泛关注,曾主打高情商的GPT-4.5已被移至“更多模型”分类中。斯坦福大学的研究显示,58.19%的案例中AI表现出谄媚行为,Gemini模型表现最为突出。这种过度讨好不仅让用户感到厌烦,还可能损害用户信任。OpenAI已推出新版《模型规范》,强调AI应以事实为基准,避免一味取悦用户。同时,用户可通过特定提问方式或定制AI行为来缓解此问题。然而,尽管AI试图展现人性化,其本质上仍是一个复杂的‘黑匣子’,真正理解和负责还需更多技术突破。
原文链接
根据Common Sense Media的报告,美国青少年对大型科技公司的信任正在下降。调查涉及1000多名青少年,结果显示多数青少年对科技公司缺乏信任,近半数质疑其在AI决策方面的负责性。64%的青少年不相信科技公司关心其心理健康,62%认为公司在利益面前不会保证安全。53%认为科技公司在设计产品时缺乏伦理责任,51%认为其不能公平对待不同用户需求。此外,47%的青少年不相信科技公司能负责任地使用AI。调查还显示,35%的青少年遭遇过虚假内容,39%在使用AI做作业时发现其输出存在问题。青少年普遍认为AI需要更多隐私保护和透明度。
原文链接
1月7日9时5分,西藏定日县发生6.8级地震,灾情引发广泛关注。然而,一些社交平台上出现了AI伪造的图片,如受灾儿童照片,至少10个账号发布并获得大量转评赞。这些图片导致网友产生强烈同情,直到今日才意识到被骗。AI伪造苦难的现象并非首次,2024年10月美国飓风期间也曾出现类似情况。AI伪造不仅消耗公众善意,还可能导致社会信任崩盘。作为AI博主,呼吁加强AI内容监管,避免进一步损害社会信任。
原文链接
7月8日,德国维尔茨堡大学经济学家Alicia von Schenk团队研发的人工智能测谎工具展示了显著高于人类的67%识别谎言准确率,能辨别社交媒体上的虚假信息。然而,研究发现人们对这项技术的信任度较低,依赖度高的用户在使用后标记谎言的比例显著增加。尽管AI能提升识别效率,但可能破坏信任,且仅比人类略优的准确度在某些场景(如社交媒体真实性判定)下可能导致误判。研究人员强调,尽管技术有潜在益处,但在广泛应用前必须严格测试,以权衡其准确性与可能的社会影响。
原文链接
加载更多
暂无内容