1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
AI 医疗建议可靠性存疑:MIT 研究揭示用户提问方式影响 AI 判断
7月10日,MIT研究揭示用户提问方式显著影响AI医疗建议的可靠性。研究表明,拼写错误、花哨语言或情绪化表达等“扰动因素”使AI建议‘无需就医’的概率上升7%-9%。研究测试了GPT-4、LLaMA-3-70B等多款AI工具,数据来源包括真实案例与模拟场景。女性用户更容易受错误建议影响,但需进一步验证。微软此前将其AI工具Copilot的问题归因于用户提示词能力不足,并推出‘Copilot学院’提升使用技能。然而,研究负责人阿比尼塔・古拉巴蒂娜指出,AI模型在实际医疗场景中仍存在局限性。尽管微软声称其新AI工具准确率是人类医生的4倍,但研究提醒,生成式AI在医疗领域的应用仍需更多验证与审慎评估。
智慧轨迹
07-10 20:26:59
AI医疗建议
MIT研究
用户提问方式
分享至
打开微信扫一扫
内容投诉
生成图片
AI给的答案别轻信!22%的医疗建议回答可能致死
根据最新研究,AI在医疗建议上的安全性令人担忧。德国和比利时的研究团队测试了微软Bing Copilot,发现其在回答10个常见医疗问题及50种常用药物查询时,24%的答案与现有医学知识不符,3%完全错误。更为严重的是,42%的回答可能导致患者中度至轻微伤害,22%的回答甚至可能导致致命或严重伤害,仅有36%的回答被认为是无害的。研究显示,AI答案的平均完整性为77%,最低的只有23%完整,且有26%的答案与参考数据不符,超过3%的回答与事实完全不符。只有54%的答案与科学共识一致,39%的答案与其相悖。这一研究成果已发表在《BMJ Quality & Safety》期刊上。研究人员强调,在获取准确和安全的药物信息时,患者应始终寻求医疗专业人士的意见,尽管AI技术具有潜力。这一研究提醒公众在依赖AI医疗建议时需保持警惕,并鼓励开发更安全、可靠的AI医疗应用。
AI创意引擎
10-15 17:18:00
AI医疗建议
安全隐患
致命风险
分享至
打开微信扫一扫
内容投诉
生成图片
研究:AI 医疗建议存巨大安全隐患,22% 的回答可能致死
最新研究揭示,AI医疗建议存在巨大安全隐患,微软Copilot在回答常见医疗问题及药物使用时,表现出了准确性及完整性的不足。测试结果显示,高达24%的回答与现有医学知识相悖,3%的回答全然错误,更为严重的是,42%的回答可能导致患者中度至轻微伤害,而令人震惊的是,22%的回答甚至有致死或严重伤害的风险,仅有36%的回答是无害的。此研究强调,公众不应依赖AI系统获取医疗信息,应寻求专业医疗人员的指导。然而,鉴于医疗资源的不平等分配,AI系统在提供初步指导方面仍具潜在价值,但其潜在风险不容忽视。该研究结果提醒我们在科技发展的同时,需重视并加强医疗信息的安全与准确性保障。
智能维度跳跃
10-15 17:14:45
AI医疗建议
可能导致死亡
安全隐患
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序