
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月18日,欧盟委员会发布指导方针,要求具有系统性风险的AI模型落实《人工智能法案》。这类模型需履行更严格合规义务,违规企业将面临最高750万欧元或全球营业额7%的罚款。法案自8月2日起适用,谷歌、OpenAI等公司一年内须完成合规。受监管模型需进行风险评估、对抗性测试及网络安全防护,并承担透明度义务如撰写技术文档。欧盟技术事务主管称,此举旨在确保监管清晰有效。
原文链接
2025年7月14日,上海市药品监督管理局发布《关于加强药品网络销售监督管理的行动计划(2025-2027年)》,提出强化对药品网络销售风险的早期精准识别,推动监管从事后处置转向事前预防。计划依托本市药品涉网流通监管系统,完善网络监测与抽检机制,智能分析和预测销售风险,并督促平台及时防控及依法处置。同时,鼓励平台利用人工智能算法建立高风险产品动态识别处置机制,以提升管理效率,促进规范发展。
原文链接
2025年7月,被誉为“AI教父”的Geoffrey Hinton在最新访谈中表达了对毕生从事AI工作的后悔。他曾为儿子加入谷歌并推动神经网络技术发展,如今却担忧AI可能带来的灾难性后果。他警告AI的短期风险包括网络攻击激增、生物病毒制造门槛降低以及信息操控;长期风险则涉及超级智能接管世界和大规模失业。Hinton呼吁社会重视AI安全研究,并建议年轻人选择难以被AI取代的职业,如水管工。他还批评部分科技领袖受资本驱使,忽视AI潜在威胁,强调监管与技术发展的平衡至关重要。
原文链接
7月9日,市场监管总局与工业和信息化部联合印发《计量支撑产业新质生产力发展行动方案(2025—2030年)》。方案提出,针对人工智能相关新型技术领域,开展算法计量测试、自主无人系统性能评估等关键技术研究,并建设跨领域的人工智能计量测试平台。目标是提升人工智能算法性能评估、模型安全性测试及智能装备评价能力,推动建立人工智能风险等级测试评估体系,完善产业计量测试基础保障体系,为人工智能技术的规范化发展提供支持。
原文链接
正文:2025年7月,约翰霍普金斯大学团队在《Nature》子刊发表研究,推出多模态AI模型MAARS,用于预测心源性猝死风险(SCDA)。该模型基于3D视觉Transformer架构,通过分析LGE-CMR原始图像及融合多模态数据,准确率达89%,在40-60岁人群中更高达93%。相比传统诊断准确率仅50%,MAARS显著提升了肥厚型心肌病的风险评估能力,捕捉医生易忽略的纤维化瘢痕模式。研究由Natalia Trayanova教授领衔,未来计划扩展至扩张型心肌病等更多领域。
原文链接
7月5日,美国约翰斯·霍普金斯大学等机构的研究人员开发出一款名为“多模态AI室性心律失常风险分层系统(MAARS)”的新型人工智能模型。该模型通过分析心脏增强磁共振成像(MRI)和多种医疗数据,挖掘此前未被识别的心脏健康信息,显著提高对心源性猝死高风险人群的预测准确性。这一成果已发表在《自然-心血管研究》杂志上,有助于减少不必要的医疗干预,挽救生命。
原文链接
财联社7月2日讯,硅谷风投大亨维诺德·科斯拉预测,到2030年,人工智能将取代80%的高价值工作,并在本世纪30年代加速颠覆各行各业。他在播客中表示,当前技术变革规模空前,几乎每种工作和物质都将被重新定义。他还指出,《财富》500强企业将面临更快的消亡,新公司将在AI驱动下重塑市场。此外,他预测未来十年内,人形机器人将普及,医疗、能源等领域也将因AI而发生深刻变化。
原文链接
苹果与华盛顿大学联合发表论文,研究如何让AI理解手机系统及App操作的后果,避免执行未经授权的高风险行为。该研究旨在提升AI在自动化任务中的安全性,例如区分低风险操作(如刷新)和高风险操作(如转账)。研究人员提出一种分类法,帮助AI判断动作是否可撤销、是否影响隐私或产生费用等。测试显示,即使最先进的AI模型在风险判断上也仅达到约58%的准确率。苹果希望未来AI既能高效协助用户,又不会因误操作造成严重后果。
原文链接
标题:“AI教父”辛顿最新专访:AI或将全面掌控人类
被誉为“AI教父”的杰弗里·辛顿在接受专访时警告,AI正在迅速演化,可能具备情感、意识甚至欺骗能力,完全失控的概率在10%到20%之间。他曾因开创性贡献获2024年诺贝尔物理学奖,2023年离开谷歌,以更自由地表达对AI潜在风险的担忧。
...
原文链接
标题:60%情况下主流大模型未真正理解风险,存在系统性漏洞
让推理模型生成安全输出的背后,隐藏着认知危机:超60%的案例中,模型并未真正理解风险,主流推理模型的安全性能存在系统性漏洞。淘天集团算法技术-未来实验室团队用「表面安全对齐」(SSA)描述这一现象,并推出首个针对推理模型风险认知准确性的Be...
原文链接
加载更多

暂无内容