综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
6月18日,Cloudsmith发布报告指出,AI生成代码数量激增,但人工代码审核未能同步跟进。报告显示,42%的代码由AI生成,16.6%的开发者依赖AI贡献大部分代码,3.6%的代码完全由机器生成。GitHub 2024年调查显示,美、巴、德、印四国超97%的开发者使用AI编码工具,88%-59%的公司支持此类工具。然而,AI生成代码引发担忧,79.2%的受访者认为这会增加恶意软件威胁,30%认为威胁将显著上升。报告警告,三分之一的开发者未审查AI生成代码就投入生产,形成供应链漏洞。AI快速复用未知或不可信代码,使代码完整性和依赖管理等传统风险被放大。开发者认为代码生成阶段风险最高,仅40%认为需严格管控。Cloudsmith建议通过智能访问控制和端到端可见性强化管理,强制执行自动政策并标记不可信代码,实现溯源追踪。
原文链接
北京时间8月27日,OpenAI宣布招募内部风险技术调查员,旨在强化其内部安全防御能力,防范潜在的内部威胁。该职位的主要职责包括分析异常活动、检测并降低内部风险,并与人力资源及法律部门合作对可疑活动进行调查。值得注意的是,此举措可能源于对内部威胁的担忧,特别是考虑到OpenAI于2023年遭到了黑客入侵,且该事件的部分细节是通过知情人士向《纽约时报》披露的。目前尚不清楚OpenAI具体针对何种类型的内部威胁。截止报道时,OpenAI发言人未对此招聘启事做出回应。这一动态凸显了人工智能领域在保障数据安全与企业内部合规方面面临的挑战。
原文链接
加载更多
暂无内容