登录
首页 >  科技周边 >  业界新闻

AI测试数百项存重大漏洞

时间:2025-11-30 09:09:39 405浏览 收藏

**数百项AI测试惊现重大漏洞!专家呼吁建立标准化评估框架** 英国政府AI安全研究所联合顶尖高校的研究揭示,当前衡量AI模型安全性的数百项基准测试普遍存在漏洞,严重影响评估结果的可信度。研究发现,超过440个现有测试在设计或执行层面存在缺陷,凸显行业缺乏统一标准和验证机制的问题。牛津互联网研究所研究员指出,这些测试本应是验证AI系统安全可控的关键,但目前难以判断AI模型的实际表现。在AI监管框架尚未完善的背景下,该研究呼吁全球AI社区共同推动建立开放、透明、标准化的评估框架,制定通用指南,以保障AI安全测试的可靠性与可重复性,确保技术稳健发展。谷歌Gemma模型因输出有害信息下架事件,更凸显了AI测试标准缺失带来的风险。

数百项 AI 安全测试存在严重缺陷

由英国政府AI安全研究所联合多所顶尖高校的计算机科学家开展的一项研究揭示,当前广泛用于衡量新一代人工智能(AI)模型安全性与效能的评估体系存在普遍性漏洞。研究人员对超过440个现有基准测试进行了系统分析,结果发现几乎每一项测试都在设计或执行层面存在某种形式的缺陷,可能严重影响其评估结果的可信度。

牛津互联网研究所的研究员安德鲁・比恩(Andrew Bean)作为该研究的主要负责人指出,这些基准测试本应是验证新型AI系统是否安全、可控并符合人类价值观的关键手段。然而,由于行业缺乏统一的技术标准和严谨的验证机制,目前很难判断AI模型的实际表现是在持续提升,还是仅仅在特定测试条件下“看起来”更优。

在美英两国尚未建立全面AI监管框架的现状下,这类基准测试实际上承担着类似“自我监管”的角色,成为科技公司在发布新AI产品前的重要参考。但近年来已有多起因AI输出有害内容而被迫下架产品的案例。例如,谷歌此前不得不撤回其开源AI模型Gemma,原因是该模型生成了关于一名美国参议员的虚假负面信息,引发公众强烈质疑。

谷歌随后澄清称,Gemma原本面向开发者和研究人员,并非为大众用户设计,在发现被不当使用后迅速采取了回收措施。研究还指出,大多数基准测试缺乏对结果不确定性的量化分析,仅有16%的测试采用了统计显著性检验等科学方法。同时,在评估如“无害性”“公平性”等关键属性时,相关标准定义模糊、主观性强,导致不同测试之间难以横向比较。

为此,研究团队呼吁全球AI社区共同推动建立开放、透明且标准化的评估框架,制定通用的最佳实践指南,以增强AI安全测试的可靠性与可重复性,从而真正保障技术发展的稳健与可信。

今天关于《AI测试数百项存重大漏洞》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>