当前位置:首页 >IT科技类资讯 >重大突破,谷歌 AI 大模型首次找到 0Day 漏洞 正文

重大突破,谷歌 AI 大模型首次找到 0Day 漏洞

来源:益强资讯优选   作者:数据库   时间:2025-11-05 11:19:54

谷歌公司日前表示,重大突破旗下一款名为“ Big Sleep”(前称 Project Naptime)的谷歌大语言模型(LLM)辅助框架在 SQLite 开源数据库引擎中发现了一个零日漏洞,并称这是大模到该类型AI工具首次在实际广泛使用的软件中发现零日漏洞。

SQLite 是型首一种在开发人员中流行的开源数据库引擎,所发现的次找漏洞指向其中的堆栈缓冲区下溢,当软件在内存缓冲区开始之前引用内存位置时,漏洞就会出现该漏洞,重大突破从而导致系统崩溃或任意代码执行。谷歌

谷歌研究人员在 10 月初向 SQLite 开发人员报告了该漏洞,大模到对方在同一天修复了漏洞。型首由于漏洞是次找在正式版本出现之前被发现,因此不会影响正在使用SQLite的漏洞用户。

发现该漏洞的重大突破“ Big Sleep”AI模型属Google Project Zero 和 Google DeepMind 之间的合作项目,旨在大型语言模型的谷歌辅助下进行漏洞研究。 谷歌指出,大模到在 8 月 DEFCON 安全会议上,负责创建 AI 辅助漏洞研究工具的网络安全研究人员表示在 SQLite 中发现了另一个问题,从而激发团队研究是否可以从中找到更严重的漏洞。WordPress模板

通常,许多公司使用一种称为“模糊测试”的过程,通过向软件提供随机或无效数据来测试软件,这些数据旨在识别漏洞、触发错误或使程序崩溃。但谷歌认为,模糊测试在帮助防御者找到难以(或不可能)发现的漏洞方面做得还不够,希望利用人工智能可以缩小这一差距。

而长期存在的漏洞变体问题也是“ Big Sleep”项目的主要动机之一, 谷歌在 2022 年发布的报告就曾指出,40% 以上的零日漏洞是已报告漏洞的变种,另有超过 20% 的漏洞也是以前的野外零日漏洞的变种。随着这种趋势的持续,模糊测试已无法成功捕获此类变体,而对于攻击者来说,手动变体分析成为一种经济高效的方法。

在“ Big Sleep”中,企商汇研究人员利用 LLM 的代码理解和推理能力,在识别和演示安全漏洞时利用 AI 代理来模拟人类行为,其中需要使用一套专用工具来允许代理浏览目标代码库,并在沙盒环境中运行 Python 脚本以生成用于模糊测试的输入、调试程序并观察结果。

“我们认为这项工作具有巨大的防御潜力。在软件发布之前就发现软件中的漏洞,意味着攻击者没有竞争的余地:漏洞甚至在攻击者有机会使用它们之前就被修复了,“谷歌表示。

但谷歌也强调,这些仍然是实验结果,“ Big Sleep”研究团队的立场是,在发现漏洞方面,目前特定于目标的模糊测试程序可能至少同样有效。希望在未来,这项工作将为防御者带来显著的优势——不仅可以找到崩溃的测试用例,还可以提供高质量的根本原因分析,分类和修复漏洞在未来也可能会更便宜、更有效。

云服务器

标签:

责任编辑:系统运维