自 SentinelOne 成立以来,人工智能一直是其网络安全方法的核心,但正如我们所知,安全始终是攻击者和防御者之间的军备竞赛。自去年年底出现ChatGPT以来,攻击者已经进行了多次尝试来验证是否可以利用这个或其他大型语言模型 (LLM)。
最近的这些尝试,被其创建者称为 BlackMamba,使用生成 AI 来生成多态恶意软件。与这种人工智能工具相关的声明引发了人们对当前安全解决方案处理能力如何的质疑。像 BlackMamba 这样的概念验证是否开辟了一个全新的威胁类别,让组织在没有全新的网络安全工具和方法的情况下毫无防御能力?还是“AI 威胁”被过度炒作,而只是攻击者TTP 的另一种发展,我们可以并且将会在我们当前的理解和框架内适应?
对人工智能生成软件的能力的担忧也导致人们更广泛地关注人工智能技术本身是否构成威胁,如果是的话,整个社会应该如何应对。
(资料图)
在这篇文章中,我们回答了针对BlackMamba 等 PoC 和 ChatGPT 等 LLM 提出的一系列问题。
什么是黑曼巴?
根据其创建者的说法,BlackMamba 是一种概念验证 (PoC) 恶意软件,它利用正常的可执行文件在运行时访问一个“良性”AI(OpenAI)服务,返回合成的多态恶意代码,旨在窃取受感染用户的击键.
人工智能的使用旨在克服作者认为是逃避检测的基础的两个挑战。首先,通过从“良性”远程服务而不是异常 C2 检索有效负载,他们希望 BlackMamba 流量不会被视为恶意。其次,通过利用生成式人工智能每次传送独特的恶意软件作为有效负载,从而使安全系统被愚弄,无法将返回的代码识别为恶意代码。
BlackMamba 使用 Pythonexec()函数在良性程序的上下文中执行它从 AI 接收到的动态生成的代码。恶意多态部分保留在内存中,这导致 BlackMamba 的创建者声称现有的 EDR 解决方案可能无法检测到它。
检测AI 生成的恶意软件,例如BlackMamba
然而,网络安全社区已经充分理解了这些挑战。我们过去已经看到Pastebin、Dropbox、Microsoft Azure、AWS和其他云基础设施等“良性”渠道经常被滥用以达到在合法网络服务的噪音中隐藏恶意流量的目的。
多态恶意软件也不是什么新鲜事;它正是帮助安全行业超越传统 AV解决方案并转向下一代 AI 驱动解决方案(如 SentinelOne)的众多因素之一。
关于将恶意代码隔离到内存的“无文件”攻击方法也不是构建恶意软件的新方法。不将代码或数据写入磁盘(从而规避监视这些事件的安全措施)的想法长期以来一直对威胁参与者具有吸引力。然而,现代安全供应商很清楚这种策略。SentinelOne 和许多其他 EDR/XDR 供应商对受保护系统上的这些行为具有必要的可见性。简单地将恶意代码限制在虚拟内存(多态或非多态)中不会逃避良好的端点安全解决方案。
这就提出了一个问题:AI 生成的恶意软件能否击败 AI 驱动的安全软件?事实上,正如一开始所说,这是一场军备竞赛,一些供应商如果还没有赶上,就必须迎头赶上。在 SentinelOne,我们决定对 ChatGPT 生成的恶意软件进行测试。
AI 会带来新的威胁吗?
将讨论扩大到 BlackMamba 之外,考虑到 ChatGPT4 和其他更新模型已经可用,这无疑将在下周或下个月的新闻周期中被其他一些人工智能生成的 PoC 取代,组织应该如何担心人工智能生成的威胁恶意软件和攻击?
流行媒体和一些安全供应商将 AI 描绘成科学怪人,很快就会背叛其创造者。然而,与其他任何技术一样,AI 本身既非恶也非善。使用它的人会使它变得危险。像 BlackMamba 这样的概念验证不会让我们面临来自 AI 的新风险,但表明攻击者会利用他们可用的任何工具、技术或程序来达到恶意目的——安全领域的任何人都已经熟悉这种情况。我们不应该攻击这项技术,而应该一如既往地寻求阻止和阻止那些将其用于恶意目的的人:攻击者。
了解AI 能做什么和不能做什么
围绕人工智能讨论的许多担忧的根本原因往往是需要澄清人工智能是什么以及它是如何工作的。任何人工智能系统或像 ChatGPT 这样的 LLM 的有效性取决于其数据集的质量和多样性。用于训练模型的数据集决定了它的能力和局限性。
防御者可以通过创建自己的数据集来公平竞争,这些数据集可用于训练模型以检测和响应威胁,这是 SentinelOne 多年来一直专注的领域。
尽管如此,人工智能并不是万能的神奇技术。人工智能的能力是有限的,尤其是在网络安全方面。基于人工智能的系统可能会被复杂的攻击所愚弄,例如绕过防御的对抗性攻击。此外,人工智能无法做出判断,如果数据集不多样化,它可能会暴露偏见。
我们需要意识到人工智能的局限性,并将其用作综合安全策略的一部分。这就是为什么 SentinelOne 部署了一种将人工智能与其他安全技术和人类智能相结合的多层方法。
人类智能呢?
在当今人工智能驱动的世界中,我们很容易被最新的技术进步所吸引,而忽视了人类智能的重要性。即使 AI 具有分析大量数据和识别模式的能力,人类的接触仍然是必不可少的,甚至更重要。我们需要人们的推理能力、创造性思维和批判性思维来补充人工智能的能力。
攻击者和防御者都使用 AI 来自动化他们的操作,但只有通过人类智能,我们才能制定战略并部署有效的安全措施,决定如何以及何时使用 AI 来保持领先地位。
最近的事件,如国家网络安全战略,表明保护我们的企业和社会免受威胁不仅仅是使用单一工具或雇用一流人才。互联网,就像人工智能一样,引发了大量关于其优点和缺点的讨论,使网络安全成为一个集体挑战,需要包括供应商、客户、研究人员和执法机构在内的各利益相关者之间的合作。
通过共享信息和协同工作,我们可以构建一个能够抵御人工智能攻击的更强大的防御系统。要想取得成功,我们必须摆脱竞争心态,拥抱合作精神,结合我们在恶意软件方面的专业知识,了解攻击者的心态,并使用 AI 来创建能够应对不断变化的威胁形势的产品。最后,人类智能是锦上添花,使我们的人工智能驱动的防御真正有效。
结论
网络安全是攻击者和防御者之间的猫鼠游戏。攻击者尝试新的方法绕过防御,而防御者总是试图保持领先一步。在恶意软件中使用 AI 只是该游戏的另一个转折点。虽然没有自满的余地,但安全供应商已经玩这个游戏几十年了,有些已经非常擅长了。在 SentinelOne,我们了解 AI 的巨大潜力,并且十多年来一直使用它来保护我们的客户。
我们相信生成式 AI 和 LLM,包括 ChatGPT,只是人们可以用来做好事或坏事的工具。与其惧怕技术,不如把重点放在提高防御能力和培养防御者的技能上。
SentinelOne简介:
SentinelOne公司成立于2013年,2021年6月在纽交所上市。SentinelOne被Gartner选为“2021年端点防护平台魔力象限领导者”。SentinelOne的Singularity平台使用不影响性能、获专利的行为与静态AI模型提供防护功能,在完全自主的单一平台上涵盖跨端点、容器、云工作负载和物联网(IoT)设备的预防、检测和响应能力。借助SentinelOne,企业可以通过AI驱动型解决方案来扩展其网络安全性,以机器般速度透彻地了解整个网络上发生的一切,并成功地取代传统的杀毒功能。
原文链接:https://www.sentinelone.com/blog/blackmamba-chatgpt-polymorphic-malware-a-case-of-scareware-or-a-wake-up-call-for-cyber-security/