报告:网络犯罪分子正使用Meta的Llama2人工智能发起攻击

2024-02-22 12:33
摘要:划重点:- ????️‍♂️ 网络犯罪组织开始利用生成式人工智能发动攻击,其中包括 Meta 的 Llama2大型语言模型。- ???? 群聚蜘蛛利用 Meta 的大型语言模型生成 Microsoft 的 PowerShell 任务自动化程序脚本,用于下载..

划重点:

- ????️‍♂️ 网络犯罪组织开始利用生成式人工智能发动攻击,其中包括 MetaLlama2大型语言模型。

- ???? 群聚蜘蛛利用 Meta 的大型语言模型生成 Microsoft 的 PowerShell 任务自动化程序脚本,用于下载一家北美金融服务公司员工的登录凭证。

- ???? CrowdStrike 报告警告目前检测基于生成式人工智能的攻击能力有限,但预计恶意使用生成式人工智能的趋势将不断增加。

网络犯罪团伙已开始利用生成式人工智能进行攻击,包括 Meta 的 Llama2大型语言模型,根据网络安全公司 CrowdStrike 周三发布的年度全球威胁报告。据 CrowdStrike 报道,一个名为 Scattered Spider 的组织利用 Meta 的大型语言模型生成了 Microsoft 的 PowerShell 任务自动化程序脚本,用于下载 “一家北美金融服务公司受害者” 的员工登录凭证。

图源备注:图片由AI生成,图片授权服务商Midjourney

报告通过检查 PowerShell 中的代码追踪了 Llama2的使用情况。“用于下载用户不可改变 ID 的 PowerShell 类似于 ChatGPT 等大型语言模型(LLM)输出,例如一个注释的模式,实际命令然后每个命令的新行与 Llama270B 模型输出相匹配。根据相似的代码风格,Scattered Spider 很可能依赖 LLM 生成此次活动中的 PowerShell 脚本。” 作者警告称,目前检测基于生成式人工智能或增强生成式人工智能的攻击能力有限,因为很难找到 LLM 使用的痕迹。该公司假设到目前为止,LLM 的使用是有限的:“只有在某些操作阶段可能的敌方使用生成式人工智能的少数具体观察。”

然而,CrowdStrike 预测,恶意使用生成式人工智能将会增加:“人工智能的持续发展无疑会提高其潜在滥用的效果。” 迄今为止,这些攻击遇到了一个挑战,即开发大型语言模型的高成本限制了攻击者可以从这些模型中生成用作攻击代码的种类。“2023年,威胁行为者试图制作和使用这样的模型的尝试通常都是一种欺诈,生成的输出相对较差,在许多情况下很快就变得无效。” 报告称。

除了生成代码,另一个恶意使用的途径是误导信息,就在这方面,CrowdStrike 报告强调了今年可能受到误导性宣传活动影响的众多政府选举。除了今年的美国总统选举,“来自55个国家的个人,代表全球42% 以上的人口将参与总统、议会和 / 或大选。” 报告作者指出。选举操纵分为高科技和低技术两种方式。高科技途径是通过篡改投票系统以及向选民传播关于投票的信息来破坏或破坏投票机制。

低技术途径是误导信息,例如 “破坏性叙述” 可能 “破坏公众信心”。这种 “信息运营”,或者,正如 CrowdStrike 所称,已经发生,“因为中国行动者在社交媒体影响活动中使用人工智能生成的内容来传播批评台湾总统选举候选人的内容。” 该公司预测,“鉴于人工智能工具可以轻松生成具有欺骗性但令人信服的叙述,对手很可能会使用这些工具针对2024年的选举进行信息运营。那些举办选举的国家中政治活跃的党派很可能会使用生成式人工智能制造虚假信息,以在自己的圈子内传播。”

更新于:10个月前