LLM 的恶意版本(如 ChatGPT 的黑暗变体)的兴起正在通过使用更复杂和自动化的攻击来升级网络战。
这些模型可以生成令人信服的网络钓鱼电子邮件、传播虚假信息并制作有针对性的社会工程消息。
所有这些非法功能都对在线安全构成了重大威胁,并加剧了区分真实内容和恶意内容的挑战。
Zvelo 的网络安全研究人员最近发现,使用恶意版本的 ChatGPT 和其他黑暗 LLM 的情况显著增加,这些 LLM 改变了网络战的性质。
Dark LLM
人工智能的滥用不再只是一种威胁,因为它是一个日益增长的现实。AI 使初学者能够应对网络威胁,而黑暗 LLM 的兴起则对高级安全框架提出了挑战。
恶意的 LLM 使用 OpenAI 的 API 来制作不道德的 ChatGPT 版本,且不受限制。
这些模型主要针对网络犯罪而设计,因为它们可以帮助威胁参与者生成恶意代码、利用弱点并制作鱼叉式网络钓鱼电子邮件。
在下面,我们提到了已知的恶意 LLM:
-
XXXGPT:它是一种专为网络犯罪而设计的恶意 ChatGPT 版本,它支持各种攻击,如僵尸网络、RAT、加密器和难以检测的恶意软件创建,这使其成为严重的网络安全威胁。
-
WolfGPT:这使用 Python 从庞大的恶意数据集中创建神秘的恶意软件。它擅长提高攻击者的匿名性,从而实现高级网络钓鱼,并且与 XXXGPT 一样,它通过强大的混淆来转移网络安全团队。
-
WormGPT:WormGPT 完全基于 2021 GPT-J 模型,该模型在创建恶意软件的网络犯罪方面表现出色。该模型的独特功能包括无限字符、聊天记忆和代码格式。它通过多个 AI 模型优先考虑隐私、快速响应和动态使用。
-
DarkBARD:DarkBARD AI 是 Google 的 BARD AI 的恶意版本,在网络犯罪方面表现出色。它通过创建错误信息、深度伪造和管理多语言通信来处理来自网络的实时数据。它可以生成各种内容并与 Google Lens 集成,并且还擅长勒索软件和 DDoS 攻击。
像上面提到的那些恶意 LLM 已经在一些非法活动中被发现。他们综合有针对性的研究,增强网络钓鱼计划,并使用基于语音的人工智能进行欺诈和早期攻击。
人工智能驱动的攻击正在上升,因为它们可以自动发现漏洞和传播恶意软件。人工智能通过令人信服的虚假个人资料和规避检查软件来增强网络钓鱼。
威胁行为者还部署深度伪造、虚假信息、AI 僵尸网络、供应链攻击、数据中毒和高级密码猜测,以实现复杂的策略。
来自恶意 LLM 的高级网络威胁激增,需要对网络安全进行批判性的重新评估。传统的防御措施和用户对网络钓鱼识别的依赖已不再足够。
人工智能模拟令人信服的电子邮件的能力显示出一个重大转变,这表明有必要重新思考网络钓鱼检测和意识培训。
来源:cybersecuritynews.com