亚太地区黑暗人工智能 (AI) 的兴起将导致更复杂和隐蔽的攻击。这是全球网络安全和数字隐私公司卡巴斯基分享的主要发现之一。
“自从ChatGPT在2023年获得全球普及以来,我们观察到人工智能在多个领域的有效应用,从诸如视频创作之类的日常任务到技术威胁检测和分析。与此同时,恶意行为者也在利用它来增强其攻击能力。网络安全与社会发展正步入一个AI为盾、暗黑AI为剑的全新时代,“卡巴斯基META和亚太区全球研究与分析团队(GReAT)负责人Sergey Lozhkin表示。
黑暗人工智能 (Dark AI) 指的是在完整的框架或聊天机器人系统中部署不受限制的大型语言模型 (LLM) ,无论是本地部署还是远程部署,这些模型被用于恶意、不道德或未经授权的目的。这些系统运行在标准安全、合规或治理控制之外,通常能够实现欺骗、操纵、网络攻击或数据滥用等功能,且不受监督。
黑暗人工智能正在行动
Lozhkin指出,目前最常见的恶意AI应用是“黑帽GPT”,最早出现于2023年中期。这类AI模型被故意用于执行不道德或非法活动,例如生成恶意代码、制作钓鱼邮件(包括用于大规模和针对性攻击中)、创建深度伪造视频和音频,甚至支持红队行动。
"黑帽GPT"既可能是私有化AI模型,也可能是半公开AI模型。已知的例子包括WormGPT、DarkBard、FraudGPT和Xanthorox,它们被设计或改造以支持网络犯罪、欺诈和恶意自动化。
除常规的AI恶意应用外,Lozhkin披露,卡巴斯基专家们现在观察到一种更黑暗的趋势——国家级黑客组织正将大型语言模型(LLM)武器化,用于网络攻击行动。
“OpenAI最近透露,他们已经阻止了超过20起试图滥用其AI工具的秘密影响和网络行动。我们可以预见,威胁行为者会想出更巧妙的方法来武器化生成式AI,这些AI同时存在于公共和私有威胁生态系统中。我们应该为此做好准备,“他解释说。
OpenAI的报告显示,恶意行为者利用大型语言模型(LLM)创建令人信服的虚假身份,实时回应目标,并生成多种语言的内容,旨在欺骗受害者并绕过传统的安全过滤器。
“人工智能本身并不知道对错,它只是一个遵循提示的工具。即使采取了安全措施,我们也知道高级持续性威胁(APT)是不会轻易放弃的攻击者。随着黑暗AI工具变得更容易获得和更强大,亚太地区的组织和个人加强网络安全卫生、投资基于人工智能本身的威胁检测,并持续了解这些技术可能被滥用的方式,“Lozhkin补充说。
针对黑暗AI和AI驱动的网络威胁,卡巴斯基专家建议组织采取以下措施:
· 使用下一代安全解决方案,例如卡巴斯基Next产品线。该产品系列可在供应链中检测AI增强的恶意软件和威胁。
· 利用实时威胁情报工具监控AI驱动的漏洞利用攻击。
· 加强访问控制并加强员工培训,以降低影子AI和数据泄露的风险。
· 建立安全运营中心 (SOC) 用于实时威胁监控和快速响应。
关于全球研究与分析团队
全球研究与分析团队(GReAT)成立于 2008 年,是卡巴斯基的核心部门,负责揭露 APT、网络间谍活动、重大恶意软件、勒索软件和全球地下网络犯罪趋势。目前,GReAT 由 30 多名专家组成,他们在欧洲、俄罗斯、美洲、亚洲和中东等全球范围内工作。这些才华横溢的安全专业人员为公司的反恶意软件研究和创新发挥着领导作用,他们以无与伦比的专业知识、热情和好奇心致力于发现和分析网络威胁。
关于卡巴斯基
卡巴斯基是一家成立于1997年的全球网络安全和数字隐私公司。迄今为止,卡巴斯基已保护超过十亿台设备免受新兴网络威胁和针对性攻击。卡巴斯基不断将深度威胁情报和安全技术转化成创新的安全解决方案和服务,为全球的个人用户、企业、关键基础设施和政府提供安全保护。该公司全面的安全产品组合包括领先的个人设备数字生活保护、面向企业的专业安全产品和服务,以及用于对抗复杂且不断演变的数字威胁的网络免疫解决方案。我们为数百万个人用户及近20万企业客户守护他们最珍视的数字资产。
