探讨AI智能技术的安全威胁检测

现在国家支持的威胁(state-aseonsojedisthreat)超过了地理和物理的限制,攻击者将未知的漏洞纳入武器库,继续潜伏,等待机会一击必杀。对抗越高的场景,检测引擎越容易被攻击者绕过。本质上,人工智能技术将模特特征替换成规则,但如果攻击者的恶意行为模式除了当前人工智能技术算法选择的特征集外,还有可能绕过这些算法引擎,形成降维打击。


举个简单的例子。企业普遍使用网络方面的安全检查和防护机制,但现在攻击者通常使用加密技术使恶意软件和主控方面(C&C)通信持续化,因此即使使使使用网络方面的人工智能技术,也能够识别无法复盖规则的新型攻击负荷,加密流量也很难生效。另外,为了避免各种网络和终端的安全探针,近年来在各种大规模的攻防训练中,攻击者倾向于以前的钓鱼、社会工程(库)等方式获得内部员工的合法身份,在业务水平上窃取数据和横向移动,后期所有的网络水平和终端水平的人工智能技术检测引擎都无能为力(因为没有网络和操作系统水平的恶意攻击行为)。实际上,每年攻防训练的情况不同,被动补充上年场景的检查能力,效果不令人满意。


说白了道高一尺,魔高一丈,攻防永远是技术、思路的对抗游戏,人工智能技术在某个细分领域成功解决所有问题的思路是不现实的,这也是目前系统化安全大脑不成熟的重要原因。


概念漂移,多场景检测率低。深入学习在行业的许多应用(如图像识别)中具有优异的性能,于大量样品的训练。在学术界,从事人工智能技术的研究者通常可以根据某个特定的场景设计有针对性的算法和模型,然后对某个公开的数据集和私有场景获得的数据集进行调整,以获得良好的性能。


但是,对于网络安全中的样本学习,最大的挑战是缺乏标记的样本,缺乏有经验的安全人员,内部环境中的攻击事件也很少。我们可以针对某一次对抗演练,人工地将探针数据分为培训集和测试集,然后在这个数据的基础上培训得到模型参数,最终验证得到很好的检测准确率和回调率。但是,这个场景的黑白样本的绝对数量还是太少,原因是现在的安全专家太少,不能大规模标记网络、终端和应用行为,一般水平的安全运营者没有标记能力,这和人类普遍认知能力的图像认知场景完全不同。这种情况下,该场景的模型参数在其他训练场景下可能性能非常差,即概念漂移,其原因也很直观。


1.攻击者经常调整攻击手法,即使方法相似,具体攻击负荷也可能与上次大不相同,现有模型也可能漏报。

2.不同机构的业务差异较大,培训环境中的白色样本与测试环境中的白色样本不同,导致黑白样本的界限偏移。


分享: