处理人工智能和机器学习所需的顶级技能的网络安全团队

随着生成式人工智能的使用不断增长,网络安全团队需要获得新的技能并管理遗留系统,以弥补现有人才短缺

在应对老旧技术的同时,网络安全团队还需要获取新的技能。

🔒 网络安全人才短缺之挑战

网络安全领域正面临着短缺的专业人才。随着亚太地区积极采用生成型人工智能(AI)和机器学习,网络安全团队迫切需要额外的技能来跟上。这种需求出现在威胁形势不断演变,并且组织机构难以放弃的老旧系统,加剧了攻击面的扩大,使其难以保护。

但是,情况变得更加糟糕了!根据国际信息系统安全认证协会(ISC2)的数据显示,亚太地区的网络安全人员缺口惊人地扩大了23.4%。这意味着该地区还需要额外的267万网络安全专业人士来充分保护数字资产。更不用说,这种人才缺口对该地区而言是创纪录的高位。更别提,全球范围内网络安全专业人员的缺口已经达到近400万,比上一年增长了惊人的12.6%。

💼 需求最高的技能

那么,组织机构迫切寻求的是哪些宝贵的技能呢?根据ISC2网络安全人才研究,高达92%的网络安全专业人员认为他们所在的组织存在技能缺口。在这些技能缺口中,云安全、人工智能和机器学习是组织机构最缺乏的领域,分别有35%和32%的专业人员报告了这些领域的缺口。很明显,随着组织机构越来越多地将人工智能纳入其流程中,对既精通云计算又了解人工智能安全的专业人员的需求将持续增长。

➡️ 生成型人工智能的影响

好像网络安全专业人员的短缺还不够,生成型人工智能的出现又增加了一层复杂性。攻击者现在可以使用ChatGPT和Stable Diffusion等强大工具,改善其信息的可信度,并创建令人信服的网络钓鱼邮件和网站。这给防御者带来了重大挑战,他们现在必须了解生成型人工智能的工作原理,并保护由其驱动的应用程序和工作流程的安全。

🤖 对于新技能的需求

为了保持领先地位,安全领导者必须为其团队配备迅速的工程培训,使他们了解生成型人工智能提示是如何工作的。对于渗透测试员和红方团队来说,这种知识至关重要,他们需要评估由生成型人工智能驱动的解决方案的安全性,并确保模型不被寻求知识产权的网络犯罪分子污染或窃取。攻击型人工智能安全技能对于保护用于训练这些模型的敏感数据以防止暴露或泄漏至关重要。

⚠️ 未预料到的风险和治理

尽管生成型人工智能具有巨大的潜力,但它也带来了一系列新的风险。人们越来越担心,威胁行为者可能会开发他们自己的语言模型,并基于已知的漏洞和恶意软件训练它们,从而创建一个难以防御的“超级恶意软件”。此外,还存在算法污染的风险,黑客可以操纵人工智能算法以进行恶意用途。

为了减轻这些风险,组织机构必须制定强有力的治理计划,拥有强大的风险管理政策,解决固有偏见和生成型人工智能模型中的错觉等问题。适当的防护措施对于网络安全防御者来说实际上是有益的,允许由生成型人工智能驱动的聊天机器人快速提供有关安全事件的见解,并简化安全运营流程。

🧠 技能提升和简化技术堆栈

为了解决技能短缺的问题,组织机构应该投资于提升现有团队的能力,并在机器学习和人工智能模型方面建立技术技能。虽然人工智能有可能降低网络安全技能的门槛,但在机器学习和人工智能模型的编码方面,基础技能仍然供不应求。公司需要提供适当的培训资源,并优先考虑持续提升技能。

除了技能提升,组织机构还需要重新评估其老旧系统,并努力简化其技术堆栈。拥有过多的网络安全工具实际上会增加风险。在运营技术(OT)等部门中,老旧系统对网络安全团队提出了特别的挑战,他们必须监视和保护新旧工具集。

🚀 科技的力量

虽然网络安全人才短缺仍然是一个紧迫的问题,但技术可以成为我们在弥补缺口方面的盟友。通过自动化和编排,借助人工智能的帮助,可以显著增强网络安全能力。通过优化流程和迅速响应不断演变的威胁,自动化让公司在人工智能攻击之前走出了一步。全面的防御策略包括对整个环境和风险曝光的完整可见性是至关重要的。

🌐 展望未来

随着组织继续数字化转型的道路和人工智能的采用加速,对具备人工智能和云技术能力的网络安全专业人员的需求只会增加。因此,组织有必要优先考虑提升技能,并投资正确的资源以弥补网络安全工作人员的缺口。此外,组织还需要通过牢固的治理计划和风险管理政策来解决与生成式人工智能相关的风险。

🔗 参考文献:软件中的安全性排在第一位?人工智能可能帮助将其变为日常实践风投寻找下一波网络安全创业公司2023年全球最大的十家人工智能公司尽管有防范措施,生成式人工智能很容易被制造成恶意行为微软技术培训和认证终身优惠80%2023年最佳Roomba吸尘器:顶级 iRobot 型号对比Quishing:在扫描二维码之前需要考虑的新型网络钓鱼攻击Superpedestrian 的终结及其对电动滑板车行业的意义

读者关注点:

问:除了云安全和人工智能外,组织还在哪些领域缺乏技能?答:除了云安全和人工智能外,组织在渗透测试、零信任实施和 API 安全等领域也存在技能缺口。

问:组织如何保护自己免受基于人工智能的攻击?答:组织必须确保完全了解和认识到自己的整个环境和风险暴露。这可以通过自动化、编排和防御层级的方法实现。实施具有清晰风险管理政策的治理计划也是必不可少的。

问:传统系统如何对组织的网络安全工作构成风险?答:传统系统可能是一个重大风险,因为组织在采用新技术的同时往往很难放弃它们。网络安全团队经常发现自己负责监控和保护旧和新的工具集,从而导致潜在的漏洞得不到解决。组织重新评估并简化其技术堆栈非常关键。

问:组织可以采取哪些步骤来简化其技术堆栈?答:组织应重新评估其传统系统,努力淘汰或逐步停用它们,并考虑 consoli​​dating(合并)其网络安全工具。技术堆栈中工具过多会增加复杂性并带来安全风险。

问:采用生成式人工智能还有哪些风险?答:采用生成式人工智能存在诸如算法污染(algorithm poisoning)的风险,黑客可以篡改人工智能算法,还可能产生“超级恶意软件”。此外,大型语言模型和人工智能模型可能存在固有偏见,这些偏见可能被威胁行为者利用。


💡 总结

网络安全专业人员短缺问题在生成式人工智能和机器学习的日益普及下变得更加严重。组织在招聘和培养必要的技能方面面临挑战,以跟上这些技术的发展。云安全和人工智能技能尤其受到需求,而传统系统和日益扩大的攻击面进一步复杂了网络安全工作。然而,通过正确的培训、治理计划和技术堆栈的简化,组织可以在人工智能时代提升其网络安全能力。🛡️

🗣️ 有什么燃烧的问题或见解吗?使用 #AI在网络安全 中的社交媒体与我们分享,让我们继续对话!

别忘了分享本文以增加人们对在人工智能时代网络安全技能重要性的认识!🌐

将此HTML代码翻译成中文(保留HTML代码并保持标签中src属性的原始信息不变):

图像来源: SampleImage.com

视频来源: SampleVideo.com