随着人工智能技术的飞速发展,特别是在生成性人工智能(AI)领域,面临着前所未有的挑战。英国国家网络安全中心(NCSC)在其最新的评估报告中强调,AI技术,尤其是生成性AI,使得网络钓鱼攻击变得更加复杂,给个人区分真实邮件和欺诈邮件带来了巨大挑战。
NCSC指出,像ChatGPT这样的平台使得网络犯罪分子能够利用生成性AI工具,制造出令人信服的钓鱼信息,诱使目标用户泄露敏感信息。随着这些工具的普及,预计未来两年内网络攻击的数量和影响力将激增。
网络钓鱼攻击,即通过欺骗手段获取个人密码或个人信息的行为,变得越来越难以识别。NCSC强调,生成性AI和大型语言模型的使用使得识别各种类型的攻击,如伪造消息和社会工程学攻击,变得更加复杂。
NCSC的报告还预测,勒索软件攻击将会增加,AI降低了业余网络犯罪分子的门槛。生成性AI的复杂性使得创建的假文件缺乏钓鱼尝试中常见的错误,使得对潜在受害者的攻击更加令人信服。
NCSC还强调了一个令人担忧的趋势,即能力强大的国家行为者可能会在高级网络行动中利用AI。这提高了风险,因为由复杂实体发起的AI驱动攻击对网络安全构成了严重威胁。
尽管AI在网络安全领域引入了新的挑战,NCSC也承认其作为防御工具的潜力。该技术可以在检测和预防攻击中发挥重要作用,强调了AI在开发更安全系统中的重要性。微软支持这一观点,表示AI可以分析消息上下文并识别出表明钓鱼攻击的异常信号。
在AI放大的网络安全威胁不断演变的背景下,个人和组织必须保持警惕。虽然NCSC的报告令人担忧,但它也强调了AI的双重性质。在准备应对增加的风险的同时,必须同时利用AI的力量进行防御,创造一个平衡,以防范网络威胁。