教育技术中心
首页 - 精彩推荐

2024年生成式AI带来的十大安全威胁

来源: 教育技术中心 添加时间: 2024-04-07

  随着生成式AI的不断演进,大语言模型(LLM)将可能成为攻击者用于实施网络攻击的工具。
  预测1:生成式A1将能够与网络钓鱼受害者对话
  生成式AI将可以直接翻译钓鱼者使用的非母语信息,并通过整合公开可用的个人信息,创建极其逼真的骗局。因此,网络犯罪集团将会把已知的网络钓鱼作为一种服务,并在规模和效率方面将其放大。
  预测2:利用生成式 AI创建虚假账户
  生成式 AI将用于创建虚假账户,使得这些内容与真人账号内容看上去并无差异。所有由虚假账户产生的攻击策略,包括欺诈、凭证填充、传播虚假信息和操纵市场,或将大幅提升犯罪效率。
  预测3:使用生成式 Al进行虚假信息传播
  生成式 AI 工具有显著改变恶意信息操作方式的潜力。将虚假内容创作、自动文本生成用于传播虚假信息、具有针对性地宣传错误信息以及规避内容审查,此类手段促成了恶劣影响的激增。
  预测4:生成式 A1的进步将助长黑客行为
  随着算力变得更加经济实惠且易于使用,预计与世界重大事件相关的黑客行为将有所增长。通过使用 AI 工具以及利用智能设备,更多新手可能会作为黑客加入到网络空间的战斗中。
  预测5:利用生成式A1的实时输入能力实施攻击
  凭借生成式AI强大的编码能力,LLM可以被用来指导实时攻击中的程序序列,帮助攻击者作出反应。如果攻击者被安全控制措施拦截,AI系统可以用来评估响应,并提供其他攻击方式。LLM 的不断发展可能会使攻击链更加多样化。
  预测6:大语言模型的数据泄露问题
  AI将会带来新的漏洞风险,且大语言模型的不透明、自动化特点,将使企业的安全、隐私和合规团队履行职责的任务复杂化。企业急于创建专有LLM 的热潮,将可能导致更多训练数据的泄露。
  预测7:生成式漏洞
  如今,无论是老手还是新手开发人员,在编写代码或检查漏洞时都开始越来越多地依赖生成式AI。但如果没有采用正确的安全防范措施,预计LLM将创造出难以确保其安全的漏洞代码洪流。
  预测8:边缘攻击
  边缘计算的兴起将导致攻击面的大幅扩张。物理篡改、管理挑战,以及软件和API漏洞都具有在边缘环境中被放大的风险。如果企业像处理云计算一样,以同样疏忽的方式处理向边缘计算的转变预计未来的安全事件也将会持续频发。
  预测9:攻击者将提升其离地攻击的能力
  IT环境的复杂将使监控和检测离地攻击(LOTL)变得更具挑战性。攻击者越来越倾向于使用LOTL技术实现恶意攻击。LOTL攻击还可以并入供应链攻击,从而危害关键基础架构并中断系统运营。
  预测10:安全“贫困线”将变成安全“贫困矩阵
  当前,安全产品的成本和复杂性可能迫使企业在整个系统的安全控制措施之间做出选择。然而许多企业选择将这些控制措施作为托管服务使用但同时它们也为企业带来了相应的成本压力。
  
编辑/张晓苗
审核/张晓苗、史林林、陈大军
浏览量:421