随着AI智能体普及, *** 安全风险日益凸显

zhongshanradio 2026-02-11 2 0

  作者:丹尼尔・豪利

  越来越多的企业在内部全面部署 AI 智能体,无论是用于邮件摘要生成,还是自动化处理特定任务。

  但这类智能体的快速扩张也带来了新的安全漏洞, *** 犯罪分子可利用这些漏洞对企业发动攻击。风险点包括:智能体在企业内部可访问的数据范围、可使用的数据类型,以及攻击者操纵 AI 机器人与智能体,发动升级版 *** 钓鱼攻击。

  根据微软(MSFT)《 *** 脉搏安全报告》,超过 80% 的财富 500 强企业正在部署使用低代码或无代码工具构建的 AI 智能体。但仅有47% 的企业部署了相应的安全管控措施来管理生成式 AI 平台。

  微软安全部门企业副总裁瓦苏・贾卡尔解释道:

  “AI 智能体的采用和扩张规模非常大,但与此同时,企业对这些智能体的可见度却非常有限。”

  微软委托开展的一项针对 1700 名安全专业人员的调查显示,29% 的员工曾在工作中使用过未经官方批准的智能体工具,这给企业带来了重大安全隐患。

  拥有过度数据访问权限的智能体会构成特殊威胁:员工可能查看其无权接触的信息,或出现其他滥用数据的情况。

  微软数据安全、治理与合规事业部企业副总裁鲁德拉・米特拉接受雅虎财经采访时表示:

  “如果企业内部存在权限过高的数据,或数据治理不完善,无论你是否应该拥有访问权限,智能体都能把所有信息找出来。”

  人们通常清楚自己是否可以访问或使用某些数据,但缺乏管控的智能体会无差别地搜集信息。

  更令人担忧的是,部分智能体可 *** 纵,通过一种被称为 **“AI 推荐投毒”** 的技术,向用户提供不准确或带有偏见的回复。

  微软表示,这类攻击可通过用户点击恶意链接、AI 摘要文档中隐藏的指令,或社会工程学手段实现。

  举个例子:某企业主需要为暖通空调系统寻找维修服务商。当他在网上搜索潜在公司时,点击了某个链接或用 AI 摘要了某网页内容 —— 在他不知情的情况下,其 AI 智能体的记忆被 “投毒”,会自动优先推荐某一家暖通公司。

  米特拉说:“很多企业会认为,聊天机器人或智能体是在为自己工作,理应给出可信的结果,或是符合预期的结果。”

  “但如果它能 *** 纵,就相当于破坏了整条信任链,相当于升级版的强力 *** 钓鱼攻击。你信任的智能体,给出的却是被篡改过的结果。”

  AI 智能体已经至少卷入过一起重大 *** 攻击事件。

  去年 11 月,Anthropic 称,一个其声称是中国国家级背景的黑客组织,利用 Claude Code 的智能体能力,对大型科技公司、金融机构和 *** 机构发动了攻击。

  当时 Anthropic 表示已通知所有受影响机构,但也承认,此类攻击未来很可能变得更加高效。

  不过,这并不意味着企业应该完全放弃使用智能体。

  贾卡尔建议,企业应像对待普通员工一样,对 AI 智能体和机器人实施零信任策略。

  零信任是一种 *** 安全理念,要求所有使用者必须通过密码或生物识别进行验证,才能使用公司各类系统或访问数据。这也是工作中需要定期重置密码、账号会不时退出登录的原因之一。

  其核心思路是:如果 AI 接受同等安全管控,被利用的难度就会提高,成为安全威胁的可能性也会降低。

  这同时也能减少员工使用外部 AI 智能体和服务的行为,从而降低整体安全风险。