企业AI扩散过程中‘影子AI’增加…治理空白成变数

robot
摘要生成中

企业人工智能的引入正在快速增长,但实际现场中,"控制"比"扩展"正成为更大的挑战。有诊断指出,即使在有限的试点运营中取得了成果,在将其推广到实际业务整体的过程中,由于安全与政策管理未能跟上,"生产转换差距"正在扩大。

SUSE S.A. 的人工智能部门副总裁兼总经理里斯·奥克森汉姆最近在SUSECON 2026上表示,企业如今面临的已非简单的人工智能试点,而是如何安全地迁移至大规模运营环境的问题。他解释道:“试点相对容易证明价值,但之后要将其与核心数据一同应用于实际运营,则需要安全措施和治理。”“这正是客户需要跨越的’生产差距’。”

此类问题也体现在数据上。报告显示,每五家企业中就有一家经历过与"影子AI"相关的安全事件,但拥有管理或检测其政策的公司仅占37%。影子AI指的是员工未经公司批准使用外部生成式AI工具的现象,虽然便利性高,但数据泄露和违规风险大。最终,与人工智能投资规模不相上下的治理体系缺失,已成为直接影响企业竞争力的变量。

SUSE,提出"私有AI"作为解决方案

SUSE针对此问题提出了"私有AI"作为解决方案。这是一种基于开放标准、混合部署以及组织完全控制权的企业级AI模型。其设计方式是让企业根据需要,在自有数据中心、公共云乃至边缘环境中部署AI工作负载,同时避免受限于特定供应商。

奥克森汉姆特别强调了"数字主权"的重要性。他表示:“数字主权已不再是仅属于欧洲的监管清单。”"全球所有组织都必须在基础设施运营中考虑独立性、自主性和韧性。"这意味着,超越简单的合规层面,AI基础设施和数据控制权本身正成为企业的核心竞争力。

在现场,管理层往往要求快速取得AI成果,而支持其的治理机制却常常不足。此时,成员们会绕过获批的系统,转而使用外部工具,企业则在无法掌握数据流和使用历史的情况下失去控制力。SUSE解释称,为降低此类风险,其基于SUSE Rancher Prime和SUSE Linux Enterprise Server提供了可观测性、安全性和自动化。

代理型AI时代,安全与可观测性重要性愈发凸显

特别是随着AI超越简单推荐,进化到能代为执行实际工作的"代理型AI"阶段,治理的重要性变得更大。这是因为,AI代理越是代表用户行动并参与决策,就越需要能够实时确认其判断是否符合企业政策。

奥克森汉姆表示:“如果代理代表用户执行实际行为,就必须确认该行为是否符合公司政策。”"在这个阶段,治理、安全性和可观测性变得极其重要。"这表明,企业级AI的竞争力不再仅由模型性能决定,而是正在转向同时包含运营稳定性和政策执行能力的方向。

最终,有分析指出,2026年企业级AI市场的核心课题并非"引入更多AI",而是"建立能够安全扩展的基础"。越来越明确的是,要使AI试点走出实验室,成功融入实际业务系统,必须建立与性能同等重要的治理、数字主权和安全体系。

TP AI 注意事项 使用基于TokenPost.ai的语言模型对文章进行了摘要。正文的主要内容可能被省略或与事实不符。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论