Workflow
影子 AI:你的公司也可能沦为 AI 训练素材
3 6 Ke·2025-07-22 02:28

大型语言模型等生成式 AI 应用的运行机制决定了它们会从交互中持续学习 —— 没有任何企业愿意用 自家核心数据来 "喂养" 公共 AI 应用。 面对商业秘密和核心数据泄露的风险,许多企业选择直接封杀生成式 AI 应用。 这种看似能阻断敏感信息流入未授权平台的做法,实则催生了更危险的 "AI 影子化" 现象 —— 员工开 始通过私人设备登录、将数据转发至个人账户,甚至截图绕过监控系统上传,使得企业安全防线的盲区 不断扩大。 对许多人而言,生成式人工智能(GenAI)最初只是居家和个人设备上的新奇尝试。 但如今,AI 已深度渗透职场生态 —— 在提升生产效率的同时,也让企业暴露于巨大的安全漏洞之中。 敏感公司数据正以各种形式(无论有意或无意)持续流入公共 AI 系统,IT 与网络安全负责人疲于应 对。 一旦专有数据被公共 AI 工具处理,这些信息就可能成为模型的训练数据,最终服务于其他用户。例如 2023 年 3 月,某跨国电子制造商就曾被曝发生多起员工将产品源代码等机密数据输入 ChatGPT 的事 件。 另一种方案是将员工引导至经企业认证的 AI 平台,这些平台在保持同等功能的同时,能有效保护商业 机密。 【 ...