
你的数据正在喂养 AI:从 Atlassian 公告,看科技平台的数据训练默认政策
TL;DR:Atlassian 宣布默认使用用户数据训练 AI,这不是意外,而是行业惯例。本文梳理海外和中国主流平台的数据训练政策,拆解背后的三个共同规律。
一、Atlassian 的公告
2026 年 8 月 17 日,Atlassian 的一项隐私政策更新悄悄生效。
对于数百万使用 Jira 和 Confluence 的团队而言,这意味着:你在 Confluence 里写的文档、Jira 里记录的需求和 Bug 描述,默认情况下可以被用于训练 Atlassian 的 AI 模型。
公告关键条款分两层。第一层是元数据,免费和标准版用户无法退出;第二层是应用内容(Confluence 正文、Jira 描述和评论),默认开启,可以关闭,但完全退出需要升级到企业版。
Atlassian 的措辞相当克制——“去标识化处理”“用于改进 AI 功能”“保障隐私安全”。这套话术你可能在其他地方见过,因为几乎每一家做同样事情的公司都在用同样的句式。
官方 FAQ:https://www.atlassian.com/trust/ai/data-contribution/faqs
二、这不是孤例,而是行业惯例
Atlassian 公告引发了一些讨论,但坦白说,它只是在做一件大多数同行早就在做的事。
以下是海外主流平台的现状:
| 平台 | 默认行为 | 退出方式 |
|---|---|---|
| ChatGPT(免费/Plus) | 默认开启 | App 内设置关闭 |
| GitHub Copilot(免费) | 默认开启 | 设置关闭 |
| 默认开启 | 可退出,但已收集数据不撤回 | |
| Slack | 默认开启 | 邮件申请退出 |
| Atlassian | 默认开启 | 企业版才能完全退出 |
| X/Twitter | 默认开启 | 隐私设置关闭 |
| Zoom | 曾默认开启 | 2023 年因舆论压力撤回 |
几个值得单独说的细节:
ChatGPT 的策略在文档上算透明——官方帮助页明确写着“ChatGPT 通过对话训练,除非你退出”。但有一个陷阱:即使你开启了退出,只要你对某条回复点了赞或踩,该完整对话仍可能被用于训练。
GitHub Copilot 自 2026 年 4 月起,将免费和 Pro 用户的交互数据默认用于训练。企业版默认关闭——和 Atlassian 如出一辙,付费保护数据,免费贡献数据。
Zoom 是目前唯一完全撤回的案例。2023 年 8 月政策更新后,用户发现条款允许用视频内容训练 AI,舆论强烈反弹,Zoom 数日内道歉并完全撤回。这个案例在 2023 年是标志性事件,但此后再也没有重演过。
三、中国平台的镜像现象
同样的逻辑,在中国市场同步上演。
| 平台 | 默认行为 | 退出方式 |
|---|---|---|
| 豆包(字节跳动) | 默认开启 | App 内设置关闭 |
| DeepSeek | 默认开启 | App 内设置关闭 |
| 通义千问(阿里) | 默认开启 | 联系客服申请 |
| 元宝(腾讯) | 默认关闭 | 无需退出 |
| WPS | 曾默认开启 | 2023 年因舆论压力撤回 |
豆包的隐私政策(2026 年 3 月生效)在“模型训练”章节直接写明:“内容数据(输入 + 回复)经去标识化后可用于模型训练。”退出路径是:设置 → 隐私与权限 → 帮助模型改进效果。表述算得上清晰。
DeepSeek 有一个容易被忽视的细节:用户协议允许将输出内容用于“训练其他模型,包括模型蒸馏”。这意味着你和 DeepSeek 的对话,不只可能被用来训练 DeepSeek 自身,还可能用于蒸馏出其他模型。
通义千问是所有已查平台中退出体验最差的:没有 App 内开关,必须手动联系客服申请。隐私政策的措辞是“如不希望用于模型优化,请参照本政策第九条联系我们”——把退出的门槛设计得足够高,大多数用户不会真的去走这条路。
元宝是个异类。2025 年 3 月,腾讯原始协议中有“永久、不可撤销、可转让”的内容授权条款,引发舆论反弹后 5 天内连改三次,最终改为默认关闭、用户主动开启才生效。在中国主流大模型产品里,元宝目前是唯一默认不收集的。
WPS 与 Zoom 的剧本几乎一致:2023 年 11 月政策加入用户文档用于 AI 训练条款,两天内被迫道歉撤回。时间节点相近,结局相同——都发生在公众对 AI 隐私最敏感的 2023 年。
四、模式拆解:三个共同规律
梳理完这些案例,可以归纳出三个几乎跨平台通用的规律。
规律一:默认开启,退出路径设计得刁钻
没有一家平台会在注册时弹窗询问“是否同意将你的数据用于训练”。统一的做法是:默认开启,在隐私政策深处埋一个退出入口,路径越长越好。通义千问把退出门槛设计成“联系客服”,是这个规律的极端案例。Atlassian 把完全退出的权利锁在企业版付费墙后面,是另一种变体。
规律二:免费用户最脆弱,付费企业版才有保护
这几乎是铁律。ChatGPT 免费/Plus 版默认开启,Enterprise 版默认关闭。GitHub Copilot 免费版默认开启,企业版默认关闭。Atlassian 标准版无法退出元数据收集,企业版可以完全退出。逻辑很清晰:免费用户用数据付费,付费用户用钱付费。
规律三:“去标识化”成了万能挡箭牌
翻遍所有平台的隐私政策,几乎每一家都用了同样的措辞:“在严格去标识化、无法重新识别特定个人的前提下……”这句话的问题在于:去标识化的标准由平台自己定义,执行情况无从外部核实,而去标识化后的数据在法律上往往不再被视为个人信息,监管约束大幅减弱。这句话既是承诺,也是免责。
五、用户态度的转变
2023 年是一个分水岭。
那一年,Zoom 因 AI 训练条款在数日内被迫撤回,WPS 在两天内道歉。公众对 AI 使用私人数据的反应是即时且强烈的。那个时期,“你的数据被用于训练 AI”还是一个足以引发大规模讨论的新闻。
2025 到 2026 年,同样的操作几乎不再引发反弹。
LinkedIn 默认开启,用户沉默。GitHub Copilot 更新政策,开发者社区短暂讨论后归于平静。Atlassian 公告生效,大多数团队甚至不知道这件事发生过。
这种转变背后有几个相互叠加的原因。
第一是疲劳效应。当每隔几个月就有一家平台更新数据政策,用户的警觉阈值在持续上升。反复面对同样的新闻,愤怒会钝化。
第二是感知价值的变化。2023 年 AI 功能对普通用户还是新鲜事物,隐私代价显得不对等。到了 2026 年,AI 补全、AI 总结、AI 搜索已经深度嵌入日常工作流,用户在隐性地做一笔交换:我的数据换你的 AI 能力。
第三是迁移成本极高。Jira 和 Confluence 深度绑定了团队的工作流,换掉的成本远超隐私政策带来的不适。这让平台在调整政策时拥有相当大的空间。
第四是监管滞后。无论是 GDPR 还是中国的《生成式人工智能服务管理暂行办法》,对“去标识化数据用于模型训练”的具体边界都尚未形成清晰的执法标准。监管的空白给了平台足够的时间窗口。
用户不是变得不在意隐私了,而是在没有更好选择的情况下,选择了接受。
六、开发者和企业该怎么办
知道这件事之后,能做什么?
个人用户:主动退出
前文提到的各平台退出路径,值得花五分钟逐一检查一遍。默认开启的设计就是赌你不会去找那个开关。
企业用户:评估合规风险
如果你的团队在 Jira 或 Confluence 里记录了客户数据、商业机密、未发布的产品规划,需要认真评估 Atlassian 新政策的合规影响。标准版无法完全退出元数据收集,这在某些行业(金融、医疗、政府)可能触碰监管红线。
对于 ChatGPT、Copilot 等开发工具,建议在团队层面统一配置企业版并确认默认策略,而不是依赖每个员工自己去找设置。
更根本的问题
退出开关能做的事是有限的。平台对“去标识化”的定义不透明,执行情况无法核实,历史数据通常无法删除。
真正有效的保护是不输入不该输入的内容——不在消费级 AI 产品里粘贴客户合同、不在免费版 Copilot 里处理涉密代码、不在公有云 SaaS 里存放监管敏感数据。这不是对 AI 工具的否定,而是在享受便利的同时,对数据边界保持清醒。



