你的数据正在喂养 AI:从 Atlassian 公告,看科技平台的数据训练默认政策

你的数据正在喂养 AI:从 Atlassian 公告,看科技平台的数据训练默认政策

TL;DR:Atlassian 宣布默认使用用户数据训练 AI,这不是意外,而是行业惯例。本文梳理海外和中国主流平台的数据训练政策,拆解背后的三个共同规律。

一、Atlassian 的公告

2026 年 8 月 17 日,Atlassian 的一项隐私政策更新悄悄生效。

对于数百万使用 Jira 和 Confluence 的团队而言,这意味着:你在 Confluence 里写的文档、Jira 里记录的需求和 Bug 描述,默认情况下可以被用于训练 Atlassian 的 AI 模型。

公告关键条款分两层。第一层是元数据,免费和标准版用户无法退出;第二层是应用内容(Confluence 正文、Jira 描述和评论),默认开启,可以关闭,但完全退出需要升级到企业版。

Atlassian 的措辞相当克制——“去标识化处理”“用于改进 AI 功能”“保障隐私安全”。这套话术你可能在其他地方见过,因为几乎每一家做同样事情的公司都在用同样的句式。

官方 FAQ:https://www.atlassian.com/trust/ai/data-contribution/faqs

二、这不是孤例,而是行业惯例

Atlassian 公告引发了一些讨论,但坦白说,它只是在做一件大多数同行早就在做的事。

以下是海外主流平台的现状:

平台默认行为退出方式
ChatGPT(免费/Plus)默认开启App 内设置关闭
GitHub Copilot(免费)默认开启设置关闭
LinkedIn默认开启可退出,但已收集数据不撤回
Slack默认开启邮件申请退出
Atlassian默认开启企业版才能完全退出
X/Twitter默认开启隐私设置关闭
Zoom曾默认开启2023 年因舆论压力撤回

几个值得单独说的细节:

ChatGPT 的策略在文档上算透明——官方帮助页明确写着“ChatGPT 通过对话训练,除非你退出”。但有一个陷阱:即使你开启了退出,只要你对某条回复点了赞或踩,该完整对话仍可能被用于训练。

GitHub Copilot 自 2026 年 4 月起,将免费和 Pro 用户的交互数据默认用于训练。企业版默认关闭——和 Atlassian 如出一辙,付费保护数据,免费贡献数据。

Zoom 是目前唯一完全撤回的案例。2023 年 8 月政策更新后,用户发现条款允许用视频内容训练 AI,舆论强烈反弹,Zoom 数日内道歉并完全撤回。这个案例在 2023 年是标志性事件,但此后再也没有重演过。

三、中国平台的镜像现象

同样的逻辑,在中国市场同步上演。

平台默认行为退出方式
豆包(字节跳动)默认开启App 内设置关闭
DeepSeek默认开启App 内设置关闭
通义千问(阿里)默认开启联系客服申请
元宝(腾讯)默认关闭无需退出
WPS曾默认开启2023 年因舆论压力撤回

豆包的隐私政策(2026 年 3 月生效)在“模型训练”章节直接写明:“内容数据(输入 + 回复)经去标识化后可用于模型训练。”退出路径是:设置 → 隐私与权限 → 帮助模型改进效果。表述算得上清晰。

DeepSeek 有一个容易被忽视的细节:用户协议允许将输出内容用于“训练其他模型,包括模型蒸馏”。这意味着你和 DeepSeek 的对话,不只可能被用来训练 DeepSeek 自身,还可能用于蒸馏出其他模型。

通义千问是所有已查平台中退出体验最差的:没有 App 内开关,必须手动联系客服申请。隐私政策的措辞是“如不希望用于模型优化,请参照本政策第九条联系我们”——把退出的门槛设计得足够高,大多数用户不会真的去走这条路。

元宝是个异类。2025 年 3 月,腾讯原始协议中有“永久、不可撤销、可转让”的内容授权条款,引发舆论反弹后 5 天内连改三次,最终改为默认关闭、用户主动开启才生效。在中国主流大模型产品里,元宝目前是唯一默认不收集的。

WPS 与 Zoom 的剧本几乎一致:2023 年 11 月政策加入用户文档用于 AI 训练条款,两天内被迫道歉撤回。时间节点相近,结局相同——都发生在公众对 AI 隐私最敏感的 2023 年。

四、模式拆解:三个共同规律

梳理完这些案例,可以归纳出三个几乎跨平台通用的规律。

规律一:默认开启,退出路径设计得刁钻

没有一家平台会在注册时弹窗询问“是否同意将你的数据用于训练”。统一的做法是:默认开启,在隐私政策深处埋一个退出入口,路径越长越好。通义千问把退出门槛设计成“联系客服”,是这个规律的极端案例。Atlassian 把完全退出的权利锁在企业版付费墙后面,是另一种变体。

规律二:免费用户最脆弱,付费企业版才有保护

这几乎是铁律。ChatGPT 免费/Plus 版默认开启,Enterprise 版默认关闭。GitHub Copilot 免费版默认开启,企业版默认关闭。Atlassian 标准版无法退出元数据收集,企业版可以完全退出。逻辑很清晰:免费用户用数据付费,付费用户用钱付费。

规律三:“去标识化”成了万能挡箭牌

翻遍所有平台的隐私政策,几乎每一家都用了同样的措辞:“在严格去标识化、无法重新识别特定个人的前提下……”这句话的问题在于:去标识化的标准由平台自己定义,执行情况无从外部核实,而去标识化后的数据在法律上往往不再被视为个人信息,监管约束大幅减弱。这句话既是承诺,也是免责。

五、用户态度的转变

2023 年是一个分水岭。

那一年,Zoom 因 AI 训练条款在数日内被迫撤回,WPS 在两天内道歉。公众对 AI 使用私人数据的反应是即时且强烈的。那个时期,“你的数据被用于训练 AI”还是一个足以引发大规模讨论的新闻。

2025 到 2026 年,同样的操作几乎不再引发反弹。

LinkedIn 默认开启,用户沉默。GitHub Copilot 更新政策,开发者社区短暂讨论后归于平静。Atlassian 公告生效,大多数团队甚至不知道这件事发生过。

这种转变背后有几个相互叠加的原因。

第一是疲劳效应。当每隔几个月就有一家平台更新数据政策,用户的警觉阈值在持续上升。反复面对同样的新闻,愤怒会钝化。

第二是感知价值的变化。2023 年 AI 功能对普通用户还是新鲜事物,隐私代价显得不对等。到了 2026 年,AI 补全、AI 总结、AI 搜索已经深度嵌入日常工作流,用户在隐性地做一笔交换:我的数据换你的 AI 能力。

第三是迁移成本极高。Jira 和 Confluence 深度绑定了团队的工作流,换掉的成本远超隐私政策带来的不适。这让平台在调整政策时拥有相当大的空间。

第四是监管滞后。无论是 GDPR 还是中国的《生成式人工智能服务管理暂行办法》,对“去标识化数据用于模型训练”的具体边界都尚未形成清晰的执法标准。监管的空白给了平台足够的时间窗口。

用户不是变得不在意隐私了,而是在没有更好选择的情况下,选择了接受。

六、开发者和企业该怎么办

知道这件事之后,能做什么?

个人用户:主动退出

前文提到的各平台退出路径,值得花五分钟逐一检查一遍。默认开启的设计就是赌你不会去找那个开关。

企业用户:评估合规风险

如果你的团队在 Jira 或 Confluence 里记录了客户数据、商业机密、未发布的产品规划,需要认真评估 Atlassian 新政策的合规影响。标准版无法完全退出元数据收集,这在某些行业(金融、医疗、政府)可能触碰监管红线。

对于 ChatGPT、Copilot 等开发工具,建议在团队层面统一配置企业版并确认默认策略,而不是依赖每个员工自己去找设置。

更根本的问题

退出开关能做的事是有限的。平台对“去标识化”的定义不透明,执行情况无法核实,历史数据通常无法删除。

真正有效的保护是不输入不该输入的内容——不在消费级 AI 产品里粘贴客户合同、不在免费版 Copilot 里处理涉密代码、不在公有云 SaaS 里存放监管敏感数据。这不是对 AI 工具的否定,而是在享受便利的同时,对数据边界保持清醒。

(转载本站文章请注明作者和出处乱世浮生,请勿用于任何商业用途)

comments powered by Disqus