
你的数据正在喂养 AI:从 Atlassian 公告,看科技平台的数据训练默认政策
TL;DR:Atlassian 宣布默认使用用户数据训练 AI,这不是意外,而是行业惯例。本文梳理海外和中国主流平台的数据训练政策,拆解背后的三个共同规律。 一、Atlassian 的公告 2026 年 8 月 17 日,Atlassian 的一项隐私政策更新悄悄生效。 对于数百万使用 Jira 和 Confluence 的团队而言,这意味着:你在 Confluence 里写的文档、Jira 里记录的需求和 Bug 描述,默认情况下可以被用于训练 Atlassian 的 AI 模型。 公告关键条款分两层。第一层是元数据,免费和标准版用户无法退出;第二层是应用内容(Confluence 正文、Jira 描述和评论),默认开启,可以关闭,但完全退出需要升级到企业版。 Atlassian 的措辞相当克制——“去标识化处理”“用于改进 AI 功能”“保障隐私安全”。这套话术你可能在其他地方见过,因为几乎每一家做同样事情的公司都在用同样的句式。 官方 FAQ:https://www.atlassian.com/trust/ai/data-contribution/faqs 二、这不是孤例,而是行业惯例 Atlassian 公告引发了一些讨论,但坦白说,它只是在做一件大多数同行早就在做的事。 以下是海外主流平台的现状: 平台 默认行为 退出方式 ChatGPT(免费/Plus) 默认开启 App 内设置关闭 GitHub Copilot(免费) 默认开启 设置关闭 LinkedIn 默认开启 可退出,但已收集数据不撤回 Slack 默认开启 邮件申请退出 Atlassian 默认开启 企业版才能完全退出 X/Twitter 默认开启 隐私设置关闭 Zoom 曾默认开启 2023 年因舆论压力撤回 几个值得单独说的细节:





