Anti-Distill:当公司要求你把经验蒸馏给 AI 时,这个工具帮你反制

AI摘要

AI技能化趋势要求员工将隐性知识显性化并输入AI,可能削弱个人不可替代性。anti-distill工具通过生成“正确但无用”的清洗版应对。法律上,员工经验与默会知识不完全属于公司,涉及著作权、隐私及灰色地带,相关判例显示权益向劳动者倾斜。建议在劳动合同中明确知识提炼权限,当前可利用工具选择性保留核心经验。

AI 正在渗透职场,这已经不是新闻了。但最近出现的一个新趋势让我有些不安:一些公司开始要求员工把自己的工作经验、踩坑记录、决策逻辑写成 AI Skill——说白了,就是把你的隐性知识显性化,然后喂给 AI。

表面上看,这是「知识沉淀」「经验传承」。但仔细想想:当你把「Redis key 不设 TTL 的 PR 直接打回」「事务里绝对不能放 HTTP 调用」「被催进度时先沉默再给模糊承诺」这些血泪经验都交出去之后,你在团队里的不可替代性还剩多少?

🛡️ anti-distill 做了什么?

GitHub 上刚出现的 anti-distill 项目,正是对这种趋势的直接回应。它的逻辑很简洁:你写了 Skill 文件,扔进去,它输出两份——一份「看起来完整专业」的清洗版交给公司,一份「核心知识全在」的私人备份留给自己。

清洗的核心逻辑是「正确但无用」:把具体的、带判断力的经验替换成泛泛的、放之四海而皆准的废话。比如「事务里不要放 HTTP 调用」变成「事务边界设计注意合理性」——听起来完全正确,审核的人挑不出毛病,但一个新人看完还是不知道该怎么做。

⚖️ 公司强迫员工上交 Skill,违法吗?

这是最近讨论最激烈的问题。我查了一些资料,发现法律层面的回答比想象中复杂,但有一个趋势是明确的:员工在工作中积累的经验和判断力,不完全属于公司。

第一层:知识产权法能覆盖一部分

员工在职期间写的代码、技术文档如果具备独创性,属于著作权法意义上的「职务作品」。专利法也有「职务发明」规则。这部分权利归属相对清晰,但要注意:著作权中的署名权、修改权等人身性权利是法定保留的,公司不能通过合同完全剥夺。

第二层:个人信息和隐私保护

很多人以为:公司的系统里产生的数据,公司想怎么用就怎么用。这个认知是错的。员工在飞书、邮箱、企业微信里留下的内容,并不因为发生在公司系统里就自动失去人格权保护。《民法典》明确规定自然人享有隐私权,个人信息受法律保护。一旦涉及个人画像、行为分析、风格提炼,就会触发更严格的合法性审查。

第三层:争议最大的灰色地带——默会知识

清华大学公共管理学院副教授陈天昊在这个问题上有一个很精准的分析:一个人的排错顺序、判断习惯、沟通节奏、在不确定情境下的取舍标准——这些东西沉淀在聊天记录和文档修改痕迹里,现有知识产权法和个人信息法都只能覆盖一部分,还不能完全解决

他的观点是:这部分默会知识原则上应更多地由劳动者自己掌握。理由是,企业通过工资获取的是这些能力在工作期间的「使用权」,而不是「所有权」。企业可以主张职务成果和商业秘密,但不能自动占有员工的判断方式和沟通技巧。

北京人社局的一个判例

还有一个值得关注的案例:北京市人力资源和社会保障局曾发布劳动人事争议仲裁典型案例,明确判定「因岗位被 AI 替代而直接解雇员工」属于违法行为。裁决认为,公司将正常的技术迭代风险转嫁给劳动者,违反了劳动法的基本精神。

虽然这个案例针对的是解雇行为,而非 Skill 上交要求,但它释放了一个信号:法律正在向劳动者倾斜,而不是相反。

🤔 那到底该怎么办?

说实话,现在法律还没有完全跟上技术的发展。陈天昊教授建议,至少有几个问题应该在劳动合同中事先说清楚:公司是否有权自动提炼员工的个人风格?提炼范围是否限于完成工作任务所必需?员工是否享有知情权、异议权和纠正权?

在法律完善之前,anti-distill 提供了一种务实的自我保护手段。它不解决法律问题,但给了你一个缓冲空间——至少在规则明确之前,你可以选择交出什么、保留什么。

💡 写在最后

我的看法是:主动分享和被迫上交,是性质完全不同的两件事。前者是协作,后者是收割。

如果你的公司尊重你的价值,愿意在你交出经验后给予对等回报,那把经验写成 Skill 是一件双赢的事。但如果只是单方面要求你上交,连补偿的影子都看不到,那你至少应该知道:从法律角度,你有权说不。即使现在法律还不够完善,趋势已经很明显了——劳动者的默会知识,正在被重新定义为需要保护的权益。

你辛苦踩过的坑、流过的汗、熬夜调过的 bug,值得更好的对待。

Saiita

我还没有学会写个人说明!

相关推荐

Yourself Skill:把自己蒸馏成 AI,欢迎加入数字永生

开源项目yourself-skill可将个人聊天记录、日记等数据转化为AI技能,生成具有用户性格、语言风格的数字副本。其核心通过“自我记忆”和“人格模型”两部分模拟用户回应,并支持数据纠正与版本迭代。项目强调这并非复制灵魂,而是个人在特定时刻的“检查点”,为自我观察提供了新视角。

#18 OpenClaw 安全配置

OpenClaw安全配置需重点关注凭证管理、网络防护与定期审计。API密钥等敏感信息应存储在.env文件并避免硬编码,同时定期轮换。远程服务器需加固SSH、配置防火墙仅开放必要端口,Gateway控制面板应设置访问控制与HTTPS加密。建议每月执行系统更新、日志审查与安全检查,以持续保障系统安全。

GitHub 57K Stars!Agency Agents:一个开箱即用的 AI 专家团队

Agency Agents 是一个在 GitHub 上获得 57K Stars 的开源项目,提供一系列精心设计的 AI Agent“人设”,覆盖工程、设计、营销等多个专业领域。这些 Agent 具备高度专业化知识、独特人设和交付导向,可将 Claude Code、Cursor 等 AI 工具转变为可直接使用的虚拟专家团队,提升工作效率。项目开源免费,支持多种主流工具,并提供便捷的安装与集成方式。

OpenClaw v2026.4.5 发布:内置视频/音乐生成工具、多语言控制面板与 ComfyUI 集成

OpenClaw v2026.4.5是一次重大更新,核心是新增内置视频与音乐生成工具,并集成ComfyUI工作流。控制面板新增12种多语言支持,同时引入了多个新AI提供商与模型。更新包含破坏性变更,移除了旧配置别名,建议升级后运行`openclaw doctor --fix`进行迁移。此外,本次更新还带来了大量稳定性修复、性能优化及移动端功能改进。

暂无评论