1、起手看牌
2 、随意选牌
3、控制牌型
4、注明,就是全场 ,公司软件防封号 、防检测、 正版软件、非诚勿扰。
2026首推。
全网独家,诚信可靠,无效果全额退款,本司推出的多功能作 弊辅助软件 。软件提供了各系列的麻将与棋 牌辅助 ,有,型等功能。让玩家玩游戏,把把都可赢打牌。
详细了解请添加客服群
本司针对手游进行破解 ,选择我们的四大理由:
1 、软件助手是一款功能更加强大的软件!
2、自动连接,用户只要开启软件,就会全程后台自动连接程序 ,无需用户时时盯着软件 。
3、安全保障,使用这款软件的用户可以非常安心,绝对没有被封的危险存在。
4、打开某一个微信【添加图中】组.点击右上角.往下拉."消息免打扰"选项.勾选"关闭"(也就是要把"群消息的提示保持在开启"的状态.这样才能触系统发底层接口)
说明:乐胡麻将外卦挂免费版 ,确实是有挂的,。但是开挂要下载第三方辅助软件,微乐捉老麻子透视挂 ,名称叫微乐斗地主小程序必赢神器免费。方法如下:天天爱柳州麻将开挂下载,跟对方讲好价
记者丨王俊

编辑丨骆一帆

近来,技术社区GitHub上爆火的“同事.skill”引起了广泛讨论,这项skill的技能点是“提供同事的材料加上你的主观描述 ,生成一个真正能替他工作的AI skill ”,并宣称“将冰冷的告别化为温暖的skill,加入赛博永生” 。
截至4月4日晚 ,这个项目在GitHub累积了将近7万的星标。作为参照,在国内被称为龙虾的Openclaw,星标数为25万 ,并凭借这个数字登顶GitHub星标第一。
社会平台上的梗图层出不穷:“你的同事被优化了,但他的 skill 还在 。”“被毕业的同事并没有消失,不过是被蒸馏成了token继续陪着你 ”……一系列“地狱笑话”背后 ,AI是否真的能将个人的工作经验蒸馏成可调用的Skill?如果能,这些know-how归谁所有?AI时代如何保护职场中的个体劳动价值?
清华大学公共管理学院长聘副教授,清华大学科技发展与治理研究中心主任助理陈天昊长期关注AI治理并有着丰富实操经验 ,他在一开始,便犀利发问:如果人的工作经验 、协作方式甚至风格特征都能被模块化,那么凝聚其中的劳动价值、知识产权和人格尊严分别应当如何保护?
个体在职场中积累的判断习惯、沟通节奏 、问题拆解方式、在不确定情境下的取舍标准等,是打工人真正的“饭碗”。而AI可能把这些沉淀在聊天记录、文档修改痕迹 、代码提交和邮件往来中的经验 ,系统化提炼、封装并调用。“这部分知识到底更偏向属于公司资产,还是更应由劳动者自己掌握,现有知识产权法和个人信息法都只能覆盖一部分 ,还不能完全解决 。 ”陈天昊指出。
他认为,劳动者在工作中形成的默会知识,在原则上应由劳动者自己掌握 ,未来需要修订劳动法及相关法律法规,以及通过劳动合同提前约定,明确谁有权调用这些默会知识以及调用的边界在哪里。
同时 ,对于普遍存在的AI对就业影响的焦虑,他指出,Skill 带来的影响或许会比AI对特定职业的显性替代影响更深 ,因为Skill能够逐步把岗位内部的一部分又一部分“微能力”抽出来、自动化 、模块化,从而逐渐改写岗位定义、招聘标准和组织结构 。
以下为采访全文:
人会被部分蒸馏,而不是完整复制
《21世纪》:“同事.skill”发生的背景是什么,为什么会有这么大的水花?
陈天昊:所谓skill ,是把某类工作的经验、流程 、工具调用方法和参考资料,整理成一个可复用的能力模块。Anthropic 在推出 Agent Skills 时,把它类比成“给新员工写 onboarding guide” ,意思是把原来由一个人所掌握的做事方法、判断路径和操作规范进行文件化、模块化,让 Agent 在需要时按需读取和执行。
从更大的背景看,这背后是 AI 正在从 Chatbot 走向 Agent的演进——从“会回答 ”走向“能行动” 。但 Agent 不是装上工具就自然会工作 ,如何调用工具、管理记忆 、把流程真正跑通,需要经验和方法,而这正是Skill 的意义:把这些方法沉淀下来 ,变成可复用的能力包。
“同事.skill”就是在这个背景下出现的。核心做法是把某位同事在工作中留下的飞书记录、文档、邮件 、截图等材料提炼成两部分:一部分是工作方法和技术规范,另一部分是性格特征和沟通风格,再把它们封装成可调用的 Skill。它之所以引发关注 ,是因为它把一个很尖锐的问题摆到了台面上:如果人的工作经验、协作方式甚至风格特征都能被模块化,那么凝聚其中的劳动价值、知识产权和人格尊严分别应当如何保护?
《21世纪》:以你对技术的了解以及自身实践,一个人常年积累的判断力 、排错直觉等等工作经验,能被蒸馏吗?
陈天昊:我的初步判断是:可以被蒸馏 ,但只能是部分蒸馏,而不是完整复制 。
为什么这么说?因为一个人对自己的理解,很多时候并不如他在长期行为中表现出来的东西那么稳定、那么真实。人在工作里留下的判断、修改 、排错、沟通和取舍 ,本身就是一种外化了的知识表达。
所以,我比较认同这样一种看法:一个人未必最了解自己,但他的行为常常比他的自我描述更能刻画他 。 我们很多工作中的技巧、风格和经验 ,自己未必能完整说清楚,但它们会稳定地体现在工作痕迹里,比如怎样拆解问题 、怎样判断优先级、怎样发现异常、怎样修改别人交来的东西、怎样回复邮件和消息 、怎样在不确定信息下做取舍。这些材料一旦在聊天记录、文档版本、代码修改 、邮件往来、批注意见里沉淀下来 ,AI就有机会从这些外显痕迹中总结出一个人的工作模式。
但这里一定要加一个边界:能被蒸馏出来的,主要是那些在行为中反复出现、能够留下记录 、具有一定稳定性的部分;而不是一个人全部的判断力,更不是完整的人格和主体性 。 例如 ,排错直觉里有一部分是可以外化的,但还有一部分非常依赖语境、责任感、现场压力 、组织关系,这些东西并不总能在材料里充分留下来。
我觉得,长期工作中相对稳定、可观察、可记录的判断模式和经验 ,确实可以被蒸馏出相当一部分;但越靠近情境化 、身体化、主体性的部分,就越难被完整提炼。
《21世纪》:同事.skill 式的个人级蒸馏,和此前的大模型训练 ,在“提取know-how ”这件事上有本质区别吗?
陈天昊:我觉得还是有明显区别的 。此前的大模型训练,无论是预训练还是后训练,都是在海量数据上进行的。它学到的东西最终以参数和权重的形式存储在模型内部 ,一旦训练完成,这些能力就变成了一种通用的、基础性的能力底座。
而今天我们看到的 Skill,尤其是“同事.skill”这种个人级蒸馏 ,并不是通过调参、调权重来完成,而是通过组织一个更精确的任务上下文,把某个人的操作方式 、技巧、方法和相关资料封装起来 。它本质上更像是一个外置的、可调用的知识与流程层 ,而不是写进模型参数里的能力。
此外,Skill非常轻量级,并且有非常强的灵活性和适应性。一个 Skill 可以随时修改 、增补、替换脚本,甚至根据具体个案不断迭代 ,而不需要重新训练整个模型。
所以,我认为大模型训练提取的是一般性、可泛化的共性能力;同事.skill 这类个人级蒸馏提取的,则是高度情境化 、与具体工作流绑定的局部 know-how 。
在工作流程中积淀的默会知识
应更多地由劳动者自己掌握
《21世纪》:同事.skill 所涉及的在职期间产生的飞书记录、邮件、代码 ,所有权属于谁?以及谁有权调用?个人的和公司的边界在哪里?
陈天昊:我会把这个问题分成三层来看。第一层是知识产权问题,第二层是个人信息和隐私问题,第三层是两者之间目前最有争议的中间地带。
先说第一层 ,知识产权 。如果员工在职期间留下来的飞书文档 、邮件内容、代码、技术方案中,有一部分具有独创性,能够构成著作权法意义上的作品 ,或者符合专利法上的技术方案标准,那么这部分内容就要先放到知识产权框架里判断。著作权法有职务作品规则,专利法有职务发明规则——这部分权利归属的框架是相对清晰的 ,现行法已有成熟规则。并且,作者的人身性权利,如署名权,在法定条件下会获得保留 。
第二层是个人信息和隐私。员工在邮箱 、飞书、企业协同系统里留下的内容 ,并不因为发生在公司系统里,就自动失去人格权保护。民法典明确规定,自然人享有隐私权 ,个人信息受法律保护 。在人力资源管理场景下,个人信息保护法虽然允许按照依法制定的劳动规章制度和依法签订的集体合同,在“实施人力资源管理所必需”的范围内处理个人信息 ,但这并不意味着企业可以无限制地把员工留下的所有痕迹都拿去做“同事.skill ”式蒸馏。只要涉及个人画像、行为分析、风格提炼,乃至向外部模型或外部服务商提供数据,都会触发更严格的合法性与必要性审查。
真正难的 ,是第三层,也就是知识产权和个人信息/隐私之间的中间地带 。比如一个人的排错顺序 、判断习惯、沟通节奏、问题拆解方式 、在不确定情境下的取舍标准,这些都可能沉淀在聊天记录、文档修改痕迹、代码提交和邮件往来中。过去这部分经验更多依附在劳动者本人身上;但现在随着技术发展 ,使它第一次有可能被系统化提炼 、封装并调用。这部分知识到底更偏向公司资产,还是更应由劳动者自己掌握,现有知识产权法和个人信息法都只能覆盖一部分,还不能完全解决。
在这个问题上 ,我个人更倾向于认为:这部分积累于经验中的默会知识,原则上应更多地由劳动者自己掌握 。因为它虽然形成于工作过程,但很大一部分其实是劳动者自己通过长期训练而锻造的能力结构、判断方式、沟通技巧等默会知识 ,企业通过工资仅获取的是这些默会知识在工作期间的使用权,而非所有权,因此也就不能等同于企业可以无条件占有和调用的资产。企业当然可以对真正属于职务成果 、商业秘密或依法可管理的人力资源数据主张权利 ,但如果进一步要求自动提炼员工个人风格、强制员工提交自己的 Skill 封装,或者把这类封装作为离职交接的默认义务,我认为应当有更明确的法律依据或合同依据。
所以我进一步主张 ,谁有权调用、边界在哪里,未来一方面需要通过劳动合同提前约定,另一方面更需要通过修订劳动法 、制定专门的法规规章来明确 。
无论是立法规定还是合同约定 ,至少有几个问题应当事先说清楚:公司是否有权进行此类自动提炼;提炼的范围是否限于完成工作任务所必需;是否可以要求员工配合提交或维护相关 Skill;员工是否享有知情权、异议权、纠正权,以及迁移权。这些问题,本质上已经不只是知识产权问题,也不只是个人信息问题 ,而是一个典型的劳动法与数字治理交叉问题。
《21世纪》:据你研究与观察,AI对劳动的影响有哪些?它是如何一步步渗透影响就业市场的?
陈天昊:我觉得,AI 对劳动的影响是全方位的 。最显性的替代 ,是原来需要人们投入较多脑力完成的工作,越来越多可以直接由模型完成其中的大部分。翻译、摘要 、基础写作是最早的例子;随着多模态能力增强,媒体和互联网相关职业的自动化程度也在上升。
再往下走 ,代码、办公和分析类工作也出现了很强的替代压力,尤其是在那些规则明确、重复性高 、容易标准化的任务环节上 。Anthropic 关于劳动力市场影响的研究指出,从理论覆盖潜力来看 ,大语言模型对计算机与数学类、办公室与行政类工作的任务渗透空间都很高;但同一份研究也强调,现实中的 AI 使用离理论能力上限还很远。所以更准确的说法不是“AI 已经完全替代了这些岗位”,而是这些岗位内部越来越多的具体任务 ,正在被 AI 接手、重写或者重组。
但更重要的是,AI 对就业的影响不只是替代几个具体工种,而是在重构工作的组织方式 。因为模型进入真实场景以后,会立刻面对复杂的物理世界和数字环境。很多今天的系统 、平台、流程 ,是为人设计的,而非为 AI 设计。模型即便有很强的通用能力,要真正完成工作 ,还必须解决“怎么进入场景、怎么调用工具 、怎么串联流程、怎么和现有制度接口”的问题。
这时就出现了 Skill 。我很认同把它理解成一种“最后一公里 ”机制:通用模型提供底座能力,而 Skill 把这些能力接到具体场景中,让 AI 真正能在某个垂直岗位、某个组织流程里跑通。
也正因为如此 ,我反而会说,Skill 这一层带来的影响,可能比最初那种显性的“AI 直接出一个成品”更深。因为直接交付产品的替代 ,大家看得见,也容易讨论;但 Skill 驱动的渗透更隐性,它不是一下子把一个岗位拿走 ,而是逐步把岗位内部的一部分又一部分“微能力”抽出来 、自动化、模块化、平台化 。等这些“微能力 ”积累到一定程度,最后改变的就不只是某个任务,而是整个岗位的定义、招聘标准和组织结构。
受访者供图









