文/陈根
在2026年的AI话语体系中,主流叙事已经高度固化,几乎形成了一种默认共识:算力决定基础设施上限,模型架构决定智能边界,数据质量决定能力深度。这套“三位一体”的技术框架看上去逻辑严密、论证充分,但它系统性地忽略了一个真正决定成败的隐形变量——组织是否具备真正的适应能力。
作为全球第一本关于ChatGPT一书的作者,一名长期在前沿科技与前沿医学领域的观察者,我在2025年的亲身实践中发现,AI能力的指数级跃升(如从GPT-4到Claude 4.5的迭代)与组织的线性响应形成鲜明不对称。
技术,已经不是主要瓶颈。真正制约AI潜力的,是一个更深层的组织学命题:AI并非受限于“能做什么”,而是受制于“组织敢不敢让它做”。
“30%”这个数字,真正暴露了什么?这个判断,源于一个在技术团队中极为常见、却很少被认真反思的数字——AI 生成代码占比约 30%。这在行业中不算落后,甚至可视为进步。
但如果把它放入更宽广的组织心理学视角,就会发现,它并不是技术能力的自然结果,而更像是一种人为设定的安全上限。这里反映的,其实是典型的“现状偏差”:人类倾向于维持既有分工边界,即便技术已经具备颠覆条件。
哈佛大学行为经济学家卡尼曼的“损失厌恶”理论在此尤为贴切:组织往往更害怕“放手 AI”带来的短期风险,比如错误被放大、职责边界模糊、角色价值被挑战,而不是去计算长期的系统性收益。这并不是效率问题,而是一种决策惰性,反映出工业时代遗留的路径依赖如何钳制AI时代转型。
从系统论的角度看,组织本身是一个闭环系统。AI 作为强烈的外部扰动,如果没有同步触发内部反馈机制的变化——尤其是分工方式和决策结构的变化——系统就会自动回到一个“低效但稳定”的状态。
于是,AI 被人为限制在一个看似安全、实则低效的区间内。这背后,其实是典型的“范式锁定”。就像库恩所说的“正常科学”,工业分工范式已经内化为组织的默认前提。AI 在技术层面挑战了这些前提,但在制度和认知层面,却被不断边缘化。结果就出现了一种悖论:技术越先进,组织反而越保守。
从制度经济学的“制度变迁”视角,这种锁定源于“交易成本”过高:变革需重塑契约与规范,短期内放大不确定性,导致组织偏好渐进式而非颠覆式适应。从哲学层面,这回响了海德格尔的“此在”概念:组织作为“在世存在”,沉沦于“常人”的平均状态,畏惧“向死而生”的本真跃迁,宁愿固守熟悉的“现成性”,而非拥抱AI带来的可能性。
于是就来到了第一个探讨的问题,决策边界的“隐形壁垒”——从30%到近100%的实践启示与“能力阈值悖论”的思考。

当我在2025年初调研多支技术团队时,几乎都得到了同样的答案:AI 完成代码比例约 30%。这个数字本身“合理”,却掩盖了一个更重要的问题——为什么不是 70%,不是 90%?如果模型已经具备独立生成复杂逻辑的能力,那么 30% 并不是技术极限,而是人为边界。
为了验证这一点,我和研究小组刻意搭建了一个极简团队,从零开始构建产品。在短短两三周内,首版产品便可以稳定运行。回溯整个过程,代码几乎完全由 AI 生成。真正的变化,并不来自模型升级,而来自一个决定:移除人为分工的藩篱,最大程度信任 AI。
在传统项目管理中,需求、开发、测试层层拆解,协作成本随着角色增加而指数上升。但在 AI 原生流程中,我们把 AI 视为“整体生成器”:输入问题框架,输出可运行模块,人类只在关键节点进行判断与修正。
这一实验揭示了“能力阈值悖论”:AI可将执行从0拉升至85分(高效但非完美),但从85到100分的跃迁,需要人类注入“价值定义”——何为卓越?如何权衡风险?
也就是说,从 85 到 100 分,恰恰是 AI 无法替代的部分——价值判断、目标选择、责任承担。换言之,AI 放大了执行杠杆,同时也放大了对领导力的要求。在这个过程中,真正稀缺的资源,已经不再是编码能力,而是问题如何被定义、结果由谁负责。
从行为经济学角度,这涉及“锚定效应”(Anchoring Bias),即,组织往往锚定于“人类主导”的历史规范,导致决策边界固化。若组织固守“人必须主导”的心理壁垒,AI潜力将被人为压缩至“安全区”,错失指数级回报。
这就给我们带来了一个更深层思考,也就是“代理问题”(Agency Theory)其在AI时代的变异——代理人(员工)倾向于保护自身角色,而委托人(领导)需重塑激励机制,以打破“道德风险”循环。
进一步,从认知心理学(Amos Tversky的框架理论)看,这种悖论源于“框架效应”:将AI视为“辅助工具”而非“核心伙伴”,会系统性低估其潜力,导致“阈值锁定”。未来,若不解决这一悖论,AI将加剧“技能极化”,就会演变为低阶执行者边缘化,高阶定义者主导,形成新型组织阶层。
这还隐含社会公平隐忧,导致转型成本高企,弱势群体易陷“技能陷阱”,放大不平等。从哲学视角,这呼应了萨特的存在主义:组织面临“自由的焦虑”(Angst of Freedom),必须选择“坏信仰”(Bad Faith)——假装AI仅是工具,以逃避责任——还是拥抱“本真性”(Authenticity),通过大胆决策重塑自我。

工业时代的分工逻辑,源于泰勒制:角色碎片化、流程串联、局部最优。但在高度不确定的环境中,这种结构会迅速陷入“协作摩擦”。每个人都在优化自己的部分,却牺牲了整体效率。
从系统论视角,这种高耦合度(Tight Coupling)同时也正在放大风险。尤其是其中的单一节点故障(如沟通延误)可级联扩散,导致整体瘫痪。如果更进一步思考,我们就会发现Charles Perrow的“正常事故理论”在此适用——工业分工如“复杂互动系统”,AI扰动易引发不可预测连锁失效。
反观AI原生协作,更似“3D打印”:整体成型,边界模糊。组织主轴从岗位分类转向双元互动——一元聚焦“问题理解、定义价值、结果交付”;另一元强调“经验固化、可复用系统构建”。在代码的生成场景中,团队对AI评分从50分升至85分,便源于此,也就是AI处理标准化逻辑,人类介入抽象创新。
这一范式迁移并非零和博弈,而是“互补放大”。麦肯锡2025年报告显示,AI嵌入工作流的企业,生产率提升25%以上,但前提是重构分工。否则,协作陷阱将吞噬AI红利。
比如多角色会议纪要,这本可由AI一键生成,根本不需要人为记录,却因对AI的不信任,所谓的“边界保护”而拖沓。这就让我们看到,AI并不是取代人,而是重塑角色生态,提升效率。对于当前的组织而言,扮演着协调型中层的角色,将面临边缘化,而战略型领导者更显稀缺。这挑战了传统层级结构,预示“扁平化+责任扩散”将会是未来的组织形态。
从变革管理理论(John Kotter的八步模型)看,这促使我们从“紧迫感建立”入手,面对AI引发的实实在在的组织变革的挑战。
可以从AI实验入手,比如在组织内建立最小团队项目,便是尝试,并推动成为组织变革的催化剂,帮助组织跨越“变革谷底”。对于传统组织而言,面对AI的挑战,最大的隐忧在于,若耦合度未降,AI将放大“熵增”(系统无序),导致创新停滞,酿成“技术-组织失配”的结构性危机。
更进一步,从动态能力理论(David Teece)看,AI时代组织需培养“感知-抓住-转型”的动态能力。也就是要具备,感知AI潜力,抓住重构机会,转型为“学习型系统”。
否则,路径依赖将演变为“能力陷阱”,锁定于低效均衡。从哲学维度,这呼应了马克思的“异化”理论:工业分工导致劳动者与劳动产品的疏离,AI原生模式则提供“去异化”潜力——通过整体生成,恢复人类对价值的掌控;但若固守旧范式,则异化加剧,人类沦为AI的“附属”。

我们必须要明白一个严肃的问题,那就是AI转型的核心,非过去的信息化,或者IT升级与技能培训,也不是简单的效率提升,而是范式重塑。基于我在2025年的一些尝试、观察与思考,我想给大家提供以下几点思考:
1、管理会转型“AI推动会”:传统会议聚焦KPI的评价与批评,我们可以定义为工业式“鞭策”。借助于AI,当我帮助一些企业开始转向双周AI会,强制聚焦业务价值(如客户创新、新品研发)时。结果是新品周期从季度压缩至月度。心理学上,这利用“锚定效应”——AI作为“中性锚点”,绕开变革阻力,转化为共识工具。管理者从“监督者”变“杠杆使用者”,这就揭示出了AI的隐形价值。即AI并非单纯的技术,而是催化组织活力催化剂。从资源依赖理论(Resource Dependence Theory)看,这减少外部依赖(跨部门协调),增强内部创新与韧性。同时,这也带给了我们新的思考,就是AI的引入,本质上是体现了“社会构建主义”(Berger & Luckmann)。
也就是说,AI共识通过实践重构“现实”,从工具演变为文化规范。从福柯的“权力-知识”理论看,这重塑的是组织的权力动态,即AI会作为“话语实践”,颠覆层级权力,赋权于价值定义者。
2、培训推动组织转型:针对非技术人员,组织成员,引入培训,比如对Cursor、Lovable、Dify、Claude等工具的使用培训,来提升AI在工作中的使用深度。其实这种AI工具的培训,不仅是技能传授,更是“意愿筛查”。通过这种AI工具的培训,愿意接受变革的主动学习者脱颖而出,成为潜在领导。
从组织行为学视角来看,这借鉴了“自我效能理论”(Bandura)。即借助于新的知识培训,提升个体自信,从而放大集体适应。并从中筛出“变革先锋”,避免全员强推的阻力反弹。
更深层的含义,就在于这隐含“社会资本理论”(Putnam)。培训不止技能,而是构建“信任网络”,缓解AI引入的“角色焦虑”。这就类似于“选择性激励”机制(Olson的集体行动逻辑),通过培训,以及让组织成员掌握这种新的工具,激励个体参与变革。从德里达的“解构”哲学看,培训解构“技术-人类”二元对立,揭示AI作为“补充”(Supplement),既取代又增强人类能力。
3、Non-Tech黑客松:比如,非技术组(如销售+市场)用AI将300-600份PRD浓缩为一页客户语言,并在几十秒内就完成的时候。所带来的益处是显而易见的,不仅快速的消除了翻译层,还让这种成果转变为获客“子弹”,是一种接近于零人力负担的高效成果。
在系统论上,这减少“耦合度”——从高依赖转向低摩擦闭环。黑客松不仅是创新,而是“剩余价值释放”。AI最小化交付单元(如从数月项目缩至周级),解放人力用于更高阶的创造。从创新扩散理论(Everett Rogers)看,这如“早期采用者”机制,即黑客松传播AI规范,加速组织级扩散。进一步,从知识管理理论(Nonaka的SECI模型)看,这促进“隐性知识显性化”。当AI浓缩PRD,将个体洞察转化为可简单、高效的复用资产。这种“超人”能力,就超越了当前的工业规范,拥抱的力量驱动AI,释放创造潜力。
这些实践都让我们看到,AI加速最小闭环,形成“高内聚、低耦合”生态。协调成本下降,中层“尴尬症”凸显——他们需转型为“AI赋能者”,否则被边缘。领导力则获得了升华,从“分配任务”到“定义边界与负责”。
放眼全球,类似瓶颈普遍:OpenAI 2025年调研显示,Fortune 500企业AI利用率平均35%,远低于技术潜力。原因在于“路径依赖”与“文化惯性”——发达国家如美欧,易陷“精英保守”;新兴市场如中国,则需平衡速度与风险。从制度经济学(Douglass North)看,这源于“制度粘性”。
也就是旧规范如“隐形契约”,阻碍新范式嵌入。但更深层次的思考,Acemoglu & Robinson的“包容性制度”理论在此适用——AI红利依赖制度包容性。比如更加包容的国家(如硅谷生态)加速转型,提取国家(如官僚体系)则放大锁定。
从列维纳斯的“他者伦理”看,全球分化隐含道德危机,AI若仅惠及强势者,便忽略“他者”脸庞,酿成伦理异化,这也是目前正在发生的情况,AI将加速全球竞争力分化。
而这种分化的加速过程中,必然伴随新的机遇。AI可作为“变革共识”起点,推动长期滞后的组织优化。麦肯锡预测,到2030年,适应AI的企业增长率将高出3倍。但隐忧是“两极分化”:小企业敏捷转型,大企业官僚拖累;发达国放大领先,新兴国放大鸿沟。
这可能引发“马太效应”——AI红利集中于已强者,加剧全球不平等。从社会资本理论看,这破坏“桥接资本”(跨国网络),放大地缘断层。
因此,从政府层面来看,政府应推动“AI组织评估框架”,如欧盟AI法案扩展,评估企业适应度,提供转型补贴。企业内部,则需“责任文化”重塑,激励定义“100分”的勇气,而非固守85分的舒适区。从可持续发展视角,这要求AI转型融入ESG框架,以确保公平,避免“数字鸿沟”演变为社会断层。而进一步,从全球治理理论(Keohane的制度主义)看,需国际框架(如联合国AI公约)协调制度嵌入,防范AI成“地缘武器”。
AI瓶颈已非技术:算力充裕、模型成熟、数据海量。真正桎梏,是组织“勇气阈值”——敢不敢移除边界、重新设计分工?AI从0到85分易如反掌,但从85到100,需要人类回答:何为价值?为何值得?谁来负责?
这一命题不止于企业,而是人性镜像:技术落地难在工具,重塑难在自我。从存在主义哲学(Jean-Paul Sartre的“自由与责任”)看,AI时代迫使我们直面“选择的焦虑”——拒绝变革,便是自缚于工业遗影。更深层次的思考,则在于尼采的“权力意志”在此回响——AI放大人类意志,但需超越“奴隶道德”(保守规范),拥抱“主人道德”(大胆定义)。
2026年,AI时代已至;但唯有跨越心理壁垒,组织才能从“30%天花板”跃向无限可能。否则,再强的AI,也仅是工业遗物的装饰。最终,瓶颈在人,而解锁亦在人——这不仅是管理学命题,更是人类适应力的终极考验,呼应海德格尔的“此在”(Dasein):在技术时代,我们必须“向死而生”,主动重塑存在以面对不确定性。从柏拉图的“洞穴寓言”看,AI如阳光,照亮范式牢笼;但唯有哲人般的勇气,方能走出阴影,拥抱真实。