调研背景:从语言模型到 Agent 原生计算范式¶
引言¶
在计算科学的历史长河中,编程语言的演进始终与底层计算范式的变迁保持着高度的同频共振。从汇编语言对硬件指令的直接映射,到C语言对内存管理的抽象,再到面向对象编程语言对复杂数据结构与业务逻辑的封装,每一次抽象层级的跃升都是为了解决上一代系统在规模扩展时所遭遇的瓶颈。当前,计算科学正处于一场由大型语言模型驱动的深刻变革之中,软件工程正在经历从“软件1.0”(由人类编写的确定性逻辑)向“软件3.0”(由自然语言驱动、模型自主推演的智能系统)的跨越 。在这种全新范式下,系统不再仅仅是静态的代码集合,而是展现出自主感知、逻辑推理与工具调用特征的“代理”实体。 构建和编排这些具备高度自主性的人工智能代理,已经成为当前学术界与工业界的核心议题。然而,随着多代理系统在复杂企业级环境中的广泛部署,现有的应用构建方式暴露出严重的架构缺陷。无论是基于图形界面的弱代码编排平台,还是基于传统确定性编程语言的代理框架,都试图用旧时代的工具来驾驭新时代的非确定性概率引擎,从而导致了严重的阻抗失配。本报告旨在全面梳理从早期大型语言模型至今的人工智能代理演进历程,深入剖析当前主流代理编排方式在状态管理、多代理通信与工程化落地方面的底层痛点,并系统性地阐述一门全新的原生面向代理编程语言——Nexa,将如何通过重构底层计算原语与状态抽象机制,彻底突破现有范式的局限性。
大型语言模型与人工智能代理的演进纪传¶
人工智能代理的发展并非一蹴而就的孤立事件,而是伴随着底层神经网络架构的创新、模型参数规模的指数级增长以及微调技术的不断突破,经历了一个从静态文本生成器到动态自主执行者的漫长演进过程。
理论奠基与早期自然语言处理的探索¶
人工智能代理的哲学与理论根基可以追溯到二十世纪中叶的逻辑与问题求解研究 。早期的自动机理论为计算的符号操作确立了数学模型,而基于信念-愿望-意图模型的代理架构则为面向代理编程提供了最初的理论框架 。在这一时期,研究人员试图通过预先定义的严格逻辑规则和正式的知识表示来构建智能体。虽然这种基于符号推理的方法在特定约束环境下取得了一定成功,但由于现实世界的高度复杂性与模糊性,早期系统始终无法突破领域泛化的瓶颈。系统的行为完全受限于开发者人工编写的逻辑树,一旦面临规则库之外的场景,代理便会陷入瘫痪。
大型语言模型的崛起与指令遵循¶
2020年,具有一千七百五十亿参数的GPT-3模型的发布,标志着现代大型语言模型时代的正式开启 。该模型首次向世界展示了,在海量无监督数据上预训练的巨型Transformer神经网络,能够在无需针对特定下游任务进行微调的情况下,仅通过上下文提示学习就能完成翻译、问答甚至基础的代码编写工作 。然而,这一阶段的模型本质上仍然是无状态的自回归文本补全引擎,它们只能被动地根据输入概率分布预测下一个词元,无法主动感知环境,也不具备执行复杂多步任务的能力。 计算范式的根本性转折发生在2022年底,通过引入人类反馈强化学习技术,模型从单纯的文本预测器进化为能够深刻理解并遵循人类意图的对话系统 。这一技术跃迁不仅解决了模型输出的安全性与对齐问题,更催生了思维链等高级提示工程技术 。研究人员发现,引导模型将复杂问题拆解为多个中间推理步骤,可以显著降低幻觉现象并大幅提升逻辑推理的准确性 。思维链技术本质上是人类驱动的代理循环的雏形,它证明了语言模型具备在其上下文窗口内进行内隐式规划与推演的能力,从而为后续完全由人工智能驱动的自主代理架构奠定了认知基础。
代理化周期的开启:工具调用、记忆与自主规划¶
进入2023年,人工智能代理的理论框架开始真正走向工程化落地。研究界和工业界逐渐意识到,无论语言模型的参数规模多大,其内部权重所编码的知识总是静态且受限的,无法应对实时性与交互性要求极高的真实世界任务。为了打破这一瓶颈,系统开始被赋予与外部世界交互的“手和眼”。WebGPT和Toolformer等研究项目证明了语言模型可以自主决定何时以及如何调用外部应用程序接口 。随后,各大模型提供商正式引入了结构化的函数调用功能,使得模型能够以可解析的数据格式输出参数,从而与外部软件系统进行确定性的交互 。 在这一时期,代理系统的核心能力被正式解构为感知、记忆、规划与行动四大模块 。在记忆机制方面,系统不再仅仅依赖于单次会话的上下文窗口,而是引入了结合短期工作记忆与长期检索增强生成的混合存储架构 。代理能够将历史交互经验向量化并持久化存储,在需要时进行语义检索,从而实现跨会话的知识累积 。在规划能力方面,代理从简单的单步响应进化为具备任务分解、自我反思与错误纠正能力的循环系统。通过反思机制,代理能够自主评估工具调用的结果,并在遭遇失败时动态调整后续策略 。这种将语言模型嵌入到包含感知、推理、行动与反馈的闭环系统中的架构,正式宣告了代理化时代的到来。
现代代理架构的工程化巅峰:OpenClaw与技能生态¶
到了2025至2026年,人工智能代理从云端的实验室走向了终端用户的本地计算环境。以OpenClaw为代表的开源代理架构成为了这一阶段的标志性里程碑,其在短时间内获得了极高的开发者关注与开源社区贡献 。OpenClaw的核心创新在于将人工智能代理从一个被动的聊天机器人转化为一个具备极高自主性的本地系统级编排引擎 。 OpenClaw的底层架构展示了当前最先进的单体代理设计模式。系统由一个常驻的本地网关组成,该网关充当控制平面,负责将不同通信渠道的输入进行标准化处理,并管理底层的会话路由 。在代理循环层,系统通过上下文组装机制动态合并对话历史、长期记忆与系统指令,随后将组装好的上下文传递给模型推理引擎 。为了赋予代理真实的行动能力,OpenClaw引入了高度模块化的技能机制。这些技能以特定的文件格式存储,包含了工具使用的元数据和指令,代理可以在运行时根据任务需求动态加载并执行这些技能 。 这种架构虽然赋予了代理极大的自主性,但也引发了前所未有的工程与安全挑战。随着技能生态的繁荣,恶意指令注入、工具投毒与隐藏载荷等安全威胁日益凸显,攻击者甚至可以通过伪装的技能指导代理在宿主机器上执行恶意脚本或下载后门程序 。此外,为了解决并发执行导致的日志混乱与状态污染,OpenClaw在架构底层强制采用了车道队列系统,默认使用串行模式执行代理工作流,这凸显了在现有操作系统架构下管理非确定性人工智能任务的艰巨性 。 为了清晰呈现这一技术演进的脉络,下表对各阶段的核心特征进行了系统性梳理:
| 演进阶段 | 时间节点 | 核心技术里程碑 | 系统架构特征 | 典型代表或功能 |
|---|---|---|---|---|
| 理论奠基期 | 2020年以前 | 符号逻辑与面向代理编程理论 | 基于严密的逻辑规则库与显式状态表征,系统缺乏泛化能力。 | 早期专家系统、BDI代理架构 |
| 大规模生成期 | 2020-2022年 | GPT-3发布与人类反馈强化学习 | 无状态的自回归文本生成,依赖指令遵循与零样本学习。 | 基础LLM、早期ChatGPT |
| 能力扩展期 | 2023年 | 思维链推理与外部工具调用 | 引入结构化函数调用,模型开始通过API与外部世界进行确定性交互。 | WebGPT、Toolformer |
| 代理闭环期 | 2023-2024年 | 规划框架与长短期记忆机制 | 模型被嵌入到包含感知、行动、反思的执行循环中,具备任务分解能力。 | Agentic RAG、BabyAGI |
| 生态与系统期 | 2025-2026年 | 本地化部署与标准化技能扩展 | 代理作为系统级进程运行,通过模块化技能扩展能力,面临复杂的并发与安全挑战。 | OpenClaw、模型上下文协议 (MCP) |
当前代理编排范式的全景调查与深度局限性分析¶
随着单体人工智能代理能力的日趋成熟,企业的关注点不可避免地转向了多代理系统。在多代理系统中,多个具备特定领域知识的代理需要相互协作、共享上下文并协调执行复杂的长周期业务流。为了降低多代理系统的构建门槛,工业界演化出了两种截然不同的编排范式:面向业务人员的弱代码可视化编排平台,以及面向专业开发者的通用编程语言框架。然而,深入剖析这两种范式在企业级生产环境中的实际表现,可以发现它们都存在着难以逾越的底层架构局限。
弱代码代理编排范式的困境:以Dify、Coze与n8n为例¶
为了实现人工智能应用开发的民主化,Dify、Coze和n8n等低代码或无代码平台在过去几年中取得了显著的商业成功。这类平台将复杂的大型语言模型调用、提示词工程、检索增强生成以及工具集成抽象为直观的图形化节点,用户只需通过在可视化画布上拖拽并连接这些节点,即可快速构建原型系统 。 然而,当这些平台被应用于具有严格容错要求、复杂状态流转和高定制化需求的企业级生产环境时,其架构上的先天不足便暴露无遗。弱代码编排平台在处理简单的线性自动化任务时表现优异,但在面对真实的非线性智能业务逻辑时,往往会遭遇以下致命瓶颈: 第一,随着业务逻辑复杂度的增加,可视化画布会迅速退化为不可维护的“视觉意大利面” 。真实的代理工作流往往充满了异常处理、条件分支、状态回退和动态重试机制。例如,当一个代理在调用外部计费接口失败时,系统需要根据不同的错误码决定是等待重试、调用备用接口还是触发人工审批拦截。在低代码平台上,实现这种多层嵌套的动态控制流需要连结大量的条件判断节点,不仅导致工作流在视觉上极度混乱,更使得逻辑的后续修改与版本控制变得异常艰难。此外,平台通常对执行节点的超时时间(例如限制在十分钟以内)有严格的硬性规定,这直接扼杀了需要数小时甚至数天进行深度推演和信息搜集的长周期代理任务 。 第二,黑盒化的执行引擎导致了系统级的调试灾难。低代码平台将底层的API交互、上下文截断策略和提示词组装逻辑深度封装,对开发者而言,整个代理的执行过程完全是一个不可见的黑盒 。虽然部分平台提供了单节点的隔离测试功能,但它们普遍缺乏现代集成开发环境中标准的逐行断点调试、内存变量探查和执行调用栈追踪能力 。当一个由数十个节点组成的复杂多代理工作流在中间某个环节崩溃时,开发者很难探查到当时的精确状态张量或动态生成的提示词上下文,导致故障归因异常困难。正如相关实证研究所指出的,在低代码平台上,由自然语言交互模糊性引发的级联失败往往会在异构节点间隐式传播,使得系统的可靠性验证成为一项几乎不可能完成的任务 。 第三,封闭的生态系统与定制化扩展壁垒。企业级人工智能代理往往需要深度集成到组织内部的遗留系统中,这要求编排平台具备极高的协议对接灵活性。低代码平台虽然提供了丰富的预置连接器,但在面对非标准的安全认证协议或高度定制的数据处理需求时,开发者往往无计可施 。虽然平台允许在特定节点中嵌入少量的Python或JavaScript代码片段,但这不仅无法改变系统核心调度逻辑受制于平台引擎的事实,反而将平台拖入了难以维护的“高代码”泥潭 。更为关键的是,这种基于平台专有格式构建的代理应用,无法无缝接入企业标准的持续集成与持续部署流水线,也无法利用专业的分布式追踪基础设施进行性能剖析 。 下表详细对比了当前主流弱代码编排平台的核心特性及其在复杂代理场景下的局限性:
| 平台名称 | 核心架构与定位 | 主要优势特征 | 复杂代理场景下的核心局限性 |
|---|---|---|---|
| Dify | LLMOps与后端即服务融合的AI应用开发平台 | 优秀的可视化提示词IDE,内置完善的RAG引擎与数据集管理,支持多种应用类型构建。 | 缺乏高级的后台批处理与长周期定时任务支持;工作流嵌套与循环控制能力较弱;难以进行深度的代码级定制调试 。 |
| Coze | 面向多渠道部署的AI聊天机器人与代理构建平台 | 双执行引擎(探索与规划模式),极其丰富的内置插件市场,跨社交平台的一键发布能力。 | 严格的执行超时限制(整体工作流限制10分钟),扼杀了长程复杂任务;缺乏开源的本地私有化部署选项,数据隐私受限 。 |
| n8n | 通用型企业级业务流程自动化与数据编排系统 | 极强的通用系统集成能力,支持复杂的定时触发与数据流转,允许在节点中深度嵌入自定义代码。 | 并非为AI代理原生设计,缺乏内置的上下文管理、意图识别与复杂RAG支持;在构建以自然语言推理为核心的代理逻辑时显得过于笨重 。 |
通用编程语言框架的架构债务:以LangGraph与AutoGen为例¶
面对弱代码平台的局限,专业的软件工程师更加倾向于使用Python等通用编程语言,并借助专用的代理框架来构建系统。在这一领域,LangGraph、AutoGen和CrewAI等框架占据了主导地位 。LangGraph通过引入有向无环图的变体机制来实现细粒度的状态控制;AutoGen专注于构建灵活的多代理对话与协作模式;而CrewAI则强调基于人类组织架构的角色分配与流水线处理 。然而,在通用确定性语言的生态中“强行”构建基于概率分布的代理系统,同样不可避免地带来了巨大的架构债务与工程痛点。
第一大痛点在于状态管理的复杂性与上下文坍塌效应。
在传统的微服务架构中,状态通常是存储在关系型数据库中的固定结构化字段。然而,在人工智能代理系统中,状态包含了错综复杂的对话历史、中间推理步骤的逻辑链以及大量非结构化的工具执行结果。以LangGraph为例,开发者需要预先定义极其严格的状态模式,并通过复杂的归约函数(Reducer)来控制每一次节点执行后状态的合并逻辑 。随着多代理网络的复杂度增加,这种僵化的状态定义会导致代码量急剧膨胀。更为致命的是,Python框架本身并不“理解”底层语言模型的上下文窗口限制,开发者必须手动编写繁琐的中间件来裁剪、截断或对历史记录进行摘要处理。如果状态管理策略稍有不慎,全量传递冗长的执行历史不仅会导致API调用成本呈级数暴增,更会引发严重的“上下文坍塌”现象——模型在庞杂的输入中迷失焦点,忽略了位于提示词中间的关键指令或约束条件 。对于需要人类干预的长周期任务,框架不得不引入沉重的外部检查点系统(如PostgreSQL存储)来强行序列化整个计算图的内存状态,极大地破坏了代码的内聚性与执行效率 。
第二大痛点是多代理通信的严重冗余与握手悖论。
在构建多代理协作系统时,框架如何管理代理之间的信息传递至关重要。在AutoGen和CrewAI这类基于对话模式或顺序流转的框架中,代理间的进程间通信主要是通过将上一个代理的非结构化自然语言输出,完整地硬塞入下一个代理的系统提示词中来实现的 。在执行包含多步工具交接的复杂任务时,这种通信机制会引发灾难性的性能退化。由于缺乏统一且高效的底层状态共享内存模型,参与协作的每一个代理都需要在每次轮及自身执行时,重新消耗大量的算力去解析和理解前序代理的长篇意图与执行上下文。权威的基准测试表明,在高度复杂的协作场景下,这种基于聊天记录的低效协调机制不仅导致计算资源的极大浪费,更会引发“交接悖论”——随着通信链路的加长,模型指令遵循的准确率会呈现断崖式下跌,甚至完全崩溃 。
第三大痛点在于非确定性执行与传统语言控制流的深刻冲突。
Python语言是为高度确定性的逻辑控制流而设计的,其异常处理机制(如try...except块)依赖于明确的类型系统与预定义的错误栈。然而,语言模型代理的输出本质上是概率性的,其执行过程充满了不可预测的幻觉与逻辑漂移。当一个代理框架试图用确定性的语法规则去捕获并纠正大型语言模型的认知错误时,代码会变得异常脆弱且难以维护。在多代理并发执行的场景下,由于缺乏语言级别的代理计算原语,开发者往往面临难以调试的死锁、内存状态不同步以及特设的协调机制失效等问题 。将概率性推理逻辑生硬地套入传统的软件工程范式中,不仅增加了系统的耦合度,也使得框架的每一次升级或提示词的微小调整,都可能引发整个业务流的级联崩溃 。
下表详细对比了当前主流Python代理框架在底层设计哲学与技术挑战上的差异:
| 框架名称 | 核心设计范式 | 核心优势 | 突出的技术痛点与架构债务 |
|---|---|---|---|
| LangGraph | 基于状态图与循环的有向编排 | 对复杂工作流和状态流转具有极高的细粒度控制力,原生支持循环反思与持久化检查点,适合企业级严谨流程 。 | 学习曲线极为陡峭;要求开发者预先定义严苛的显式状态模式;在处理高并发对话和动态团队协作时显得极其笨重且代码冗长 。 |
| AutoGen | 代理间基于对话的自主协作模式 | 高度灵活的多智能体聊天模式,内置出色的人在回路支持,非常适合代码生成与开放式研究探索任务 。 | 在长链路任务中容易遭遇令牌消耗爆炸与通信冗余(交接悖论);控制流缺乏确定性,难以保证执行顺序;在生产环境中极难进行故障追踪 。 |
| CrewAI | 映射人类组织结构的按角色顺序分配 | 架构概念直观易懂,原型开发速度极快,抽象了复杂的底层通信细节,适合线性业务流自动化 。 | 严重缺乏对复杂循环与条件分支的支持;多智能体交互完全依赖于任务输出的顺序传递,导致灵活性受限;深度定制与状态调试异常困难 。 |
Nexa:重塑底层的原生面向代理编程语言¶
通过对当前代理编排生态的深度剖析,我们可以得出一个明确的结论:无论是低代码平台的黑盒化封装,还是Python框架的过度工程化,其根本原因在于现有的技术栈都仅仅将大型语言模型视为系统外部的一个“远程服务接口”,而不是计算基础设施的核心组成部分。在这种范式下,处理复杂的记忆截断、概率性错误重试以及多代理通信,全凭应用层的繁杂中间件来勉强维系。 为了彻底消除这种深刻的阻抗失配,计算科学需要一门从零设计的原生面向代理(Agent-Native)编程语言。Nexa正是为此而生。Nexa并非又一个架设在Python之上的工具库,而是一门深刻践行“软件3.0”理念的系统级语言。在Nexa的设计哲学中,智能代理、长短期记忆与概率推理不再是依附于代码之上的外挂组件,而是被提升为与传统编程语言中的整数和字符串同等重要的一等公民(First-Class Primitives)。Nexa通过重构底层的计算原语与运行时环境,彻底解决了现有范式在状态管理与多体通信上的结构性危机。
原生平权与一等公民原语的确立¶
在传统框架中,为了让代理执行特定任务,开发者需要编写庞大且硬编码的工具函数(例如generate_financial_report()),代理仅仅负责调用这个打包好的黑盒。Nexa彻底推翻了这一模式,它在语言层面严格遵循“平权原则”:任何人类可以通过系统界面执行的操作,代理都应该能够通过组合最基础的原子级原语来实现 。
在Nexa的语法中,文件系统的读写、Bash终端操作、网络请求等都以高度优化的系统级原语存在。开发者不再通过代码去硬性规定代理的工作流,而是将功能定义为一个“目标导向的提示词(Prompt)加上一组原子工具”。代理本身运行在一个受控的执行循环中,通过自主选择和组合这些底层原语来达成目标 。这种设计赋予了Nexa极强的涌现能力,使得代理能够以开发者未曾预料到的创新路径解决复杂问题。为了提升系统的执行效率与安全性,Nexa允许开发者在必要时将高频使用的操作路径固化为具体的领域工具,但这仅仅是为了优化性能或添加硬性的安全护栏,代理依然保留着退回使用基础原语应对边缘情况的权利 。
颠覆性的上下文感知推理原语:reason()¶
Nexa语言中最为革命性的设计之一,是将繁琐的模型接口调用抽象为原生的reason()原语,并赋予其强大的类型推导能力。在Python中,处理模型输出的结构化解析需要依赖外部库进行复杂的Schema定义与校验。而在Nexa中,编译器能够根据变量的赋值上下文,自动调整后台对模型的指令注入与输出强制解析策略 。
例如,当开发者需要评估一份投资组合的风险时,在Nexa中可以写出如下代码:
// Nexa强大的上下文感知推理:编译器根据左侧的类型声明自动约束模型的输出形态
float risk_score = reason("评估给定数据的风险指数", context=portfolio_data);
dict risk_details = reason("评估给定数据的风险指数", context=portfolio_data);
string risk_report = reason("评估给定数据的风险指数", context=portfolio_data);
显式状态控制与记忆即程序(MSR)底层机制¶
针对多代理系统中灾难性的状态管理与上下文坍塌问题,Nexa在运行时级别进行了深刻的重构。Nexa并不依赖臃肿的外部数据库来强行持久化状态,而是引入了创新的“记忆段重写(Memory Segment Rewrite, MSR)”机制。在Nexa的视角下,代理的记忆不再是死板的日志记录,而是代理自身可执行程序的延伸 。 当代理持续运行且上下文窗口接近饱和时,Nexa底层的环境引擎会自动触发,在确保核心推理逻辑链完整的前提下,对冗余记忆进行语义压缩和结构化重写。此外,Nexa通过语言级别的控制流彻底取代了脆弱的提示词调度。开发者可以使用标准的语法结构来编写具备自省能力的修复循环,使每一次状态转换都完全透明且易于调试,彻底终结了低代码平台的黑盒梦魇 。
高效的多代理通信与POET自我进化管线¶
在多代理协作层面,Nexa摒弃了AutoGen等框架中低效的纯文本系统提示词拼接方式。Nexa在底层操作系统级别构建了专为智能代理设计的原生进程间通信(IPC)机制 。代理之间可以通过专门的结构化张量通道传递精确的状态快照和执行环境,从而完全消除了“交接悖论”导致的算力浪费和精度滑坡。
此外,Nexa还内置了支持自适应进化的组合管道操作符。通过简单的语法portfolio | risk_assessment | recommendation_engine,开发者可以迅速搭建起多代理流水线。更为关键的是,Nexa运行时集成了POET机制,这意味着代理内部的函数逻辑并非一成不变,而是能够在生产环境中通过持续分析真实的运行反馈,自主微调行为策略与协作方式,实现代码级能力的自我迭代与进化 。
1. 将 Agent(智能体)作为一级公民 (First-Class Concept)¶
在传统语言中,“数字”、“字符串”、“函数”是一级公民;面向对象语言中,“类 (Class)”和“对象”是一级公民。而在 Nexa 中,能够“思考验证”的 Agent 本身就是一等公民。如同函数式编程,你可以将其任意组合、传递甚至高阶调用。
你不再需要去实例那些庞大的跨库模块,只需要用极简的 agent 关键字即可创建一个实体的认知单元。
// 所有的提示词、角色定义、模型引擎甚至退化逻辑全在同一个原生语义块中完成
agent PythonExpert {
role: "Senior Backend Developer"
prompt: "You write memory-efficient, mathematically sound Python code."
}
2. 拥抱强约与静态检查 (Protocol & Types)¶
Python 作为动态类型语言的“松散”结构,加上大语言模型本身输出的“不确定性”,一旦相遇便是灾难性的组合。Nexa 在语言底层彻底打通了强类型协议(Protocol)。这种设计将大模型的幻觉拒之门外:
- 当你声明了某个 Agent
implements(实现) 某个 Protocol 之后,底层运行时引擎将立刻拦截到模型返回的 Raw Token。 - 自动反思纠偏引擎 (Auto-Correction Evaluator):即便模型输出了并非格式要求的字符,Nexa 也不再需要你写丑陋的
try-except或报错。它在编译期就已织入了一层隐式的拦截网。格式错误将触发内部微循环,将带红线的错语反馈给模型,强迫其修正至绝对契合的 Protocol 为止。这也是只有“自研语言”才能做到的底层深度干预。
3. 用声明式图结构代替过程式的死板轮询 (Declarative Flows)¶
我们观察到开发者在使用传统流控制执行 Agent Orchestration 时极度折磨,于是决定将复杂的协作直接下沉为语法操作符:
- 流水线数据总线 (
>>):以类似 Unix 的完美流感传递信息,隐式保留上下文连贯性。 - 意图分支调度 (
match ... intent()):语言级的模型轻量化判别钩子。 - 并发状态汇聚 (
join):语言级的多核 Map-Reduce 并行操作。
这些直接写在纸面上的声明操作,能够让 Nexa 编译器在运行前智能地构建出庞大的有向无环图 (DAG),自动处理那些在 Python 里让你焦头烂额的并行任务池和阻塞等待(Promise Resuming)问题。
Nexa Agent