写在前面
想象一个场景:LLM Agent(如 AutoGPT、MetaGPT 或我们自己构建的 Agent)在规划任务后,决定需要运行一段 Python 代码来处理数据或调用某个 API。它不能直接在自己的环境中执行(通常不具备这个能力,也不安全),而是需要将这段代码发送给一个专门的外部服务来执行,并取回结果。
这个外部服务,我们可以称之为具备“Python 解释器”功能的 MCP (Multi-Capability Platform) Server。更进一步,为了提供实时的执行反馈(例如,长时间运行任务的中间输出、或者流式生成的数据),我们希望这个 Server 能够通过 Server-Sent Events (SSE) 将结果流式地推送回 Agent。
本文将深入探讨如何设计和实现这样一个提供 Python 解释器功能、并通过 SSE 流式返回结果的 MCP Server。