内置模型编排方式部署

SuperMap AgentX Server 支持通过内置的模型编排文件来部署模型服务。在Docker环境安装SuperMap AgentX Server的过程中,您可以选择以通过内置模型编排的方式同步部署模型服务。此方式配置简单、轻量,当前仅适用于基于 Docker 部署环境

在线部署

1. 获取与放置模型

1. 新建模型存储目录:在安装包根目录下创建 models 文件夹;

2. 下载模型:从模型下载平台,如魔搭(ModelScope)下载需要的模型文件(如Qwen3-32B);

3.放置模型:将模型文件放置于 ./models 目录(需根据实际模型名称创建对应的子目录)。

2. 配置模型参数

编辑 builtin-models.env 文件,启用并配置模型。以将大语言模型配置为Qwen3-32B为例,核心配置如下:

  • 将大语言模型服务启用开关设置为 true:LLM_MODEL_ENABLED=true。
  • 设置模型名称,例如:LLM_MODEL_NAME=qwen3-32b。
  • 配置模型路径(基于 ./models 目录的相对路径),例如:LLM_MODEL_PATH=Qwen3-32B。
  • 根据您服务器的实际 GPU 配置(可使用 nvidia-smi 命令查看),调整该文件中与 GPU 内存、并行数等相关的其余参数,以确保服务稳定运行。

词嵌入模型与重排序模型也遵循以上配置逻辑。

3. 配置cfg/agentx-base-config.yaml文件

修改 cfg/agentx-base-config.yaml,将模型服务的连接指向内置服务。

1. 配置模型服务地址:将各服务模块的 base_url 参数分别修改为以下地址:

  • 大语言模型地址:http://agentx-llm-model:8000/v1
  • 词嵌入模型地址:http://agentx-embedding-model:8000/v1
  • 重排序模型地址:http://agentx-rerank-model:8000/v1

2. 指定模型名称:在相应配置项中,将 model 参数的值设置为配置模型参数中使用的模型名称。

4. 启动服务

在完成以上配置后,在服务器上执行 startup.sh 启动脚本。内置大模型服务将与 SuperMap Agentx Server 主服务一同启动。

离线部署

1. 准备并导入依赖镜像

在离线环境中,需要预先准备必要的容器镜像。

解压离线镜像工具包后打开 images-list.txt 文件,在末尾添加以下一行,声明 vLLM 镜像

vllm   registry.cn-beijing.aliyuncs.com/supermap/vllm-openai:v0.11.0

按照离线镜像工具包使用说明,执行镜像导入命令,将列出的所有镜像(包括新增的 vLLM 镜像)导入至内网环境的容器仓库中。

2. 部署模型与启动服务

完成镜像导入后,后续操作与在线部署完全一致:

  • 放置模型:将离线获取的模型文件,按在线部署步骤1所述,放置到 ./models 对应目录。
  • 配置参数:按在线部署步骤2,编辑 builtin-models.env 文件。
  • 配置地址:按在线部署步骤3,修改 agentx-base-config.yaml 文件。
  • 启动服务:执行 startup.sh 脚本启动服务。系统将使用已导入的离线镜像来运行内置模型服务。