Docker环境安装SuperMap AgentX Server

SuperMap AgentX Server支持使用Docker Compose工具实现快速部署。Docker Compose是用于定义和运行多容器 Docker 应用的工具。通过 YAML文件描述应用的各个服务及其依赖,实现一键启动、停止和管理容器化应用的完整环境。

注意:
正式安装前,计算机需要开放8490、8080、8443、8190、8090和9183端口。如果您是使用阿里云ECS服务器,您需要将以上端口添加到安全组规则中。
  • 8490端口:AgentX网关端口
  • 8080端口:Keycloak HTTP协议端口
  • 8443端口: Keycloak HTTPS协议端口 
  • 8190端口:SuperMap iPortal访问端口
  • 8195端口:SuperMap iPortal代理服务访问端口
  • 8090端口:SuperMap iServer访问端口
  • 9183端口: 许可中心端口

安装包准备

前往技术资源中心获取下载SuperMap AgentX Server Docker版本安装包。

镜像准备(可选)

若您处于联网环境,可直接跳过此步。
若您处于无网络环境,需先前往网盘下载离线镜像拉取工具并解压,按照如下步骤配置:

镜像列表配置

首次使用时,请将所有需要拉取的镜像列表配置在 images-list.txt 文件中;非首次(即更新)使用时,只需将需要更新的镜像列表配置在该文件中。

如果您需要通过内置编排部署模型,应在末尾添加以下一行,声明 vLLM 镜像

vllm   registry.cn-beijing.aliyuncs.com/supermap/vllm-openai:v0.11.0

拉取镜像

在联网的机器上,执行镜像拉取脚本,执行完成后会在当前目录生成 supermap-images.tar.gz文件:

chmod +x images-pull.sh && ./images-pull.sh

导入镜像到指定仓库

  1. 将生成supermap-images.tar.gz文件复制到需要部署AgentX但未联网的机器;
  2. 执行脚本解压文件:

    tar -zxf supermap-images.tar.gz

  3. 进入解压后的supermap-images目录,执行以下命令导入镜像到指定仓库:
    • 如果无镜像仓库,只需要按照以下命令将镜像导入本地即可:

      chmod +x ./images-load.sh && ./images-load.sh

    • 如果有镜像仓库,使用以下命令将镜像导入仓库:

      chmod +x ./images-push.sh && ./images-push.sh <registry>

      <registry>为必填参数,需要替换为要导入镜像的仓库地址:比如 192.168.112.145:5000

      另需修改.env中的DOCKER_REGISTRY的值为:镜像仓库地址/supermap/

配置文件修改

将SuperMap AgentX Server产品安装包放置到拟安装路径下,根据实际情况修改配置文件:

文件名称 文件说明
.env 环境变量配置文件
cfg/agentx-base-config.yaml AgentX配置文件,包含模型、本地化等通用配置

.env配置文件

...


BIND_ADDRESS=<host_ip_addr>

# 必填,网关绑定的主机地址,即对外暴露的统一地址,公有云环境需填写弹性公网IP

# 需改为本机 ip,不能是 localhost、127.0.0.1...
...


# 是否开启工作流式智能体(MapStudio AI制图助理、WebGPA AI建模助理、代码自定义工作流式智能体)
WORKFLOW_ENABLED=true
# 是否开启低代码搭建工作流式智能体
WORKFLOW_STUDIO_ENABLED=true
# 是否开启知识问答式智能体和自主规划式智能体
CHATFLOW_AUTONOMOUS_ENABLED=true

...


BSLICENSE_SERVER=ws://${BIND_ADDRESS}:9183

# agentx server相关配置的存放目录(宿主环境目录)

#如果使用内置许可中心、且SuperMap AgentX Server所在机器区分内外网,需将此改为内网地址

BSLICENSE_SERVER_REST_URL=http://${BIND_ADDRESS}:9183

#如果使用内置许可中心、且SuperMap AgentX Server所在机器区分内外网,需将此改为内网地址

...

 

# Account for agentx

AGENTX_ADMIN_USERNAME=agentx_admin

AGENTX_ADMIN_PASSWORD=agentx@2025

 

# ENV for builtin iServer

ISERVER_USER=agentx_admin

ISERVER_PASSWORD=agentx@2025

 

# ENV for builtin iPortal

IPORTAL_USER=agentx_admin

IPORTAL_PASSWORD=agentx@2025

 

# ENV for postgresql

POSTGRES_USER=agentx

POSTGRES_PASSWORD=agentx_2025

 

...

您需要根据实际情况,修改上述.env文件中列出的配置项,对应的配置项说明如下:

  • BIND_ADDRESS必填,网关绑定的主机地址,即对外暴露的统一地址,必须使用真实的本机IP,不能是 localhost、127.0.0.1;

  • WORKFLOW_ENABLED:控制是否启用工作流式智能体,包括MapStudio AI制图助理、WebGPA AI建模助理以及代码自定义工作流式智能体。默认为 true,表示开启;若设置为 false,则关闭该智能体。注意:WebGPA AI 建模助理中的“问答助理”功能依赖知识问答式智能体(由 CHATFLOW_AUTONOMOUS_ENABLED 控制)。若需在 WebGPA 中使用问答助理,请确保同时开启 CHATFLOW_AUTONOMOUS_ENABLED 开关。

  • WORKFLOW_STUDIO_ENABLED:控制是否启用低代码搭建工作流式智能体。默认为 true,表示开启;若设置为 false,则关闭该智能体

  • CHATFLOW_AUTONOMOUS_ENABLED控制是否启用知识问答式智能体和自主规划式智能体。默认为 true,表示开启;若设置为 false,则关闭该智能体。

  • BSLICENSE_SERVER:WEB许可中心的websocket连接地址,如果使用内置许可中心、且SuperMap AgentX Server所在机器区分内外网,需将此改为内网地址;

  • BSLICENSE_SERVER_REST_URL:WEB许可中心的http连接地址,如果使用内置许可中心、且SuperMap AgentX Server所在机器区分内外网,需将此改为内网地址

  • AGENTX_ADMIN_USERNAME:产品包中内置的SuperMap AgentX Server的管理员初始用户名,可按需修改;

  • AGENTX_ADMIN_PASSWORD:SuperMap AgentX Server管理员账户的初始密码,为确保系统安全,建议您在首次启动前进行修改;

  • ISERVER_USER:产品包中内置的SuperMap iServer的管理员初始用户名,可按需修改;

  • ISERVER_PASSWORD:SuperMap iServer管理员账户的初始密码,为确保系统安全,建议您在首次启动前进行修改;

  • IPORTAL_USER:产品包中内置的SuperMap iPortal 的管理员初始用户名,可按需修改;

  • IPORTAL_PASSWORD:SuperMap iPortal 管理员账户的初始密码为,为确保系统安全,建议您在首次启动前进行修改;
  • POSTGRES_USER:产品包中内置了PostGreSQL数据库,用于结构化数据的存储。内置PostGreSQL数据库账号的初始用户名为agentx,可按需修改;

  • POSTGRES_PASSWORD:内置 PostGreSQL 数据库账号的初始密码为,为确保系统安全,建议您在首次启动前进行修改,需要注意的是PostGreSQL 数据库密码禁止使用“@”符号。

SuperMap AgentX Server及相关产品的内置账户信息盘点如下,请于启动前在.env配置文件中完成账户密码的修改:

产品名称 初始用户名 初始密码
SuperMap AgentX Server agentx_admin agentx@2025
SuperMap iPortal agentx_admin agentx@2025
SuperMap iServer agentx_admin agentx@2025
PostGreSQL 数据库 agentx agentx_2025

cfg/agentx-base-config.yaml配置文件

#大模型(llm)配置,允许多个模型

 

llm:

  BASIC_MODEL:

    base_url: https://ark.cn-beijing.volces.com/api/v3

    model: "doubao-1-5-pro-32k-250115"

    api_key: xxx

 

   REASONING_MODEL:

    base_url: https://dashscope.aliyuncs.com/compatible-mode

    model: "qwen3-32b"

    api_key: xxx

 

  EMBEDDING_MODEL:

    base_url: https://ark.cn-beijing.volces.com/api/v3

    model: "Doubao-embedding"

    api_key: xxx

    max_tokens: 8192
       
  RERANK_MODEL:

    base_url: http://172.16.168.199:8008/v1

    model: "BAAI/bge-reranker-v2-m3"

    api_key: EMPTY

 

#使用阿里云在线的重排序模型时,需额外配置llm_factory参数,配置示例如下:
   # RERANK_MODEL:
   # base_url: https://dashscope.aliyuncs.com/api/v1/services/rerank/text-rerank/text-rerank
   # model: "qwen3-rerank"
   # llm_factory: "Tongyi-Qianwen"
   # api_key: sk-*******

 

...

如果您需要通过内置编排部署模型,还需修改builtin-models.env及cfg/agentx-base-config.yaml文件,详情请参考内置模型编排部署方式

如果您使用外部的模型服务,仅需根据实际情况,修改上述agentx-base-config.yaml文件中列出的配置项,对应配置项说明如下:

模型参数 模型类别 适用的智能体 是否必选
BASIC_MODEL     大语言模型   知识问答式智能体 是。注意:WebGPA AI建模助理需配置带Function Call功能的大语言模型
自主规划式智能体
MapStudio AI制图助理
WebGPA AI建模助理
代码自定义工作流式智能体
EMBEDDING_MODEL  词嵌入模型     知识问答式智能体
WebGPA AI建模助理
REASONING_MODEL     大语言模型(带推理功能)     自主规划式智能体 否,如需开启深度思考功能,可配置该类模型
RERANK_MODEL   重排序模型    知识问答式智能体 否,如需进一步提升答案精准度,可配置该类模型
  • BASIC_MODEL:大语言模型的配置信息
    • base_url:大语言模型服务的地址,如使用本地部署的模型服务,需填写的模型服务地址示例格式为: http://<ip地址>:port/v1;如使用在线大模型云服务,模型服务的地址格式请参考对应厂商的官方文档说明;
    • model:大语言模型服务的名称,如使用本地部署的模型服务,可前往http://<ip地址>:port/v1/models查询模型名称的标准写法:
    • api_key:大语言模型服务的密钥;
  • EMBEDDING_MODEL:词嵌入模型的配置信息,词嵌入模型在知识问答式智能体中用于知识库向量化构建、知识检索与匹配:
    • base_url:词嵌入模型服务的地址,地址填写说明同上;
    • model:词嵌入模型服务的名称,名称填写说明同上;
    • api_key:词嵌入模型服务的密钥;
    • max_tokens:模型允许的最大token数,默认值为8192,可按需设置。当实际的token数超过模型允许的最大值时会导致模型解析失败。
  • REASONING_MODEL:带推理功能的大语言模型的配置信息,在自主规划式智能体中可用于深度思考,可与BASIC_MODEL使用同一个模型:
    • base_url:推理模型服务的地址,地址填写说明同上;
    • model:推理模型服务的名称,名称填写说明同上;
    • api_key:推理模型服务的密钥;
  • RERANK_MODEL:重排序模型的配置信息,在知识问答式智能体中,重排序模型可以根据查询与文档之间的相关性程度对候选结果进行重新排列,将最具相关性的资源优先呈现给用户:
    • base_url:重排序模型服务的地址,地址填写说明同上;
    • model:重排序模型服务的名称,名称填写说明同上;
    • api_key:重排序模型服务的密钥;
    • llm_factory:阿里云开源的大语言模型微调框架,使用阿里云在线的重排序模型 qwen3-rerank 和 gte-rerank-v2 时,需增加该参数,并配置为Tongyi-Qianwen。阿里云在线重排序模型的详细介绍请参考:https://help.aliyun.com/zh/model-studio/text-rerank-api

产品启动

启动SuperMap AgentX Server

在完成文件配置后,在docker-compose.yml文件所在路径下执行以下命令,即可自动拉取相关镜像,启动SuperMap AgentX Server服务:

./startup.sh

配置许可

安装完成之后,还需要导入许可才能使用,具体请参见:许可配置说明

访问SuperMap AgentX Server

SuperMap AgentX Server服务启动后,直接访问 http://<ip地址>:8490/agentx/,即可进入AgentX产品首页,该页面整合了三种智能体、各类MCP服务以及管理服务的访问地址:

图:SuperMap AgentX Server产品首页

产品卸载

如果您要卸载SuperMap AgentX Server服务,只需前往docker-compose.yaml文件所在路径,按需执行以下命令即可:

  • 停止服务

./shutdown.sh 

  • 卸载但保留数据 

./shutdown.sh -d 

  • 完全卸载

./shutdown.sh -v 

产品升级

如果您需要进行产品升级,替换旧的产品包,请按照如下操作进行:

  1. 获取最新的AgentX安装包,放置于合适的目录并解压;
  2. 将旧包中做过修改的配置文件(如.env、agentx-base-config.yaml等)手动同步到新包中;
  3. 若您处于联网环境,可直接跳过此步。若您处于无网络环境,需参照镜像准备中的步骤更新镜像;
  4. 在新产品包的 docker-compose.yml 文件所在路径下执行以下命令,即可自动拉取相关镜像,启动服务:

./startup.sh