驱动与模型服务部署(可选)
如果您使用的是通义千问、文心一言、OpenAI 等在线大模型云服务(需支持Function Call功能),即可跳过此步骤,直接进行产品部署。
如果您需要部署大模型服务,可参考下列文档依次完成驱动安装和模型服务的部署。
模型服务的部署方式有多种选择,支持通过SuperMap AgentX Server 内置的模型编排文件来部署模型服务;也支持依赖推理引擎启动模型服务,如vLLM(推荐)、Ollama、SGLang、LLaMA、TGI等,可任选一种方式部署。
- 安装NVIDIA驱动,介绍NVIDIA驱动安装流程。
- 安装NVIDIA-DOCKER驱动,介绍NVIDIA-DOCKER驱动安装流程。
- 内置模型编排方式部署,介绍通过内置的模型编排文件来部署模型服务。
- vLLM方式部署,介绍vLLM方式部署模型服务。
- Ollama方式部署,介绍Ollama方式部署模型服务。
- SGLang方式部署,介绍SGLang方式部署模型服务。