教程

常见问题解答

  1. Oracle数据库与SuperMap iDesktop连接不上,如何解决?

    答:出现上述情况,请在Oracle中创建并使用新的数据库。具体步骤如下:

    (1)在iManager页面点击数据库->Oracle->名称(您的数据库名称)->oracle->命令行进入Oracle命令行;

    (2)在目录 u01/app/oracle/oradata 下创建“supermapshapefile”文件夹,执行(如果您已有文件夹,请跳过该步骤):

    mkdir -p /u01/app/oracle/oradata/supermapshapefile

    (3)赋予数据库权限,执行:

    chown oracle /u01/app/oracle/oradata/supermapshapefile

    (4)进入Oracle,执行:

    sqlplus / as sysdba

    (5)输入Oracle用户密码,用户密码请在iManager页面点击数据库->Oracle->名称(您的数据库名称)->账户查看;

    (6)创建空间表,大小为200M(可根据实际情况设置),执行:

    create tablespace supermaptbs datafile '/u01/app/oracle/oradata/supermapshapefile/data.dbf' size 200M;

    (7)创建数据库新用户,账号:supermapuser(可自由设置),密码:supermap123(可自由设置),执行:

    create user supermapuser identified by supermap123 default tablespace supermaptbs;

    (8)给新用户赋予权限,执行:

    grant connect,resource to supermapuser;
    grant dba to supermapuser;
  2. 在重新部署/调整规格后,又立马进行重新部署/调整规格操作,导致分配许可失败,如何解决?

    答:在重新部署/调整规格后,请确保本次操作对应的容器在许可中心中分配许可成功后,再进行下一次的重新部署/调整规格操作。

  3. 查看实时监控统计图时,图表中没有数据或数据生成的时间与实际时间不符,如何解决?

    答:查看实时监控统计图时,请确保您的本地机器与Kubernetes节点机器设置的时间一致。

  4. 如何使用https协议?

    答:iManager中支持使用https服务协议,请执行以下步骤:

    (1)进入iManager安装目录(即执行iManager启动命令的目录)并找到values.yml文件,在当前目录下输入命令打开配置:

    sudo vi values.yml

    (2)将变量“deploy_imanager_service_protocol”的值改为“https”。

    (3)保存设置,并重启iManager:

    sudo ./startup.sh
  5. 如何替换iManager for K8s自带的安全证书?

    答:iManager for K8s的安全证书有两种,一种是安全中心(Keycloak)使用的安全证书,另一种是访问入口域名使用的安全证书。请参照以下步骤替换两种证书:

    替换安全中心(Keycloak)的安全证书

    (1)在安装Kubernetes Master节点机器中执行以下命令,找到安全证书挂载目录(下面命令中的<namespace>为iManager所在的命名空间,默认为supermap。如有改动,请替换为您的命名空间名称):

    kubectl -n <namespace> describe pvc pvc-keycloak | grep Volume: | awk -F ' ' '{print $2}' | xargs kubectl describe pv

    (2)将您的安全证书文件存放至步骤(1)查到的挂载目录中;

    注意:
    安全证书文件包括证书和私钥,需要将证书文件重命名为tls.crt,将私钥文件重命名为tsl.key。

    (3)登录iManager,在基础服务中找到Keycloak服务并重新部署。

    替换访问入口的安全证书

    (1)在安装Kubernetes Master节点机器中执行以下命令,找到安全证书挂载目录(下面命令中的<namespace>为iManager所在的命令空间,默认为supermap。如有改动,请替换为您的命名空间名称):

    kubectl -n <namespace> describe pvc pvc-imanager-dashboard-ui | grep Volume: | awk -F ' ' '{print $2}' | xargs kubectl describe pv

    (2)将您的安全证书文件存放至步骤(1)查到的挂载目录中;

    注意:
    安全证书文件包括证书和私钥,需要将证书文件重命名为certificate.crt,将私钥文件重命名为private.key。

    (3)登录iManager,在基础服务中找到imanager-dashboard-ui服务并重新部署。

  6. 配置镜像拉取Secret时,如何在命名空间下创建与Secret同名资源?

    答:配置镜像拉取Secret时,需在Kubernetes中iManager所在命名空间创建与Secret同名的资源。如果开启服务网格(Istio),需在istio-system命名空间下创建Secret同名资源。如果开启metrics server服务,需在kube-system命名空间下创建Secret同名资源。请在Kubernetes Master机器中,输入如下命令创建Secret同名资源:

    kubectl create secret docker-registry <image-pull-secret> --docker-server=<"172.16.17.11:5002"> --docker-username=<admin> --docker-password=<adminpassword> -n <supermap>

    注意:

    1. 输入的内容中,带有尖括号”<>“的需根据您的实际环境替换(替换后去掉尖括号)。 <image-pull-secret>为您的Secret名称; <"172.16.17.11:5002">为您的镜像仓库地址; <admin>为镜像仓库用户名; <adminpassword>为镜像仓库密码; <supermap>为iManager所在命名空间(在istio-system或kube-system下创建Secret同名资源时,<supermap>替换为“istio-system”或“kube-system”)。
    2. 如果命名空间istio-system不存在,在Kubernetes Master节点机器输入“kubectl create ns istio-system”命令进行创建。
  7. 修改iManager的配置文件values.yaml后,重启iManager出现报错“Error: UPGRADE FAILED: cannot patch “pv-nfs-grafana” with kind StorageClass: StorageClass.storage.k8s.io “pv-nfs-grafana” is invalid …”, 怎么办?

    答:该错误产生的原因是K8s patch操作不支持对存储类的提供者进行更新。此报错不影响产品正常使用,可忽略。

  8. Kubernetes证书到期了,如何更新?

    答:Kubernetes证书有效期为1年,过期后需更新证书。请参照以下步骤更新Kubernetes证书:

    (1)在安装Kubernetes的Master节点机器,进入etc/kubernetes/pki目录,创建备份目录:

    cd /etc/kubernetes/pki/
    mkdir -p ~/tmp/BACKUP_etc_kubernetes_pki/etcd/

    (2)备份原有的证书:

    mv apiserver.crt apiserver-etcd-client.key apiserver-kubelet-client.crt front-proxy-ca.crt front-proxy-client.crt front-proxy-client.key front-proxy-ca.key apiserver-kubelet-client.key apiserver.key apiserver-etcd-client.crt ~/tmp/BACKUP_etc_kubernetes_pki/.
    mv etcd/healthcheck-client.* etcd/peer.* etcd/server.* ~/tmp/BACKUP_etc_kubernetes_pki/etcd/

    (3)重新生成新的证书:

    kubeadm init phase certs all

    (4)进入etc/kubernetes目录,创建备份配置文件目录,备份原有的配置文件:

    cd /etc/kubernetes/
    mkdir -p ~/tmp/BACKUP_etc_kubernetes
    mv admin.conf controller-manager.conf kubelet.conf scheduler.conf ~/tmp/BACKUP_etc_kubernetes/.

    (5)重新生成配置文件:

    kubeadm init phase kubeconfig all

    (6)重启Kubernetes Master节点:

    reboot

    (7)复制并替换原来的文件:

    mkdir -p ~/tmp/BACKUP_home_.kube
    cp -r ~/.kube/* ~/tmp/BACKUP_home_.kube/.
    cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

    (8)查看更新证书后Kubernetes集群信息(使用kubectl cluster-info命令):

    kubectl cluster-info
  9. 内置HBase环境如何使用本地存储?

    答:经测试,挂载NFS会影响Hbase的读写性能,可以通过以下方式进行优化:

    (1)修改配置(values.yaml)文件中deploy_disable_hbase_nfs_volume的值为true

    deploy_disable_hbase_nfs_volume: true

    (2)根据编排创建PV:参考 hbase-datanode-local-volume.yaml 文件,根据实际情况进行修改:

    apiVersion: v1
    kind: PersistentVolume
    metadata:
     labels:
       type: icloud-native
     name: icloud-native-hbase-datanode-volume-0  #修改点1
    spec:
     storageClassName: local-volume-storage-class
     capacity:
       storage: 10Ti
     accessModes:
       - ReadWriteMany
     local:
       path: /opt/imanager-data/datanode-data  #修改点2
     persistentVolumeReclaimPolicy: Delete
     nodeAffinity:
       required:
         nodeSelectorTerms:
           - matchExpressions:
             - key: kubernetes.io/hostname
               operator: In
               values:
                 - node1   # 修改点3

    需要修改的内容涉及上图中标记处的3个地方:

    • 修改点1:这里指定PV的名称,只要不重复即可。
    • 修改点2:这里是实际要存储HBase数据的路径,要提前创建好目录。如果想在一个节点上创建多个PV请修改成不同的目录,并提前创建好目录。

    使用以下命令在对应节点上创建目录(路径换成自己设置的具体地址):

    mkdir -p /opt/imanager-data/datanode-data
    • 修改点3:这里填写Kubernetes的节点名称(前提是相应的节点能参与调度)

    (3)修改后通过编排创建PV(在Kubernetes master节点执行以下命令):

    kubectl apply -f hbase-datanode-local-volume.yaml

    备注:

    1. HBase环境中的dataNode有几个副本就要创建几个PV,默认需要3个;如果自己伸缩了,请创建对应数目的PV;
    2. PV可以创建在任意Kubernetes节点上(通过修改点3指定),推荐均匀分布在不同的节点上;
    3. PV既可以在开启/伸缩HBase之前创建,也可以在开启/伸缩HBase之后创建。
  10. 系统运行过程中出现系统没有响应,检查系统日志后发现错误“echo 0 > /proc/sys/kernel/hungtasktimeout_secs” disables this message.”,如何解决?

    答: 这是因为在系统运行过程中负载飙升,文件系统脏数据缓存无法在指定时间内写入磁盘,导致系统挂起。这种情况一般在内存较大时出现,解决办法如下:

    (1)编辑 /etc/sysctl.conf 文件。设置脏数据处理时间以及写入超时时间:

    # 脏数据到达系统百分比开始处理
    vm.dirty_background_ratio=5
    # 脏数据到达系统百分比时,不得不处理
    vm.dirty_ratio=10
    # 脏数据写入超时时间,默认 120s,0 表示不限制
    kernel.hung_task_timeout_secs=0

    (2)强制重启。系统挂起情况下,重启机器可能失败,因此需要强制重启:

    reboot -n -f
  11. 在Kubernetes服务器集群中,某台服务器出现故障,导致该服务器上的服务不可用,如何应对?

    答:如果您的Kubernetes集群由三台或三台以上的服务器组成(含Master节点服务器),当某Worker节点服务器出现故障时,在该服务器中运行的服务会自动迁移至其他Worker节点服务器,自动迁移时长根据您的环境有所不同,大概在20分钟左右。如果您的Kubernetes集群只有两台服务器,当Worker节点服务器出现故障后,请参考以下步骤手动恢复服务:

    (1)在Master节点服务器中,查看服务器名称:

    kubectl get nodes

    (2)修改Master节点服务器名称。使用如下命令修改:

    hostnamectl set-hostname <newhostname>

    备注:
    命令中的<newhostname>为您的Master节点服务器新名称,可自定义。

    (3)进入/etc/kubernetes/manifests目录:

    cd /etc/kubernetes/manifests

    (4)编辑etcd.yaml文件,将文件中包含Master节点服务器旧名称的内容改为新设定的名称(共有两处,如下图)。执行以下命名进入文件编辑页面:

    vi etcd.yaml

    modyifyetcd

    (5)导出Worker节点服务器的配置文件:

    kubectl get node <old-nodeName> -o yaml > node.yaml

    备注:
    命令中的<old-nodeName>为您的Worker节点服务器的名称,可通过步骤(1)中的命令查看。

    (6)修改node.yaml文件,将文件中包含Worker节点服务器名称的内容改为Master节点服务器的新名称,并在labels中加入编排node-role.kubernetes.io/master: ""(共有四处名称需要更改,在红线处加入编排,如下图):

    vi node.yaml

    modifynode

    (7)修改kube-system命名空间下的kubeadm-config ConfigMap,将其中的Master节点服务器的旧名称改为新名称(有一处需要更改,如下图):

    kubectl -n kube-system edit configmap kubeadm-config

    modifykubeadm

    (8)为服务器生成新证书,替换旧证书。执行如下操作:

    cd /etc/kubernetes/pki/
    mkdir -p ~/tmp/BACKUP_etc_kubernetes_pki/etcd/
    mv apiserver.crt apiserver-etcd-client.key apiserver-kubelet-client.crt front-proxy-ca.crt front-proxy-client.crt front-proxy-client.key front-proxy-ca.key apiserver-kubelet-client.key apiserver.key apiserver-etcd-client.crt ~/tmp/BACKUP_etc_kubernetes_pki/.
    mv etcd/healthcheck-client.* etcd/peer.* etcd/server.* ~/tmp/BACKUP_etc_kubernetes_pki/etcd/
    kubeadm init phase certs all
    
    cd /etc/kubernetes
    mkdir -p ~/tmp/BACKUP_etc_kubernetes
    mv admin.conf controller-manager.conf kubelet.conf scheduler.conf ~/tmp/BACKUP_etc_kubernetes/.
    kubeadm init phase kubeconfig all
    
    mkdir -p ~/tmp/BACKUP_home_.kube
    cp -r ~/.kube/* ~/tmp/BACKUP_home_.kube/.
    cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

    (9)应用步骤(6)中修改过的Worker节点服务器配置文件:

    kubectl apply -f node.yaml

    (10)移除原Worker节点服务器:

    kubectl delete node <old-nodeName>

    (11)重启kubelet和docker服务:

    systemctl daemon-reload && systemctl restart kubelet && systemctl restart docker