A OpenShift Container platform 3,11 üzembe helyezése az Azure-ban – problémamegoldásTroubleshoot OpenShift Container Platform 3.11 deployment in Azure

Ha a OpenShift-fürt nem üzemel sikeresen, a Azure Portal hibaüzenetet küld.If the OpenShift cluster doesn't deploy successfully, the Azure portal will provide error output. Nehéz lehet beolvasni a kimenetet, ami megnehezíti a probléma azonosítását.The output may be difficult to read which makes it difficult to identify the problem. A 3, 4 vagy 5 kilépési kód gyors vizsgálata a kimenetben.Quickly scan this output for exit code 3, 4 or 5. A következő három kilépési kóddal kapcsolatos információkat tartalmaz:The following provides information on these three exit codes:

  • 3. kilépési kód: a Red Hat-előfizetés felhasználónevének/jelszavának vagy a szervezet AZONOSÍTÓjának/aktiválási kulcsa helytelenExit code 3: Your Red Hat Subscription User Name / Password or Organization ID / Activation Key is incorrect
  • 4. kilépési kód: a Red Hat-készlet azonosítója helytelen, vagy nincsenek elérhető jogosultságokExit code 4: Your Red Hat Pool ID is incorrect or there are no entitlements available
  • 5. kilépési kód: nem sikerült kiépíteni a Docker vékony készletének kötetétExit code 5: Unable to provision Docker Thin Pool Volume

Az összes többi kilépési kód esetében az SSH-n keresztül csatlakozhat a gazdagépekhez a naplófájlok megtekintéséhez.For all other exit codes, connect to the host(s) via ssh to view the log files.

Az OpenShift-tárolóplatform 3.11-es verziójaOpenShift Container Platform 3.11

SSH-t a Ansible forgatókönyv-gazdagéphez.SSH to the ansible playbook host. A sablonhoz vagy a Piactéri ajánlathoz használja a megerősített gazdagépet.For the template or the Marketplace offer, use the bastion host. A megerősített környezetből SSH-t használhat a fürt összes többi csomópontjára (Master, infra, CNS, számítási).From the bastion, you can SSH to all other nodes in the cluster (master, infra, CNS, compute). A naplófájlok megtekintéséhez legfelső szintűnek kell lennie.You'll need to be root to view the log files. A root alapértelmezés szerint le van tiltva az SSH-hozzáféréshez, ezért ne használja a root SSH-t más csomópontokhoz.Root is disabled for SSH access by default so don't use root to SSH to other nodes.

OKDOKD

SSH-t a Ansible forgatókönyv-gazdagéphez.SSH to the ansible playbook host. A OKD-sablonhoz (3,9-es és korábbi verziók) használja a Master-0 gazdagépet.For the OKD template (version 3.9 and earlier), use the master-0 host. A OKD-sablonhoz (3,10-es és újabb verzió) használja a megerősített gazdagépet.For the OKD template (version 3.10 and later), use the bastion host. A Ansible forgatókönyv-gazdagépről SSH-t használhat a fürt összes többi csomópontjára (Master, infra, CNS, számítási).From the ansible playbook host, you can SSH to all other nodes in the cluster (master, infra, CNS, compute). A naplófájlok megtekintéséhez root (sudo su-) értékűnek kell lennie.You'll need to be root (sudo su -) to view the log files. A root alapértelmezés szerint le van tiltva az SSH-hozzáféréshez, ezért ne használja a root SSH-t más csomópontokhoz.Root is disabled for SSH access by default so don't use root to SSH to other nodes.

NaplófájlokLog files

A gazdagép-előkészítési parancsfájlok naplófájljai (stderr és StdOut) az /var/lib/waagent/custom-script/download/0 összes gazdagépen találhatók.The log files (stderr and stdout) for the host preparation scripts are located in /var/lib/waagent/custom-script/download/0 on all hosts. Ha hiba történt a gazdagép előkészítése során, tekintse meg ezeket a naplófájlokat a hiba megállapításához.If an error occurred during the preparation of the host, view these log files to determine the error.

Ha az előkészítési parancsfájlok sikeresen futottak, akkor meg kell vizsgálni a naplófájlokat a /var/lib/waagent/custom-script/download/1 Ansible ötletekbõl-gazdagép könyvtárában.If the preparation scripts ran successfully, then the log files in the /var/lib/waagent/custom-script/download/1 directory of the ansible playbook host will need to be examined. Ha a hiba a OpenShift tényleges telepítése közben történt, akkor az stdout-fájl megjeleníti a hibát.If the error occurred during the actual installation of OpenShift, the stdout file will display the error. Ezekkel az információkkal további segítségért forduljon az ügyfélszolgálathoz.Use this information to contact Support for further assistance.

Példa kimenetreExample output

TASK [openshift_storage_glusterfs : Load heketi topology] **********************
fatal: [mycluster-master-0]: FAILED! => {"changed": true, "cmd": ["oc", "--config=/tmp/openshift-glusterfs-ansible-IbhnUM/admin.kubeconfig", "rsh", "--namespace=glusterfs", "deploy-heketi-storage-1-d9xl5", "heketi-cli", "-s", "http://localhost:8080", "--user", "admin", "--secret", "VuoJURT0/96E42Vv8+XHfsFpSS8R20rH1OiMs3OqARQ=", "topology", "load", "--json=/tmp/openshift-glusterfs-ansible-IbhnUM/topology.json", "2>&1"], "delta": "0:00:21.477831", "end": "2018-05-20 02:49:11.912899", "failed": true, "failed_when_result": true, "rc": 0, "start": "2018-05-20 02:48:50.435068", "stderr": "", "stderr_lines": [], "stdout": "Creating cluster ... ID: 794b285745b1c5d7089e1c5729ec7cd2\n\tAllowing file volumes on cluster.\n\tAllowing block volumes on cluster.\n\tCreating node mycluster-cns-0 ... ID: 45f1a3bfc20a4196e59ebb567e0e02b4\n\t\tAdding device /dev/sdd ... OK\n\t\tAdding device /dev/sde ... OK\n\t\tAdding device /dev/sdf ... OK\n\tCreating node mycluster-cns-1 ... ID: 596f80d7bbd78a1ea548930f23135131\n\t\tAdding device /dev/sdc ... Unable to add device: Unable to execute command on glusterfs-storage-4zc42:   Device /dev/sdc excluded by a filter.\n\t\tAdding device /dev/sde ... OK\n\t\tAdding device /dev/sdd ... OK\n\tCreating node mycluster-cns-2 ... ID: 42c0170aa2799559747622acceba2e3f\n\t\tAdding device /dev/sde ... OK\n\t\tAdding device /dev/sdf ... OK\n\t\tAdding device /dev/sdd ... OK", "stdout_lines": ["Creating cluster ... ID: 794b285745b1c5d7089e1c5729ec7cd2", "\tAllowing file volumes on cluster.", "\tAllowing block volumes on cluster.", "\tCreating node mycluster-cns-0 ... ID: 45f1a3bfc20a4196e59ebb567e0e02b4", "\t\tAdding device /dev/sdd ... OK", "\t\tAdding device /dev/sde ... OK", "\t\tAdding device /dev/sdf ... OK", "\tCreating node mycluster-cns-1 ... ID: 596f80d7bbd78a1ea548930f23135131", "\t\tAdding device /dev/sdc ... Unable to add device: Unable to execute command on glusterfs-storage-4zc42:   Device /dev/sdc excluded by a filter.", "\t\tAdding device /dev/sde ... OK", "\t\tAdding device /dev/sdd ... OK", "\tCreating node mycluster-cns-2 ... ID: 42c0170aa2799559747622acceba2e3f", "\t\tAdding device /dev/sde ... OK", "\t\tAdding device /dev/sdf ... OK", "\t\tAdding device /dev/sdd ... OK"]}

PLAY RECAP *********************************************************************
mycluster-cns-0       : ok=146  changed=57   unreachable=0    failed=0   
mycluster-cns-1       : ok=146  changed=57   unreachable=0    failed=0   
mycluster-cns-2       : ok=146  changed=57   unreachable=0    failed=0   
mycluster-infra-0     : ok=143  changed=55   unreachable=0    failed=0   
mycluster-infra-1     : ok=143  changed=55   unreachable=0    failed=0   
mycluster-infra-2     : ok=143  changed=55   unreachable=0    failed=0   
mycluster-master-0    : ok=502  changed=198  unreachable=0    failed=1   
mycluster-master-1    : ok=348  changed=140  unreachable=0    failed=0   
mycluster-master-2    : ok=348  changed=140  unreachable=0    failed=0   
mycluster-node-0      : ok=143  changed=55   unreachable=0    failed=0   
mycluster-node-1      : ok=143  changed=55   unreachable=0    failed=0   
localhost                  : ok=13   changed=0    unreachable=0    failed=0   

INSTALLER STATUS ***************************************************************
Initialization             : Complete (0:00:39)
Health Check               : Complete (0:00:24)
etcd Install               : Complete (0:01:24)
Master Install             : Complete (0:14:59)
Master Additional Install  : Complete (0:01:10)
Node Install               : Complete (0:10:58)
GlusterFS Install          : In Progress (0:03:33)
    This phase can be restarted by running: playbooks/openshift-glusterfs/config.yml

Failure summary:

  1. Hosts:    mycluster-master-0
     Play:     Configure GlusterFS
     Task:     Load heketi topology
     Message:  Failed without returning a message.

A telepítés során leggyakrabban előforduló hibák a következők:The most common errors during installation are:

  1. A titkos kulcs jelszavaPrivate key has passphrase
  2. Nem megfelelően hozták létre a Key Vault titkos kulcsát.Key vault secret with private key wasn't created correctly
  3. Az egyszerű szolgáltatásnév hitelesítő adatai helytelenül lettek megadvaService principal credentials were entered incorrectly
  4. Az egyszerű szolgáltatásnév nem rendelkezik közreműködői hozzáféréssel az erőforráscsoporthozService principal doesn't have contributor access to the resource group

A titkos kulcs jelszavaPrivate Key has a passphrase

Hibaüzenet jelenik meg, amely miatt a rendszer megtagadta az engedélyt az SSH-hoz.You'll see an error that permission was denied for ssh. SSH-t a Ansible forgatókönyv-gazdagépre, hogy keressen egy jelszót a titkos kulcson.ssh to the ansible playbook host to check for a passphrase on the private key.

Nem megfelelően hozták létre a Key Vault titkos kulcsát.Key vault secret with private key wasn't created correctly

A titkos kulcsot a rendszer átmásolja a Ansible ötletekbõl-gazdagépre – ~/.ssh/id_rsa.The private key is copied into the ansible playbook host - ~/.ssh/id_rsa. Győződjön meg arról, hogy a fájl helyes.Confirm this file is correct. Tesztelés: nyisson meg egy SSH-munkamenetet a Ansible forgatókönyv-gazdagép egyik fürtjén.Test by opening an SSH session to one of the cluster nodes from the ansible playbook host.

Az egyszerű szolgáltatásnév hitelesítő adatai helytelenül lettek megadvaService principal credentials were entered incorrectly

A sablon vagy Marketplace-ajánlat bemenetének megadásakor a helytelen információ lett megadva.When providing the input to the template or Marketplace offer, the incorrect information was provided. Győződjön meg arról, hogy az egyszerű szolgáltatásnév megfelelő appId (clientId) és jelszavát (clientSecret) használja.Make sure you use the correct appId (clientId) and password (clientSecret) for the service principal. Ellenőrizze az alábbi Azure CLI-parancs kiadásával.Verify by issuing the following azure cli command.

az login --service-principal -u <client id> -p <client secret> -t <tenant id>

Az egyszerű szolgáltatásnév nem rendelkezik közreműködői hozzáféréssel az erőforráscsoporthozService principal doesn't have contributor access to the resource group

Ha az Azure Cloud Provider engedélyezve van, akkor a használt szolgáltatásnak közreműködői hozzáféréssel kell rendelkeznie az erőforráscsoporthoz.If the Azure cloud provider is enabled, then the service principal used must have contributor access to the resource group. Ellenőrizze az alábbi Azure CLI-parancs kiadásával.Verify by issuing the following azure cli command.

az group update -g <openshift resource group> --set tags.sptest=test

További eszközökAdditional tools

Bizonyos hibák esetén az alábbi parancsokkal további információkat kaphat:For some errors, you can also use the following commands to get more information:

  1. systemctl állapota <service>systemctl status <service>
  2. journalctl – XEjournalctl -xe