azdata bdc

S’applique à : Azure Data CLI (azdata)

L’article suivant fournit des informations de référence sur les commandes sql dans l’outil azdata. Pour plus d’informations sur les autres commandes azdata, consultez azdata reference.

Commandes

Commande Description
azdata bdc create Crée un cluster Big Data.
azdata bdc delete Supprime un cluster Big Data.
azdata bdc upgrade Mettez à jour les images déployées dans chaque conteneur dans le cluster Big Data SQL Server.
azdata bdc config Commandes de configuration.
azdata bdc endpoint Commandes relatives aux points de terminaison.
azdata bdc debug Commandes de débogage.
azdata bdc status Commandes d’état des clusters Big Data.
azdata bdc control Commandes du service de contrôle.
azdata bdc sql Commandes du service SQL.
azdata bdc hdfs Commandes du service HDFS.
azdata bdc spark Commandes du service Spark.
azdata bdc gateway Commandes du service de passerelle.
azdata bdc app Commandes du service App Service.
azdata bdc hdfs Le module HDFS fournit des commandes pour accéder à un système de fichiers HDFS.
azdata bdc settings Commandes des paramètres des clusters Big Data.
azdata bdc spark Les commandes Spark permettent à l’utilisateur d’interagir avec le système Spark en créant et en gérant des sessions, des instructions et des lots.
azdata bdc rotate Cette commande fait pivoter les mots de passe des comptes AD générés automatiquement dans un cluster Big Data. Pour plus d’informations, consultez Présentation de la rotation de mot de passe AD.

azdata bdc create

Créez un cluster Big Data SQL Server. La configuration Kubernetes est requise sur votre système avec les variables d’environnement suivantes ['AZDATA_USERNAME', 'AZDATA_PASSWORD'].

azdata bdc create [--name -n] 
                  [--config-profile -c]  
                  
[--accept-eula -a]  
                  
[--node-label -l]  
                  
[--force -f]

Exemples

Expérience guidée de déploiement de clusters Big Data SQL Server : vous recevrez des invites pour les valeurs nécessaires.

azdata bdc create

Déploiement de clusters Big Data avec des arguments et un profil de configuration personnalisé initialisé via azdata bdc config init.

azdata bdc create --accept-eula yes --config-profile ./path/to/config/profile

Déploiement de clusters Big Data avec un nom de cluster personnalisé spécifié et un profil de configuration par défaut aks-dev-test.

azdata bdc create --name <cluster_name> --accept-eula yes --config-profile aks-dev-test

Déploiement de clusters Big Data avec des arguments : aucune invite ne s’affiche, car l’indicateur --force est utilisé.

azdata bdc create --accept-eula yes --config-profile aks-dev-test --force

Paramètres facultatifs

--name -n

Nom du cluster Big Data, utilisé pour les espaces de noms Kubernetes.

--config-profile -c

Profil de configuration de cluster Big Data, utilisé pour déployer le cluster : ['kubeadm-dev-test', 'kubeadm-prod', 'openshift-prod', 'aks-dev-test-ha', 'aks-dev-test', 'aro-dev-test', 'openshift-dev-test', 'aro-dev-test-ha']

--accept-eula -a

Acceptez-vous les termes du contrat de licence ? [oui/non]. Si vous ne voulez pas utiliser cet argument, vous pouvez définir la variable d’environnement ACCEPT_EULA sur « oui ». Les termes du contrat de licence pour azdata sont visibles à l’adresse https://aka.ms/eula-azdata-en.

--node-label -l

Étiquette de nœud de cluster Big Data, utilisée pour désigner les nœuds sur lesquels effectuer le déploiement.

--force -f

Création forcée. L’utilisateur ne sera pas invité à entrer des valeurs, et les éventuels problèmes seront affichés dans le cadre d’une erreur standard.

Arguments globaux

--debug

Augmentez le niveau de détail de la journalisation pour afficher tous les journaux de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requêtes JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de détail de la journalisation. Utilisez --debug pour des journaux de débogage complets.

azdata bdc delete

Supprimez le cluster Big Data SQL Server. La configuration Kubernetes est requise sur votre système.

azdata bdc delete --name -n 
                  [--force -f]

Exemples

Supprimer des clusters Big Data.

azdata bdc delete --name <cluster_name>

Paramètres obligatoires

--name -n

Nom du cluster Big Data, utilisé pour l’espace de noms Kubernetes.

Paramètres facultatifs

--force -f

Suppression forcée du cluster Big Data.

Arguments globaux

--debug

Augmentez le niveau de détail de la journalisation pour afficher tous les journaux de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requêtes JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de détail de la journalisation. Utilisez --debug pour des journaux de débogage complets.

azdata bdc upgrade

Mettez à jour les images déployées dans chaque conteneur dans le cluster Big Data SQL Server. Les images mises à jour sont basées sur l’image Docker transmise. Si les images mises à jour proviennent d’un dépôt d’images Docker différent des images actuellement déployées, le paramètre « repository » est également requis.

azdata bdc upgrade --name -n 
                   --tag -t  
                   
[--repository -r]  
                   
[--controller-timeout -k]  
                   
[--stability-threshold -s]  
                   
[--component-timeout -p]  
                   
[--force -f]

Exemples

Mise à niveau de clusters Big Data vers une nouvelle balise d’image « cu2 » à partir du même dépôt.

azdata bdc upgrade -t cu2

Mise à niveau de clusters Big Data vers une nouvelle image avec la balise « cu2 » à partir d’un nouveau dépôt « foo/bar/baz ».

azdata bdc upgrade -t cu2 -r foo/bar/baz

Mise à niveau de clusters Big Data vers une nouvelle balise d’image « cu2 » à partir du même dépôt. Le délai de mise à niveau du contrôleur sera de 30 minutes, et également de 30 minutes pour la base de données du contrôleur. Un délai supplémentaire de 3 minutes s’écoulera avant l’exécution de la base de données du contrôleur, sans entraîner l’arrêt de la mise à niveau du reste du cluster. Chaque phase suivante de la mise à niveau durera 40 minutes.

azdata bdc upgrade -t cu2 --controller-timeout=30 --component-timeout=40 --stability-threshold=3

Paramètres obligatoires

--name -n

Nom du cluster Big Data, utilisé pour les espaces de noms Kubernetes.

--tag -t

Balise d’image Docker cible vers laquelle mettre à niveau tous les conteneurs du cluster.

Paramètres facultatifs

--repository -r

Dépôt Docker à partir duquel tous les conteneurs du cluster doivent extraire leurs images.

--controller-timeout -k

Nombre de minutes d’attente avant la mise à niveau de la base de données du contrôleur ou du contrôleur avant la restauration de la mise à niveau.

--stability-threshold -s

Nombre de minutes d’attente après une mise à niveau avant de la marquer comme stable.

--component-timeout -p

Nombre de minutes d’attente avant la fin de chaque phase de la mise à niveau (après la mise à niveau du contrôleur) avant la suspension de la mise à niveau.

--force -f

S’il est présent, ignore la vérification de l’intégrité du cluster avant de commencer la mise à niveau

Arguments globaux

--debug

Augmentez le niveau de détail de la journalisation pour afficher tous les journaux de débogage.

--help -h

Affichez ce message d’aide et quittez.

--output -o

Format de sortie. Valeurs autorisées : json, jsonc, table, tsv. Valeur par défaut : json.

--query -q

Chaîne de requêtes JMESPath. Pour plus d’informations et d’exemples, consultez http://jmespath.org/.

--verbose

Augmentez le niveau de détail de la journalisation. Utilisez --debug pour des journaux de débogage complets.

Étapes suivantes

Pour plus d’informations sur les autres commandes azdata, consultez azdata reference.

Pour plus d’informations sur l’installation de l’outil azdata, consultez Installer azdata.