Cara menyebarkan Kluster Big Data SQL Server di Kubernetes

Berlaku untuk: SQL Server 2019 (15.x)

Penting

Add-on Kluster Big Data Microsoft SQL Server 2019 akan dihentikan. Dukungan untuk SQL Server 2019 Kluster Big Data akan berakhir pada 28 Februari 2025. Semua pengguna SQL Server 2019 yang ada dengan Jaminan Perangkat Lunak akan didukung sepenuhnya pada platform dan perangkat lunak akan terus dipertahankan melalui pembaruan kumulatif SQL Server hingga saat itu. Untuk informasi selengkapnya, lihat posting blog pengumuman dan Opsi big data di platform Microsoft SQL Server.

Kluster Big Data SQL Server disebarkan sebagai kontainer docker pada kluster Kubernetes. Ini adalah gambaran umum langkah-langkah penyiapan dan konfigurasi:

  • Siapkan kluster Kubernetes pada satu VM, kluster VM, di Azure Kubernetes Service (AKS), Red Hat OpenShift atau di Azure Red Hat OpenShift (ARO).
  • Instal alat konfigurasi kluster Azure Data CLI (azdata) di komputer klien Anda.
  • Sebarkan kluster big data SQL Server dalam kluster Kubernetes.

Konfigurasi yang diuji

Lihat Konfigurasi yang diuji untuk daftar lengkap berbagai platform Kubernetes yang divalidasi untuk menyebarkan SQL Server Kluster Big Data.

Edisi SQL Server

Edisi Catatan
Perusahaan
Standard
Pengembang
Edisi Kluster Big Data ditentukan oleh edisi instans master SQL Server. Pada waktu penyebaran edisi Pengembang disebarkan secara default. Anda dapat mengubah edisi setelah penyebaran. Lihat Mengonfigurasi instans master SQL Server.

Kubernetes

Penyiapan kluster Kubernetes

Jika Anda sudah memiliki kluster Kubernetes yang memenuhi prasyarat di atas, maka Anda dapat melompat langsung ke langkah penyebaran. Bagian ini mengasumsikan pemahaman dasar tentang konsep Kubernetes. Untuk informasi terperinci tentang Kubernetes, lihat dokumentasi Kubernetes.

Anda dapat memilih untuk menyebarkan Kubernetes dengan cara berikut:

Sebarkan Kubernetes pada: Deskripsi Link
Azure Kubernetes Services (AKS) Layanan kontainer Kubernetes terkelola di Azure. Petunjuk
Satu atau Beberapa komputer (kubeadm) Kluster Kubernetes yang disebarkan pada komputer fisik atau virtual menggunakan kubeadm Petunjuk
Azure Red Hat OpenShift Penawaran terkelola OpenShift yang berjalan di Azure. Petunjuk
Red Hat OpenShift Cloud hibrid, platform aplikasi Kubernetes perusahaan. Petunjuk

Tip

Anda juga dapat membuat skrip penyebaran AKS dan kluster big data dalam satu langkah. Untuk informasi selengkapnya, lihat cara melakukan ini dalam skrip python atau buku catatan Azure Data Studio.

Memverifikasi konfigurasi Kubernetes

Jalankan kubectl perintah untuk melihat konfigurasi kluster. Pastikan bahwa kubectl ditujukan ke konteks kluster yang benar.

kubectl config view

Penting

Jika Anda menyebarkan pada kluster Kubernetes multi node yang Anda bootstrap menggunakan kubeadm, sebelum memulai penyebaran kluster big data, pastikan jam disinkronkan di semua node Kubernetes yang ditargetkan penyebaran. Kluster big data memiliki properti kesehatan bawaan untuk berbagai layanan yang sensitif terhadap waktu dan ke condong jam dapat mengakibatkan status yang salah.

Setelah mengonfigurasi kluster Kubernetes, Anda dapat melanjutkan penyebaran kluster big data SQL Server baru. Jika Anda memutakhirkan dari rilis sebelumnya, lihat Cara meningkatkan SQL Server Kluster Big Data.

Pastikan Anda memiliki penyimpanan yang dikonfigurasi

Sebagian besar penyebaran kluster big data harus memiliki penyimpanan persisten. Saat ini, Anda perlu memastikan bahwa Anda memiliki rencana tentang bagaimana Anda akan menyediakan penyimpanan persisten pada kluster Kubernetes sebelum menyebarkan.

  • Jika Anda menyebarkan di AKS, tidak ada penyiapan penyimpanan yang diperlukan. AKS menyediakan kelas penyimpanan bawaan dengan provisi dinamis. Anda dapat menyesuaikan kelas penyimpanan (default atau managed-premium) dalam file konfigurasi penyebaran. Profil bawaan menggunakan default kelas penyimpanan.
  • Jika menyebarkan pada kluster Kubernetes yang disebarkan menggunakan kubeadm, Anda harus memastikan bahwa Anda memiliki penyimpanan yang memadai untuk kluster skala yang Anda inginkan yang tersedia dan dikonfigurasi untuk digunakan. Jika Anda ingin menyesuaikan bagaimana penyimpanan Anda digunakan, Anda harus melakukan ini sebelum melanjutkan. Lihat Persistensi data dengan kluster big data SQL Server di Kubernetes.

Menginstal alat Big Data SQL Server 2019

Sebelum menyebarkan kluster big data SQL Server 2019, pertama-tama instal alat big data:

  • Azure Data CLI (azdata)
  • kubectl
  • Azure Data Studio
  • Ekstensi Virtualisasi Data untuk Azure Data Studio
  • Azure CLI, jika menyebarkan ke AKS

Ringkasan penyebaran

Sebagian besar pengaturan kluster big data didefinisikan dalam file konfigurasi penyebaran JSON. Anda dapat menggunakan profil penyebaran default untuk kluster AKS dan Kubernetes yang dibuat dengan kubeadm atau Anda dapat menyesuaikan file konfigurasi penyebaran Anda sendiri untuk digunakan selama penyiapan. Untuk alasan keamanan, pengaturan autentikasi diteruskan melalui variabel lingkungan.

Bagian berikut memberikan detail selengkapnya tentang cara mengonfigurasi penyebaran kluster big data Anda serta contoh penyesuaian umum. Selain itu, Anda selalu dapat mengedit file konfigurasi penyebaran kustom menggunakan editor seperti Visual Studio Code misalnya.

Konfigurasi default

Opsi penyebaran kluster big data ditentukan dalam file konfigurasi JSON. Anda dapat memulai penyesuaian penyebaran kluster dari profil penyebaran bawaan yang tersedia di Azure Data CLI (azdata).

Catatan

Gambar kontainer yang diperlukan untuk penyebaran kluster big data dihosting di Microsoft Container Registry (mcr.microsoft.com), di mssql/bdc repositori. Secara default, pengaturan ini sudah disertakan dalam control.json file konfigurasi di setiap profil penyebaran yang disertakan dengan Azure Data CLI (azdata). Selain itu, tag gambar kontainer untuk setiap rilis juga telah diisi sebelumnya dalam file konfigurasi yang sama. Jika Anda perlu menarik gambar kontainer ke registri kontainer privat Anda sendiri dan atau memodifikasi pengaturan registri/repositori kontainer, ikuti instruksi di artikel Penginstalan offline

Jalankan perintah ini untuk menemukan templat yang tersedia:

azdata bdc config list -o table 

Templat berikut tersedia pada SQL Server 2019 CU5:

Profil penyebaran Lingkungan Kubernetes
aks-dev-test Menyebarkan Kluster Big Data SQL Server di Azure Kubernetes Service (AKS)
aks-dev-test-ha Sebarkan Kluster Big Data SQL Server di Azure Kubernetes Service (AKS). Layanan penting misi seperti master SQL Server dan node nama HDFS dikonfigurasi untuk ketersediaan tinggi.
aro-dev-test Sebarkan Kluster Big Data SQL Server di Azure Red Hat OpenShift untuk pengembangan dan pengujian.

Diperkenalkan di SQL Server 2019 CU 5.
aro-dev-test-ha Sebarkan Kluster Big Data SQL Server dengan ketersediaan tinggi pada kluster Red Hat OpenShift untuk pengembangan dan pengujian.

Diperkenalkan di SQL Server 2019 CU 5.
kubeadm-dev-test Sebarkan Kluster Big Data SQL Server pada kluster Kubernetes yang dibuat dengan kubeadm menggunakan satu atau beberapa komputer fisik atau virtual.
kubeadm-prod Sebarkan Kluster Big Data SQL Server pada kluster Kubernetes yang dibuat dengan kubeadm menggunakan satu atau beberapa komputer fisik atau virtual. Gunakan templat ini untuk mengaktifkan layanan kluster big data untuk diintegrasikan dengan Direktori Aktif. Layanan penting misi seperti instans master SQL Server dan node nama HDFS disebarkan dalam konfigurasi yang sangat tersedia.
openshift-dev-test Sebarkan Kluster Big Data SQL Server pada kluster Red Hat OpenShift untuk pengembangan dan pengujian.

Diperkenalkan di SQL Server 2019 CU 5.
openshift-prod Sebarkan Kluster Big Data SQL Server dengan ketersediaan tinggi pada kluster Red Hat OpenShift.

Diperkenalkan di SQL Server 2019 CU 5.

Anda dapat menyebarkan kluster big data dengan menjalankan azdata bdc create. Ini meminta Anda untuk memilih salah satu konfigurasi default lalu memandu Anda melalui penyebaran.

Saat pertama kali menjalankan Azure Data CLI (azdata) Anda harus menyertakan --accept-eula=yes untuk menerima perjanjian lisensi pengguna akhir (EULA).

azdata bdc create --accept-eula=yes

Dalam skenario ini, Anda diminta untuk pengaturan apa pun yang bukan bagian dari konfigurasi default, seperti kata sandi.

Penting

Nama default kluster big data adalah mssql-cluster. Hal ini penting untuk diketahui untuk menjalankan salah kubectl satu perintah yang menentukan namespace Layanan Kubernetes dengan -n parameter .

Konfigurasi kustom

Dimungkinkan juga untuk menyesuaikan penyebaran Anda untuk mengakomodasi beban kerja yang anda rencanakan untuk dijalankan. Anda tidak dapat mengubah skala (jumlah replika) atau pengaturan penyimpanan untuk layanan kluster big data pasca penyebaran, jadi Anda harus merencanakan konfigurasi penyebaran dengan hati-hati untuk menghindari masalah kapasitas. Untuk menyesuaikan penyebaran Anda, ikuti langkah-langkah berikut:

  1. Mulailah dengan salah satu profil penyebaran standar yang cocok dengan lingkungan Kubernetes Anda. Anda dapat menggunakan azdata bdc config list perintah untuk mencantumkannya:

    azdata bdc config list
    
  2. Untuk menyesuaikan penyebaran Anda, buat salinan profil penyebaran dengan azdata bdc config init perintah . Misalnya, perintah berikut membuat salinan aks-dev-test file konfigurasi penyebaran di direktori target bernama custom:

    azdata bdc config init --source aks-dev-test --target custom
    

    Tip

    --target menentukan direktori yang berisi file konfigurasi, bdc.json dan control.json, berdasarkan --source parameter .

  3. Untuk menyesuaikan pengaturan di profil konfigurasi penyebaran, Anda dapat mengedit file konfigurasi penyebaran di alat yang baik untuk mengedit file JSON, seperti Visual Studio Code. Untuk otomatisasi skrip, Anda juga dapat mengedit profil penyebaran kustom menggunakan azdata bdc config perintah . Misalnya, perintah berikut mengubah profil penyebaran kustom untuk mengubah nama kluster yang disebarkan dari default (mssql-cluster) menjadi test-cluster:

    azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
    

    Tip

    Anda juga dapat meneruskan nama kluster pada waktu penyebaran menggunakan parameter --name untuk azdata create bdc perintah. Parameter dalam perintah lebih diutamakan daripada nilai dalam file konfigurasi.

    Alat yang berguna untuk menemukan jalur JSON adalah JSONPath Online Evaluator.

    Selain meneruskan pasangan kunci-nilai, Anda juga dapat memberikan nilai JSON sebaris atau meneruskan file patch JSON. Untuk informasi selengkapnya, lihat Mengonfigurasi pengaturan penyebaran untuk sumber daya dan layanan Kluster Big Data.

  4. Teruskan file konfigurasi kustom ke azdata bdc create. Perhatikan bahwa Anda harus mengatur variabel lingkungan yang diperlukan, jika tidak, terminal akan meminta nilai:

    azdata bdc create --config-profile custom --accept-eula yes
    

Peringatan

Parameter imagePullPolicy diperlukan untuk diatur sebagai "Always" dalam profil penyebaran control.json file.

Untuk informasi selengkapnya tentang struktur file konfigurasi penyebaran, lihat Referensi file konfigurasi penyebaran. Untuk contoh konfigurasi lainnya, lihat Mengonfigurasi pengaturan penyebaran untuk Kluster Big Data.

Variabel lingkungan

Variabel lingkungan berikut digunakan untuk pengaturan keamanan yang tidak disimpan dalam file konfigurasi penyebaran. Perhatikan bahwa pengaturan Docker kecuali kredensial dapat diatur dalam file konfigurasi.

Variabel lingkungan Persyaratan Deskripsi
AZDATA_USERNAME Wajib diisi Nama pengguna untuk administrator Kluster Big Data SQL Server. Login sysadmin dengan nama yang sama dibuat dalam instans master SQL Server. Sebagai praktik terbaik keamanan, sa akun dinonaktifkan.

Dimulai dengan SQL Server 2019 (15.x) CU 5, saat Anda menyebarkan kluster baru dengan autentikasi dasar semua titik akhir termasuk penggunaan AZDATA_USERNAME gateway dan AZDATA_PASSWORD. Titik akhir pada kluster yang ditingkatkan ke CU 5 terus digunakan root sebagai nama pengguna untuk menyambungkan ke titik akhir gateway. Perubahan ini tidak berlaku untuk penyebaran menggunakan autentikasi Direktori Aktif. Lihat Kredensial untuk mengakses layanan melalui titik akhir gateway dalam catatan rilis.
AZDATA_PASSWORD Wajib Kata sandi untuk akun pengguna yang dibuat di atas. Pada kluster yang disebarkan sebelum SQL Server 2019 CU5, kata sandi yang sama digunakan untuk root pengguna, untuk mengamankan gateway Knox dan HDFS.
ACCEPT_EULA Diperlukan untuk penggunaan pertama Azure Data CLI (azdata) Atur ke "ya". Saat diatur sebagai variabel lingkungan, itu menerapkan EULA ke SQL Server dan Azure Data CLI (azdata). Jika tidak diatur sebagai variabel lingkungan, Anda dapat menyertakan --accept-eula=yes dalam penggunaan pertama perintah Azure Data CLI (azdata).
DOCKER_USERNAME Opsional Nama pengguna untuk mengakses gambar kontainer jika mereka disimpan di repositori privat. Lihat topik Penyebaran offline untuk detail selengkapnya tentang cara menggunakan repositori Docker privat untuk penyebaran kluster big data.
DOCKER_PASSWORD Opsional Kata sandi untuk mengakses repositori privat di atas.

Variabel lingkungan ini harus diatur sebelum memanggil azdata bdc create. Jika ada variabel yang tidak diatur, Anda akan diminta untuk itu.

Contoh berikut menunjukkan cara mengatur variabel lingkungan untuk Linux (bash) dan Windows (PowerShell):

export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>

Catatan

Pada kluster yang disebarkan sebelum SQL Server 2019 CU 5, Anda harus menggunakan root pengguna untuk gateway Knox dengan kata sandi di atas. root adalah satu-satunya pengguna yang didukung untuk dalam autentikasi dasar ini (nama pengguna/kata sandi).

Dimulai dengan SQL Server 2019 (15.x) CU 5, saat Anda menyebarkan kluster baru dengan autentikasi dasar semua titik akhir termasuk penggunaan AZDATA_USERNAME gateway dan AZDATA_PASSWORD. Titik akhir pada kluster yang ditingkatkan ke CU 5 terus digunakan root sebagai nama pengguna untuk menyambungkan ke titik akhir gateway. Perubahan ini tidak berlaku untuk penyebaran menggunakan autentikasi Direktori Aktif. Lihat Kredensial untuk mengakses layanan melalui titik akhir gateway dalam catatan rilis.

Untuk menyambungkan ke SQL Server dengan autentikasi dasar, gunakan nilai yang sama dengan variabel lingkungan AZDATA_USERNAME dan AZDATA_PASSWORD.

Setelah mengatur variabel lingkungan, Anda harus menjalankan azdata bdc create untuk memicu penyebaran. Contoh ini menggunakan profil konfigurasi kluster yang dibuat di atas:

azdata bdc create --config-profile custom --accept-eula yes

Harap perhatikan panduan berikut:

  • Pastikan Anda membungkus kata sandi dalam tanda kutip ganda jika berisi karakter khusus. Anda dapat mengatur AZDATA_PASSWORD ke apa pun yang Anda suka, tetapi pastikan kata sandi cukup kompleks dan tidak menggunakan !karakter , & atau ' . Perhatikan bahwa pembatas tanda kutip ganda hanya berfungsi dalam perintah bash.
  • Login AZDATA_USERNAME adalah administrator sistem pada instans master SQL Server yang dibuat selama penyiapan. Setelah membuat kontainer SQL Server Anda, AZDATA_PASSWORD variabel lingkungan yang Anda tentukan dapat ditemukan dengan menjalankan echo $AZDATA_PASSWORD dalam kontainer. Untuk tujuan keamanan, ubah kata sandi sebagai praktik terbaik.

Memasang tanpa pengawas

Untuk penyebaran tanpa pengawas, Anda harus mengatur semua variabel lingkungan yang diperlukan, menggunakan file konfigurasi, dan memanggil azdata bdc create perintah dengan --accept-eula yes parameter . Contoh di bagian sebelumnya menunjukkan sintaks untuk penginstalan tanpa pengawas.

Memantau penyebaran

Selama bootstrap kluster, jendela perintah klien mengembalikan status penyebaran. Selama proses penyebaran, Anda akan melihat serangkaian pesan di mana ia menunggu pod pengontrol:

Waiting for cluster controller to start.

Dalam 15 hingga 30 menit, Anda harus diberi tahu bahwa pod pengontrol sedang berjalan:

Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.

Penting

Seluruh penyebaran dapat memakan waktu lama karena waktu yang diperlukan untuk mengunduh gambar kontainer untuk komponen kluster big data. Namun, seharusnya tidak memakan waktu beberapa jam. Jika Anda mengalami masalah dengan penyebaran Anda, lihat Memantau dan memecahkan masalah Kluster Big Data SQL Server.

Ketika penyebaran selesai, output memberi tahu Anda tentang keberhasilan:

Cluster deployed successfully.

Tip

Nama default untuk kluster big data yang disebarkan adalah mssql-cluster kecuali dimodifikasi oleh konfigurasi kustom.

Mengambil titik akhir

Setelah skrip penyebaran berhasil diselesaikan, Anda dapat memperoleh alamat titik akhir eksternal untuk kluster big data menggunakan langkah-langkah berikut.

  1. Setelah penyebaran, temukan alamat IP titik akhir pengontrol baik dari output standar penyebaran atau dengan melihat output EXTERNAL-IP dari perintah berikut kubectl :

    kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
    

    Tip

    Jika Anda tidak mengubah nama default selama penyebaran, gunakan -n mssql-cluster di perintah sebelumnya. mssql-cluster adalah nama default untuk kluster big data.

  2. Masuk ke kluster big data dengan login azdata. Atur --endpoint parameter ke alamat IP eksternal titik akhir pengontrol.

    azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
    

    Tentukan nama pengguna dan kata sandi yang Anda konfigurasi untuk admin kluster big data (AZDATA_USERNAME dan AZDATA_PASSWORD) selama penyebaran.

    Tip

    Jika Anda adalah administrator kluster Kubernetes dan memiliki akses ke file konfigurasi kluster (file konfigurasi kube), Anda dapat mengonfigurasi konteks saat ini untuk menunjuk ke kluster Kubernetes yang ditargetkan. Dalam hal ini, Anda dapat masuk dengan azdata login -n <namespaceName>, di mana namespace adalah nama kluster big data. Anda akan dimintai kredensial jika tidak ditentukan dalam perintah masuk.

  3. Jalankan daftar titik akhir azdata bdc untuk mendapatkan daftar dengan deskripsi setiap titik akhir dan alamat IP dan nilai port yang sesuai.

    azdata bdc endpoint list -o table
    

    Daftar berikut ini memperlihatkan contoh output dari perintah ini:

    Description                                             Endpoint                                                   Ip              Name               Port    Protocol
    ------------------------------------------------------  ---------------------------------------------------------  --------------  -----------------  ------  ----------
    Gateway to access HDFS files, Spark                     https://11.111.111.111:30443                               11.111.111.111  gateway            30443   https
    Spark Jobs Management and Monitoring Dashboard          https://11.111.111.111:30443/gateway/default/sparkhistory  11.111.111.111  spark-history      30443   https
    Spark Diagnostics and Monitoring Dashboard              https://11.111.111.111:30443/gateway/default/yarn          11.111.111.111  yarn-ui            30443   https
    Application Proxy                                       https://11.111.111.111:30778                               11.111.111.111  app-proxy          30778   https
    Management Proxy                                        https://11.111.111.111:30777                               11.111.111.111  mgmtproxy          30777   https
    Log Search Dashboard                                    https://11.111.111.111:30777/kibana                        11.111.111.111  logsui             30777   https
    Metrics Dashboard                                       https://11.111.111.111:30777/grafana                       11.111.111.111  metricsui          30777   https
    Cluster Management Service                              https://11.111.111.111:30080                               11.111.111.111  controller         30080   https
    SQL Server Master Instance Front-End                    11.111.111.111,31433                                       11.111.111.111  sql-server-master  31433   tcp
    HDFS File System Proxy                                  https://11.111.111.111:30443/gateway/default/webhdfs/v1    11.111.111.111  webhdfs            30443   https
    Proxy for running Spark statements, jobs, applications  https://11.111.111.111:30443/gateway/default/livy/v1       11.111.111.111  livy               30443   https
    

Anda juga bisa mendapatkan semua titik akhir layanan yang disebarkan untuk kluster dengan menjalankan perintah berikut kubectl :

kubectl get svc -n <your-big-data-cluster-name>

Memverifikasi status kluster

Setelah penyebaran, Anda dapat memeriksa status kluster dengan perintah azdata bdc status show .

azdata bdc status show

Tip

Untuk menjalankan perintah status, Anda harus terlebih dahulu masuk dengan azdata login perintah , yang diperlihatkan di bagian titik akhir sebelumnya.

Berikut ini memperlihatkan contoh output dari perintah ini:

Bdc: ready                                                                                                                                                                                                          Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Services: ready                                                                                                                                                                                                     Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Servicename    State    Healthstatus    Details

 sql            ready    healthy         -
 hdfs           ready    healthy         -
 spark          ready    healthy         -
 control        ready    healthy         -
 gateway        ready    healthy         -
 app            ready    healthy         -


 Sql Services: ready                                                                                                                                                                                                 Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 master          ready    healthy         StatefulSet master is healthy
 compute-0       ready    healthy         StatefulSet compute-0 is healthy
 data-0          ready    healthy         StatefulSet data-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy


 Hdfs Services: ready                                                                                                                                                                                                Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 nmnode-0        ready    healthy         StatefulSet nmnode-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy
 sparkhead       ready    healthy         StatefulSet sparkhead is healthy


 Spark Services: ready                                                                                                                                                                                               Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 sparkhead       ready    healthy         StatefulSet sparkhead is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy


 Control Services: ready                                                                                                                                                                                             Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 controldb       ready    healthy         -
 control         ready    healthy         -
 metricsdc       ready    healthy         DaemonSet metricsdc is healthy
 metricsui       ready    healthy         ReplicaSet metricsui is healthy
 metricsdb       ready    healthy         StatefulSet metricsdb is healthy
 logsui          ready    healthy         ReplicaSet logsui is healthy
 logsdb          ready    healthy         StatefulSet logsdb is healthy
 mgmtproxy       ready    healthy         ReplicaSet mgmtproxy is healthy


 Gateway Services: ready                                                                                                                                                                                             Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 gateway         ready    healthy         StatefulSet gateway is healthy


 App Services: ready                                                                                                                                                                                                 Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 appproxy        ready    healthy         ReplicaSet appproxy is healthy

Anda juga bisa mendapatkan status yang lebih rinci dengan perintah berikut:

azdata bdc control status show

Contoh output:

Control: ready                                                                                                                                                                                                      Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Resources: ready                                                                                                                                                                                                    Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 controldb       ready    healthy         -
 control         ready    healthy         -
 metricsdc       ready    healthy         DaemonSet metricsdc is healthy
 metricsui       ready    healthy         ReplicaSet metricsui is healthy
 metricsdb       ready    healthy         StatefulSet metricsdb is healthy
 logsui          ready    healthy         ReplicaSet logsui is healthy
 logsdb          ready    healthy         StatefulSet logsdb is healthy
 mgmtproxy       ready    healthy         ReplicaSet mgmtproxy is healthy
  • azdata bdc sql status show mengembalikan status kesehatan untuk semua sumber daya yang memiliki layanan SQL Server
azdata bdc sql status show

Contoh output:

Sql: ready                                                                                                                                                                                                          Health Status:  healthy
 ===========================================================================================================================================================================================================================================
 Resources: ready                                                                                                                                                                                                    Health Status:  healthy
 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
 Resourcename    State    Healthstatus    Details

 master          ready    healthy         StatefulSet master is healthy
 compute-0       ready    healthy         StatefulSet compute-0 is healthy
 data-0          ready    healthy         StatefulSet data-0 is healthy
 storage-0       ready    healthy         StatefulSet storage-0 is healthy

Penting

Saat menggunakan --all parameter output dari perintah ini berisi URL ke dasbor Kibana dan Grafana untuk analisis yang lebih rinci.

Selain menggunakan Azure Data CLI (azdata), Anda juga dapat menggunakan Azure Data Studio untuk menemukan titik akhir dan informasi status. Untuk informasi selengkapnya tentang melihat status kluster dengan Azure Data CLI (azdata) dan Azure Data Studio, lihat Cara melihat status kluster big data.

Menyambungkan ke kluster

Untuk informasi selengkapnya tentang cara menyambungkan ke kluster big data, lihat Koneksi ke kluster big data SQL Server dengan Azure Data Studio.

Langkah berikutnya

Untuk mempelajari selengkapnya tentang penyebaran Kluster Big Data SQL Server, lihat sumber daya berikut ini: