Bagikan melalui


Referensi konfigurasi komputasi

Artikel ini menjelaskan semua pengaturan konfigurasi yang tersedia di UI Buat Komputasi. Sebagian besar pengguna membuat komputasi menggunakan kebijakan yang ditetapkan, yang membatasi pengaturan yang dapat dikonfigurasi. Jika Anda tidak melihat pengaturan tertentu di UI Anda, itu karena kebijakan yang Anda pilih tidak memungkinkan Anda mengonfigurasi pengaturan tersebut.

Konfigurasi dan alat manajemen yang dijelaskan dalam artikel ini berlaku untuk komputasi semua tujuan dan pekerjaan. Untuk pertimbangan selengkapnya tentang mengonfigurasi komputasi pekerjaan, lihat Menggunakan komputasi Azure Databricks dengan pekerjaan Anda.

Kebijakan

Kebijakan adalah sekumpulan aturan yang digunakan untuk membatasi opsi konfigurasi yang tersedia untuk pengguna saat mereka membuat komputasi. Jika pengguna tidak memiliki hak pembuatan kluster Yang tidak dibatasi, pengguna hanya dapat membuat komputasi menggunakan kebijakan yang diberikan.

Untuk membuat komputasi sesuai dengan kebijakan, pilih kebijakan dari menu drop-down Kebijakan .

Secara default, semua pengguna memiliki akses ke kebijakan Komputasi Pribadi, memungkinkan mereka membuat sumber daya komputasi komputer tunggal. Jika Anda memerlukan akses ke Komputasi Pribadi atau kebijakan tambahan apa pun, hubungi admin ruang kerja Anda.

Komputasi simpul tunggal atau multi-simpul

Bergantung pada kebijakan, Anda dapat memilih antara membuat komputasi simpul tunggal atau komputasi Multi node .

Komputasi simpul tunggal ditujukan untuk pekerjaan yang menggunakan sejumlah kecil data atau beban kerja yang tidak terdistribusi seperti pustaka pembelajaran mesin simpul tunggal. Komputasi multi-simpul harus digunakan untuk pekerjaan yang lebih besar dengan beban kerja terdistribusi.

Properti simpul tunggal

Komputasi simpul tunggal memiliki properti berikut:

  • Menjalankan Spark secara lokal.
  • Driver bertindak sebagai master dan pekerja, tanpa simpul pekerja.
  • Menelurkan satu utas eksekutor per inti logis dalam komputasi, dikurangi 1 inti untuk driver.
  • Menyimpan semua stderroutput log , stdout, dan log4j di log driver.
  • Tidak dapat dikonversi ke komputasi multi-simpul.

Memilih simpul tunggal atau multi

Pertimbangkan kasus penggunaan Anda saat memutuskan antara komputasi tunggal atau multi-simpul:

  • Pemrosesan data skala besar akan menghabiskan sumber daya pada satu komputasi simpul. Untuk beban kerja ini, Databricks merekomendasikan penggunaan komputasi multi-simpul.

  • Komputasi simpul tunggal tidak dirancang untuk dibagikan. Untuk menghindari konflik sumber daya, Databricks merekomendasikan penggunaan komputasi multi-simpul saat komputasi harus dibagikan.

  • Komputasi multi-simpul tidak dapat diskalakan ke 0 pekerja. Gunakan komputasi simpul tunggal sebagai gantinya.

  • Komputasi simpul tunggal tidak kompatibel dengan isolasi proses.

  • Penjadwalan GPU tidak diaktifkan pada komputasi simpul tunggal.

  • Pada komputasi simpul tunggal, Spark tidak dapat membaca file Parquet dengan kolom UDT. Pesan kesalahan berikut menghasilkan:

    The Spark driver has stopped unexpectedly and is restarting. Your notebook will be automatically reattached.
    

    Untuk mengatasi masalah ini, nonaktifkan pembaca Parquet bawaan:

    spark.conf.set("spark.databricks.io.parquet.nativeReader.enabled", False)
    

Mode akses

Mode akses adalah fitur keamanan yang menentukan siapa yang dapat menggunakan komputasi dan data apa yang dapat mereka akses melalui komputasi. Setiap komputasi di Azure Databricks memiliki mode akses.

Databricks merekomendasikan agar Anda menggunakan mode akses bersama untuk semua beban kerja. Hanya gunakan mode akses pengguna tunggal jika fungsionalitas yang diperlukan tidak didukung oleh mode akses bersama.

Mode Akses Terlihat oleh pengguna Dukungan UC Bahasa yang Didukung Catatan
Satu pengguna Selalu Ya Python, SQL, Scala, R Dapat ditetapkan ke dan digunakan oleh satu pengguna. Disebut sebagai Mode akses yang ditetapkan di beberapa ruang kerja.
Bersama Selalu (Diperlukan paket premium) Ya Python (pada Databricks Runtime 11.3 LTS ke atas), SQL, Scala (pada komputasi yang mendukung Unity Catalog menggunakan Databricks Runtime 13.3 LTS ke atas) Dapat digunakan oleh beberapa pengguna dengan isolasi data di antara pengguna.
Tidak Ada Isolasi Yang Dibagikan Admin dapat menyembunyikan mode akses ini dengan memberlakukan isolasi pengguna di halaman pengaturan admin. No Python, SQL, Scala, R Ada pengaturan tingkat akun terkait untuk komputasi Tanpa Isolasi Bersama.
Kustom Tersembunyi (Untuk semua komputasi baru) No Python, SQL, Scala, R Opsi ini hanya ditampilkan jika Anda memiliki komputasi yang ada tanpa mode akses tertentu.

Anda dapat meningkatkan komputasi yang ada untuk memenuhi persyaratan Katalog Unity dengan mengatur mode aksesnya ke Pengguna Tunggal atau Bersama.

Catatan

Di Databricks Runtime 13.3 LTS ke atas, skrip dan pustaka init didukung pada semua mode akses. Persyaratan dan dukungan bervariasi. Lihat Di mana skrip init dapat diinstal? dan Pustaka cakupan kluster.

Versi Databricks Runtime

Databricks Runtime adalah kumpulan komponen inti yang berjalan pada komputasi Anda. Pilih runtime menggunakan menu drop-down Versi Runtime Databricks. Untuk detail tentang versi Databricks Runtime tertentu, lihat Versi dan kompatibilitas catatan rilis Databricks Runtime. Semua versi menyertakan Apache Spark. Databricks merekomendasikan hal berikut:

  • Untuk komputasi serba guna, gunakan versi terbaru untuk memastikan Anda memiliki pengoptimalan terbaru dan kompatibilitas terbaru antara kode Anda dan paket yang telah dimuat sebelumnya.
  • Untuk komputasi pekerjaan yang menjalankan beban kerja operasional, pertimbangkan untuk menggunakan versi Runtime Databricks Dukungan Jangka Panjang (LTS). Menggunakan versi LTS akan memastikan Anda tidak mengalami masalah kompatibilitas dan dapat menguji beban kerja Anda secara menyeluruh sebelum melakukan peningkatan.
  • Untuk kasus penggunaan ilmu data dan pembelajaran mesin, pertimbangkan versi ML Runtime Databricks.

Gunakan akselerasi Photon

Photon diaktifkan secara default pada komputasi yang menjalankan Databricks Runtime 9.1 LTS ke atas.

Untuk mengaktifkan atau menonaktifkan akselerasi Photon, pilih kotak centang Gunakan Akselerasi Foton. Untuk mempelajari selengkapnya tentang Photon, lihat Apa itu Photon?.

Jenis simpul pekerja dan driver

Komputasi terdiri dari satu simpul driver dan nol atau lebih simpul pekerja. Anda dapat memilih jenis instans penyedia cloud terpisah untuk node driver dan pekerja, meskipun secara default node driver menggunakan jenis instans yang sama dengan node pekerja. Keluarga yang berbeda dari jenis instans sesuai dengan kasus penggunaan yang berbeda, seperti beban kerja intensif memori atau komputasi intensif.

Anda juga dapat memilih kumpulan untuk digunakan sebagai simpul pekerja atau driver. Lihat Apa itu kumpulan Azure Databricks?.

Jenis pekerja

Dalam komputasi multi-simpul, simpul pekerja menjalankan pelaksana Spark dan layanan lain yang diperlukan untuk komputasi yang berfungsi dengan baik. Saat Anda mendistribusikan beban kerja Anda dengan Spark, semua pemrosesan terdistribusi terjadi pada simpul pekerja. Azure Databricks menjalankan satu pelaksana per simpul pekerja. Oleh karena itu, istilah pelaksana dan pekerja digunakan secara bergantian dalam konteks arsitektur Databricks.

Tip

Untuk menjalankan pekerjaan Spark, Anda setidaknya membutuhkan satu node worker. Jika komputasi memiliki nol pekerja, Anda dapat menjalankan perintah non-Spark pada simpul driver, tetapi perintah Spark akan gagal.

Alamat IP simpul pekerja

Azure Databricks meluncurkan simpul pekerja dengan masing-masing dua alamat IP privat. Alamat IP privat utama node menghosting lalu lintas internal Azure Databricks. Alamat IP privat sekunder digunakan oleh kontainer Spark untuk komunikasi intra-kluster. Model ini memungkinkan Azure Databricks untuk menyediakan isolasi antara beberapa komputasi di ruang kerja yang sama.

Jenis driver

Simpul driver mempertahankan informasi status semua buku catatan yang dilampirkan ke komputasi. Simpul driver juga mempertahankan SparkContext, menginterpretasikan semua perintah yang Anda jalankan dari buku catatan atau pustaka pada komputasi, dan menjalankan master Apache Spark yang berkoordinasi dengan pelaksana Spark.

Nilai default dari tipe node driver sama dengan tipe node pekerja. Anda dapat memilih jenis node driver yang lebih besar dengan lebih banyak memori jika Anda berencana untuk collect() banyak data dari pekerja Spark dan menganalisisnya di notebook.

Tip

Karena node driver mempertahankan semua informasi status notebook yang terpasang, pastikan untuk melepaskan notebook yang tidak digunakan dari node driver.

Jenis instans GPU

Untuk tugas yang menantang secara komputasi yang menuntut performa tinggi, seperti yang terkait dengan pembelajaran mendalam, Azure Databricks mendukung komputasi yang dipercepat dengan unit pemrosesan grafis (GPU). Untuk informasi selengkapnya, lihat Komputasi berkemampuan GPU.

Komputer virtual komputasi rahasia Azure

Jenis komputer virtual komputasi rahasia Azure mencegah akses tidak sah ke data saat digunakan, termasuk dari operator cloud. Jenis VM ini bermanfaat bagi industri dan wilayah yang sangat diatur, serta bisnis dengan data sensitif di cloud. Untuk informasi selengkapnya tentang komputasi rahasia Azure, lihat Komputasi rahasia Azure.

Untuk menjalankan beban kerja Anda menggunakan VM komputasi rahasia Azure, pilih dari jenis VM seri DC atau EC di dropdown simpul pekerja dan driver. Lihat Opsi Azure Confidential VM.

Instans spot

Untuk menghemat biaya, Anda dapat memilih untuk menggunakan instans spot, juga dikenal sebagai VM Azure Spot dengan mencentang kotak centang Instans spot.

Mengonfigurasi spot

Instans pertama akan selalu sesuai permintaan (node driver selalu sesuai permintaan) dan instans berikutnya akan menjadi instans spot.

Jika instans dikeluarkan karena tidak tersedia, Azure Databricks akan mencoba memperoleh instans spot baru untuk menggantikan instans yang dikeluarkan. Jika instans spot tidak dapat diperoleh, instans sesuai permintaan disebarkan untuk menggantikan instans yang dikeluarkan. Selain itu, ketika simpul baru ditambahkan ke komputasi yang ada, Azure Databricks akan mencoba memperoleh instans spot untuk simpul tersebut.

Aktifkan autoscaling

Saat Mengaktifkan penskalaan otomatis dicentang, Anda dapat memberikan jumlah minimum dan maksimum pekerja untuk komputasi. Databricks kemudian memilih jumlah pekerja yang sesuai yang diperlukan untuk menjalankan pekerjaan Anda.

Untuk mengatur jumlah minimum dan maksimum pekerja yang akan diskalakan secara otomatis antara komputasi Anda, gunakan bidang Pekerja min dan Pekerja maks di samping dropdown Jenis pekerja.

Jika Anda tidak mengaktifkan penskalaan otomatis, Anda akan memasukkan jumlah pekerja tetap di bidang Pekerja di samping dropdown Jenis pekerja.

Catatan

Saat komputasi berjalan, halaman detail komputasi menampilkan jumlah pekerja yang dialokasikan. Anda dapat membandingkan jumlah pekerja yang dialokasikan dengan konfigurasi pekerja dan melakukan penyesuaian sesuai kebutuhan.

Manfaat penskalaan otomatis

Dengan autoscalling, Azure Databricks secara dinamis mengalokasikan ulang pekerja ke akun untuk karakteristik pekerjaan Anda. Bagian-bagian tertentu dari alur Anda mungkin lebih menuntut komputasi daripada yang lain, dan Databricks secara otomatis menambahkan pekerja tambahan selama fase pekerjaan Anda ini (dan menghapusnya ketika mereka tidak lagi diperlukan).

Penskalaan otomatis memudahkan untuk mencapai pemanfaatan tinggi karena Anda tidak perlu menyediakan komputasi agar sesuai dengan beban kerja. Ini berlaku terutama untuk beban kerja yang persyaratannya berubah dari waktu ke waktu (seperti menjelajahi himpunan data selama sehari), tetapi juga dapat berlaku untuk beban kerja satu kali lebih pendek yang persyaratan provisinya tidak diketahui. Autoscaling dengan demikian menawarkan dua keuntungan:

  • Beban kerja dapat berjalan lebih cepat dibandingkan dengan komputasi yang kurang disediakan berukuran konstan.
  • Penskalaan otomatis dapat mengurangi biaya keseluruhan dibandingkan dengan komputasi berukuran statis.

Tergantung pada ukuran konstanta komputasi dan beban kerja, penskalaan otomatis memberi Anda satu atau kedua manfaat ini secara bersamaan. Ukuran komputasi dapat di bawah jumlah minimum pekerja yang dipilih saat penyedia cloud mengakhiri instans. Dalam hal ini, Azure Databricks terus mencoba untuk menyediakan kembali instans untuk mempertahankan jumlah minimum pekerja.

Catatan

Penskalaan otomatis tidak tersedia untuk pekerjaan spark-submit.

Catatan

Penskalaan otomatis komputasi memiliki batasan penskalaan ukuran kluster untuk beban kerja Streaming Terstruktur. Databricks merekomendasikan penggunaan Live Delta Tables dengan Penskalaan Otomatis yang Disempurnakan untuk beban kerja streaming. Lihat Mengoptimalkan pemanfaatan kluster alur Delta Live Tables dengan Penskalaan Otomatis yang Ditingkatkan.

Cara kerja penskalaan otomatis

Ruang kerja dalam paket harga Premium dan Enterprise menggunakan penskalaan otomatis yang dioptimalkan. Ruang kerja pada paket harga standar menggunakan penskalaan otomatis standar.

Autoscaling yang dioptimalkan memiliki karakteristik berikut:

  • Skalakan dari min ke maks dalam 2 langkah.
  • Dapat menurunkan skala, bahkan jika komputasi tidak menganggur, dengan melihat status file acak.
  • Skala turun berdasarkan persentase node saat ini.
  • Pada komputasi pekerjaan, menurunkan skala jika komputasi kurang digunakan selama 40 detik terakhir.
  • Pada komputasi serba guna, menurunkan skala jika komputasi kurang digunakan selama 150 detik terakhir.
  • spark.databricks.aggressiveWindowDownS Properti konfigurasi Spark menentukan dalam hitungan detik seberapa sering komputasi membuat keputusan penurunan skala. Meningkatkan nilai menyebabkan komputasi diturunkan lebih lambat. Nilai maksimumnya adalah 600.

Penskalaan otomatis standar digunakan di ruang kerja paket standar. Autoscaling standar memiliki karakteristik berikut:

  • Dimulai dengan menambahkan 8 simpul. Kemudian meningkatkan skala secara eksponensial, mengambil langkah sebanyak yang diperlukan untuk mencapai maks.
  • Menurunkan skala ketika 90% simpul tidak sibuk selama 10 menit dan komputasi telah menganggur setidaknya selama 30 detik.
  • Menurunkan skala secara eksponensial, dimulai dengan 1 node.

Penskalakan otomatis dengan kumpulan

Jika Anda melampirkan komputasi ke kumpulan, pertimbangkan hal berikut:

  • Pastikan ukuran komputasi yang diminta kurang dari atau sama dengan jumlah minimum instans diam di kumpulan. Jika lebih besar, waktu mulai komputasi akan setara dengan komputasi yang tidak menggunakan kumpulan.
  • Pastikan ukuran komputasi maksimum kurang dari atau sama dengan kapasitas maksimum kumpulan. Jika lebih besar, pembuatan komputasi akan gagal.

Contoh autoscaling

Jika Anda mengonfigurasi ulang komputasi statis ke skala otomatis, Azure Databricks segera mengubah ukuran komputasi dalam batas minimum dan maksimum lalu mulai penskalaan otomatis. Sebagai contoh, tabel berikut menunjukkan apa yang terjadi pada komputasi dengan ukuran awal tertentu jika Anda mengonfigurasi ulang komputasi untuk skala otomatis antara 5 dan 10 simpul.

Ukuran awal 'Ukuran setelah konfigurasi ulang
6 6
12 10
3 5

Aktifkan penskalan otomatis penyimpanan lokal

Seringkali sulit untuk memperkirakan berapa banyak ruang disk yang akan diambil pekerjaan tertentu. Untuk menyelamatkan Anda agar tidak perlu memperkirakan berapa banyak gigabyte disk terkelola untuk dilampirkan ke komputasi Anda pada waktu pembuatan, Azure Databricks secara otomatis memungkinkan penskalaan otomatis penyimpanan lokal pada semua komputasi Azure Databricks.

Dengan penskalaan otomatis penyimpanan lokal, Azure Databricks memantau jumlah ruang disk kosong yang tersedia pada pekerja Spark komputasi Anda. Jika pekerja mulai kehabisan disk, Azure Databricks otomatis melampirkan disk terkelola baru ke pekerja sebelum ruang disk habis. Disk dilampirkan hingga batas 5 TB dari total ruang disk per mesin virtual (termasuk penyimpanan lokal awal mesin virtual).

Disk terkelola yang dilampirkan ke mesin virtual terlepas hanya ketika mesin virtual dikembalikan ke Azure. Artinya, disk terkelola tidak pernah terlepas dari komputer virtual selama disk tersebut merupakan bagian dari komputasi yang sedang berjalan. Untuk menurunkan skala penggunaan disk terkelola, Azure Databricks merekomendasikan penggunaan fitur ini dalam komputasi yang dikonfigurasi dengan komputasi penskalaan otomatis atau penghentian otomatis.

Enkripsi disk lokal

Penting

Fitur ini ada di Pratinjau Publik.

Beberapa jenis instans yang Anda gunakan untuk menjalankan komputasi mungkin memiliki disk yang terpasang secara lokal. Azure Databricks dapat menyimpan data acak atau data sementara pada disk yang dilampirkan secara lokal ini. Untuk memastikan bahwa semua data tidak aktif dienkripsi untuk semua jenis penyimpanan, termasuk data acak yang disimpan sementara pada disk lokal komputasi, Anda dapat mengaktifkan enkripsi disk lokal.

Penting

Beban kerja Anda mungkin berjalan lebih lambat karena dampak kinerja membaca dan menulis data terenkripsi ke dan dari volume lokal.

Ketika enkripsi disk lokal diaktifkan, Azure Databricks menghasilkan kunci enkripsi secara lokal yang unik untuk setiap simpul komputasi dan digunakan untuk mengenkripsi semua data yang disimpan di disk lokal. Cakupan kunci bersifat lokal untuk setiap simpul komputasi dan dihancurkan bersama dengan simpul komputasi itu sendiri. Selama masa pakainya, kunci berada dalam memori untuk enkripsi dan dekripsi dan disimpan dienkripsi pada disk.

Untuk mengaktifkan enkripsi disk lokal, Anda harus menggunakan API Kluster. Selama pembuatan atau pengeditan komputasi, atur enable_local_disk_encryption ke true.

Penghentian otomatis

Anda dapat mengatur penghentian otomatis untuk komputasi. Selama pembuatan komputasi, tentukan periode tidak aktif dalam hitungan menit setelah komputasi dihentikan.

Jika perbedaan antara waktu saat ini dan perintah terakhir yang dijalankan pada komputasi lebih dari periode tidak aktif yang ditentukan, Azure Databricks secara otomatis mengakhiri komputasi tersebut. Untuk informasi selengkapnya tentang penghentian komputasi, lihat Mengakhiri komputasi.

Tag

Tag memungkinkan Anda untuk dengan mudah memantau biaya sumber daya cloud yang digunakan oleh berbagai grup di organisasi Anda. Tentukan tag sebagai pasangan kunci-nilai saat Anda membuat komputasi, dan Azure Databricks menerapkan tag ini ke sumber daya cloud seperti VM dan volume disk, serta laporan penggunaan DBU.

Untuk komputasi yang diluncurkan dari kumpulan, tag kustom hanya diterapkan ke laporan penggunaan DBU dan tidak disebarluaskan ke sumber daya cloud.

Untuk informasi terperinci tentang cara kumpulan dan jenis tag komputasi bekerja sama, lihat Memantau penggunaan menggunakan tag

Untuk menambahkan tag ke komputasi Anda:

  1. Di bagian Tag , tambahkan pasangan kunci-nilai untuk setiap tag kustom.
  2. Klik Tambahkan.

Konfigurasi Spark

Untuk menyempurnakan pekerjaan Spark, Anda dapat menyediakan properti konfigurasi Spark kustom.

  1. Pada halaman konfigurasi komputasi, klik tombol Opsi Tingkat Lanjut.

  2. Klik tab Spark.

    Konfigurasi Spark

    Di Konfigurasi Spark, masukkan properti konfigurasi sebagai satu pasangan nilai kunci per baris.

Saat Anda mengonfigurasi komputasi menggunakan API Kluster, atur properti Spark di spark_conf bidang di API kluster buat atau Perbarui API kluster.

Untuk menerapkan konfigurasi Spark pada komputasi, admin ruang kerja dapat menggunakan kebijakan komputasi.

Ambil properti konfigurasi Spark dari rahasia

Databricks merekomendasikan untuk menyimpan informasi sensitif, seperti kata sandi, secara rahasia, bukan teks biasa. Untuk mereferensikan rahasia dalam konfigurasi Spark, gunakan sintaks berikut:

spark.<property-name> {{secrets/<scope-name>/<secret-name>}}

Misalnya, untuk mengatur properti konfigurasi Spark yang dipanggil password ke nilai rahasia yang disimpan di secrets/acme_app/password:

spark.password {{secrets/acme-app/password}}

Untuk informasi selengkapnya, lihat Sintaksis untuk mereferensikan rahasia di properti konfigurasi Spark atau variabel lingkungan.

Akses SSH ke komputasi

Untuk alasan keamanan, di Azure Databricks port SSH ditutup secara default. Jika Anda ingin mengaktifkan akses SSH ke kluster Spark Anda, lihat SSH ke simpul driver.

Catatan

SSH hanya dapat diaktifkan jika ruang kerja Anda disebarkan di jaringan virtual Azure Anda sendiri.

Variabel lingkungan

Konfigurasikan variabel lingkungan kustom yang dapat Anda akses dari skrip init yang berjalan pada komputasi. Databricks juga menyediakan variabel lingkungan yang telah ditentukan sebelumnya yang dapat Anda gunakan dalam skrip init. Anda tidak dapat mengganti variabel lingkungan yang telah ditentukan sebelumnya ini.

  1. Pada halaman konfigurasi komputasi, klik tombol Opsi Tingkat Lanjut.

  2. Klik tab Spark.

  3. Atur variabel lingkungan di bidang Variabel Lingkungan.

    Bidang Variabel Lingkungan

Anda juga dapat mengatur variabel lingkungan menggunakan spark_env_vars bidang di API kluster Buat atau Perbarui API kluster.

Pengiriman log komputasi

Saat membuat komputasi, Anda dapat menentukan lokasi untuk mengirimkan log untuk simpul driver Spark, simpul pekerja, dan peristiwa. Log dikirim setiap lima menit dan diarsipkan per jam di tujuan pilihan Anda. Ketika komputasi dihentikan, Azure Databricks menjamin untuk mengirimkan semua log yang dihasilkan hingga komputasi dihentikan.

Tujuan log tergantung pada komputasi cluster_id. Jika tujuan yang ditentukan adalah dbfs:/cluster-log-delivery, log komputasi untuk 0630-191345-leap375 dikirimkan ke dbfs:/cluster-log-delivery/0630-191345-leap375.

Untuk mengonfigurasi lokasi pengiriman log:

  1. Pada halaman komputasi, klik tombol Opsi Tingkat Lanjut.
  2. Klik tab Pengelogan.
  3. Pilih jenis tujuan.
  4. Masukkan jalur log komputasi.

Catatan

Fitur ini juga tersedia di REST API. Lihat API Kluster.