Bagikan melalui


Modul 1: Membuat alur dengan Data Factory

Modul ini membutuhkan waktu 10 menit, menyerap data mentah dari penyimpanan sumber ke dalam tabel Perunggu data Lakehouse menggunakan aktivitas Salin dalam alur.

Langkah-langkah tingkat tinggi dalam modul 1 adalah sebagai berikut:

  1. Membuat alur data.
  2. Gunakan Aktivitas Salin di alur untuk memuat data sampel ke dalam data Lakehouse.

Membuat alur data

  1. Akun penyewa Microsoft Fabric dengan langganan aktif diperlukan. Buat akun gratis.

  2. Pastikan Anda memiliki Ruang Kerja yang diaktifkan Microsoft Fabric: Membuat ruang kerja.

  3. Masuk ke Power BI.

  4. Pilih ikon Power BI default di kiri bawah layar, dan beralihlah ke pengalaman Data Factory .

    Screenshot showing the selection of the Data Factory experience.

  5. Pilih Alur data dan berikan nama alur. Lalu pilih Buat.

    Screenshot of the Data Factory start page with the button to create a new data pipeline selected.

    Screenshot showing the dialog to give the new pipeline a name.

Menggunakan aktivitas Salin di alur untuk memuat data sampel ke data Lakehouse

Langkah 1: Gunakan asisten salin untuk mengonfigurasi aktivitas salin.

Pilih Salin data untuk membuka alat asisten salin.

Screenshot showing the selection of the Copy data activity from the new pipeline start page.

Langkah 2: Konfigurasikan pengaturan Anda di asisten salin.

  1. Dialog Salin data ditampilkan dengan langkah pertama, Pilih sumber data, disorot. Gulir ke bawah jika perlu ke bagian Sumber data , dan pilih jenis sumber data Azure Blob Storage . Kemudian pilih Berikutnya.

    Screenshot showing the selection of the Azure Blob Storage data source type in the copy assistant on the Choose data source tab.

  2. Pada langkah berikutnya, pilih Buat koneksi baru lalu berikan URL untuk penyimpanan blob yang menghosting data sampel yang disediakan untuk tutorial ini, di https://nyctaxisample.blob.core.windows.net/sample. Jenis autentikasi adalah Anonim. Pilih Berikutnya setelah memberikan URL.

    Screenshot showing the creation of a new Azure Blob Storage connection with the URL for the sample data in the tutorial.

  3. Langkah Koneksi ke sumber data muncul, dan awalnya, Anda melihat kesalahan Tidak dapat mencantumkan file, karena izin hanya diberikan ke folder sampel di penyimpanan blob. Berikan nama folder, sampel, dan pilih Coba Lagi.

    Screenshot showing the Unable to list files error with the folder name Sample provided.

    Catatan

    Folder penyimpanan blob peka huruf besar/kecil dan harus dalam huruf kecil.

  4. Browser penyimpanan blob muncul berikutnya. Pilih file NYC-Taxi-Green-2015-01.parquet, dan tunggu hingga pratinjau data muncul. Kemudian pilih Berikutnya.

    Screenshot showing the preview data for the NYC-Taxi-Green-2015-01.parquet file.

  5. Untuk langkah Pilih tujuan data asisten salin, pilih Lakehouse lalu Berikutnya.

    Screenshot showing the selection of the Lakehouse destination on the Choose data destination tab of the Copy data assistant.

  6. Pilih Buat Lakehouse baru di halaman konfigurasi tujuan data yang muncul, dan masukkan nama untuk Lakehouse baru. Lalu pilih Berikutnya lagi.

    Screenshot showing the data destination configuration page of the Copy assistant, choosing the Create new Lakehouse option and providing a Lakehouse name.

  7. Sekarang konfigurasikan detail tujuan Lakehouse Anda di halaman Pilih dan petakan ke jalur folder atau tabel. Pilih Tabel untuk folder Akar, berikan nama tabel, dan pilih tindakan Timpa . Jangan centang kotak Aktifkan partisi yang muncul setelah Anda memilih tindakan Timpa tabel.

    Screenshot showing the Connect to data destination tab of the Copy data assistant, on the Select and map to folder path or table step.

  8. Terakhir, pada halaman Tinjau + simpan asisten data salin, tinjau konfigurasi. Untuk tutorial ini, hapus centang pada kotak centang Mulai transfer data segera , karena kami menjalankan aktivitas secara manual di langkah berikutnya. Kemudian pilih OK.

    Screenshot showing the Copy data assistant on the Review + save page.

Langkah 3: Jalankan dan lihat hasil aktivitas Salin Anda.

  1. Pilih tab Jalankan di editor alur. Lalu pilih tombol Jalankan , lalu Simpan dan jalankan pada perintah, untuk menjalankan aktivitas Salin.

    Screenshot showing the pipeline Run tab with the Run button highlighted.

    Screenshot showing the Save and run dialog with the Save and run button highlighted.

  2. Anda dapat memantau eksekusi dan memeriksa hasil pada tab Output di bawah kanvas alur. Pilih tombol jalankan detail (ikon "kacamata" yang muncul saat Anda mengarahkan mouse ke atas eksekusi alur yang sedang berjalan) untuk melihat detail eksekusi.

    Screenshot showing the run details button in the pipeline Output tab.

  3. Detail eksekusi menunjukkan 1.508.501 baris dibaca dan ditulis.

    Screenshot of the Copy data details for the pipeline run.

  4. Perluas bagian Perincian Durasi untuk melihat durasi setiap tahap aktivitas Salin. Setelah meninjau detail salinan, pilih Tutup.

    Screenshot showing the duration breakdown of the Copy activity run.

Dalam modul pertama ini ke tutorial end-to-end kami untuk integrasi data pertama Anda menggunakan Data Factory di Microsoft Fabric, Anda mempelajari cara:

  • Membuat alur data.
  • Tambahkan aktivitas Salin ke alur Anda.
  • Gunakan data sampel dan buat data Lakehouse untuk menyimpan data ke tabel baru.
  • Jalankan alur dan lihat detail dan perincian durasinya.

Lanjutkan ke bagian berikutnya sekarang untuk membuat aliran data Anda.