Visual Studio Code için Spark ve Hive Araçlarını kullanma

Visual Studio Code için Apache Spark & Hive Araçları'nı kullanmayı öğrenin. Apache Hive toplu işleri, etkileşimli Hive sorguları ve Apache Spark için PySpark betikleri oluşturmak ve göndermek için araçları kullanın. İlk olarak, Visual Studio Code'da Spark ve Hive Araçları'nın nasıl yükleneceğini açıklayacağız. Ardından Spark ve Hive Araçları'na iş gönderme adımlarını inceleyeceğiz.

Spark ve Hive Araçları, Visual Studio Code tarafından desteklenen platformlara yüklenebilir. Farklı platformlar için aşağıdaki önkoşullara dikkat edin.

Önkoşullar

Bu makaledeki adımları tamamlamak için aşağıdaki öğeler gereklidir:

  • Bir Azure HDInsight kümesi. Küme oluşturmak için bkz . HDInsight'ı kullanmaya başlama. Ya da Apache Livy uç noktasını destekleyen bir Spark ve Hive kümesi kullanabilirsiniz.
  • Visual Studio Code.
  • Mono' ya. Mono yalnızca Linux ve macOS için gereklidir.
  • Visual Studio Code için PySpark etkileşimli ortamı.
  • Yerel dizin. Bu makalede C:\HD\HDexample kullanılır.

Spark ve Hive Araçlarını Yükleme

Önkoşulları karşıladıktan sonra, aşağıdaki adımları izleyerek Visual Studio Code için Spark & Hive Araçları'nı yükleyebilirsiniz:

  1. Visual Studio Code'u açın.

  2. Menü çubuğunda Uzantıları Görüntüle'ye >gidin.

  3. Arama kutusuna Spark & Hive yazın.

  4. Arama sonuçlarından Spark ve Hive Araçları'nı ve ardından Yükle'yi seçin:

    Spark & Hive for Visual Studio Code Python install.

  5. Gerektiğinde Yeniden Yükle'yi seçin.

Çalışma klasörü açma

Visual Studio Code'da bir çalışma klasörü açmak ve dosya oluşturmak için şu adımları izleyin:

  1. Menü çubuğundan Dosya>Klasör Aç... seçeneğine gidin.>C:\HD\HDexample ve ardından Klasör Seç düğmesini seçin. Klasör soldaki Gezgin görünümünde görünür.

  2. Gezgin görünümünde HDexample klasörünü ve ardından iş klasörünün yanındaki Yeni Dosya simgesini seçin:

    visual studio code new file icon.

  3. (Hive sorguları) veya (Spark betiği) dosya uzantısını .py kullanarak .hql yeni dosyayı adlandırın. Bu örnekte HelloWorld.hql kullanılır.

Azure ortamını ayarlama

Ulusal bir bulut kullanıcısı için, önce Azure ortamını ayarlamak için şu adımları izleyin ve ardından Azure'da oturum açmak için Azure: Oturum Aç komutunu kullanın:

  1. Dosya>Tercihleri> Ayarlar'ne gidin.

  2. Şu dizede arama yapın: Azure: Cloud.

  3. Listeden ulusal bulutu seçin:

    Set default login entry configuration.

Azure hesabına bağlanma

Visual Studio Code'dan kümelerinize betik gönderebilmeniz için önce kullanıcı Azure aboneliğinde oturum açabilir veya hdInsight kümesi bağlayabilir. HDInsight kümenize bağlanmak için ESP kümesi için Ambari kullanıcı adını/parolasını veya etki alanına katılmış kimlik bilgilerini kullanın. Azure'a bağlanmak için şu adımları izleyin:

  1. Menü çubuğundan Komut Paletini Görüntüle>...'ye gidin ve Azure: Oturum Aç'ı girin:

    Spark & Hive Tools for Visual Studio Code login.

  2. Azure'da oturum açmak için oturum açma yönergelerini izleyin. Bağlandıktan sonra, Visual Studio Code penceresinin altındaki durum çubuğunda Azure hesabınızın adı gösterilir.

Apache Ambari tarafından yönetilen bir kullanıcı adı kullanarak normal bir kümeyi bağlayabilir veya etki alanı kullanıcı adı (örneğin: user1@contoso.com) kullanarak Kurumsal Güvenlik Paketi güvenli Hadoop kümesini bağlayabilirsiniz.

  1. Menü çubuğundan Komut Paletini Görüntüle>... öğesine gidin ve Spark / Hive: Küme bağlama girin.

    Command Palette link cluster command.

  2. Azure HDInsight bağlı küme türünü seçin.

  3. HDInsight kümesi URL'sini girin.

  4. Ambari kullanıcı adınızı girin; varsayılan değer yöneticidir.

  5. Ambari parolanızı girin.

  6. Küme türünü seçin.

  7. Kümenin görünen adını ayarlayın (isteğe bağlı).

  8. Doğrulama için OUTPUT görünümünü gözden geçirin.

    Not

    Küme hem Azure aboneliğinde oturum açtıysa hem de bir kümeyi bağladıysa, bağlı kullanıcı adı ve parola kullanılır.

  1. Menü çubuğundan Komut Paletini Görüntüle>... öğesine gidin ve Spark / Hive: Küme bağlama girin.

  2. Genel Livy Uç Noktası bağlı küme türünü seçin.

  3. Genel Livy uç noktasını girin. Örneğin: http://10.172.41.42:18080.

  4. Yetkilendirme türü Temel veya Hiçbiri'ni seçin. Temel'i seçerseniz:

    1. Ambari kullanıcı adınızı girin; varsayılan değer yöneticidir.

    2. Ambari parolanızı girin.

  5. Doğrulama için OUTPUT görünümünü gözden geçirin.

Kümeleri listeleme

  1. Menü çubuğundan Komut Paletini Görüntüle>... öğesine gidin ve Spark / Hive: Liste Kümesi girin.

  2. İstediğiniz aboneliği seçin.

  3. OUTPUT görünümünü gözden geçirin. Bu görünümde bağlı kümeniz (veya kümeleriniz) ve Azure aboneliğinizin altındaki tüm kümeler gösterilir:

    Set a default cluster configuration.

Varsayılan kümeyi ayarlama

  1. Kapatılırsa, daha önce açıklanan HDexample klasörünü yeniden açın.

  2. Daha önce oluşturulan HelloWorld.hql dosyasını seçin. Betik düzenleyicisinde açılır.

  3. Betik düzenleyicisine sağ tıklayın ve Spark / Hive: Varsayılan Kümeyi Ayarla'yı seçin.

  4. Azure hesabınıza Bağlan veya henüz yapmadıysanız kümeyi bağlayın.

  5. Geçerli betik dosyası için varsayılan küme olarak bir küme seçin. Araçlar, öğesini otomatik olarak güncelleştirir. VSCode\settings.json yapılandırma dosyası:

    Set default cluster configuration.

Etkileşimli Hive sorguları ve Hive toplu iş betikleri gönderme

Visual Studio Code için Spark ve Hive Araçları ile kümelerinize etkileşimli Hive sorguları ve Hive toplu iş betikleri gönderebilirsiniz.

  1. Kapatılırsa, daha önce açıklanan HDexample klasörünü yeniden açın.

  2. Daha önce oluşturulan HelloWorld.hql dosyasını seçin. Betik düzenleyicisinde açılır.

  3. Aşağıdaki kodu kopyalayıp Hive dosyanıza yapıştırın ve kaydedin:

    SELECT * FROM hivesampletable;
    
  4. Azure hesabınıza Bağlan veya henüz yapmadıysanız kümeyi bağlayın.

  5. Sorguyu göndermek için betik düzenleyicisine sağ tıklayın ve Hive: Etkileşimli'yi seçin veya Ctrl+Alt+I klavye kısayolunu kullanın. Betiği göndermek için Hive: Batch'i seçin veya Ctrl+Alt+H klavye kısayolunu kullanın.

  6. Varsayılan küme belirtmediyseniz bir küme seçin. Araçlar, bağlam menüsünü kullanarak betik dosyasının tamamı yerine bir kod bloğu göndermenize de olanak sağlar. Birkaç dakika sonra sorgu sonuçları yeni bir sekmede görünür:

    Interactive Apache Hive query result.

    • SONUÇLAR paneli: Sonucun tamamını CSV, JSON veya Excel dosyası olarak yerel bir yola kaydedebilir veya yalnızca birden çok satır seçebilirsiniz.

    • MESAJLAR paneli: Bir Satır numarası seçtiğinizde, çalışan betiğin ilk satırına atlar.

Etkileşimli PySpark sorguları gönderme

Pyspark etkileşimli için önkoşul

HdInsight etkileşimli PySpark sorguları için Jupyter Uzantısı sürümünün (ms-jupyter): v2022.1.1001614873 ve Python Uzantısı sürümü (ms-python): v2021.12.1559732655, Python 3.6.x ve 3.7.x gerektiğini unutmayın.

Kullanıcılar PySpark etkileşimli işlemini aşağıdaki yollarla gerçekleştirebilir.

PY dosyasında PySpark etkileşimli komutunu kullanma

Sorguları göndermek için PySpark etkileşimli komutunu kullanarak şu adımları izleyin:

  1. Kapatılırsa, daha önce açıklanan HDexample klasörünü yeniden açın.

  2. Önceki adımları izleyerek yeni bir HelloWorld.py dosyası oluşturun.

  3. Aşağıdaki kodu kopyalayıp betik dosyasına yapıştırın:

    from operator import add
    from pyspark.sql import SparkSession 
    spark = SparkSession.builder \ 
          .appName('hdisample') \ 
          .getOrCreate() 
    lines = spark.read.text("/HdiSamples/HdiSamples/FoodInspectionData/README").rdd.map(lambda r: r[0])
    counters = lines.flatMap(lambda x: x.split(' ')) \
                 .map(lambda x: (x, 1)) \
                 .reduceByKey(add)
    
    coll = counters.collect()
    sortedCollection = sorted(coll, key = lambda r: r[1], reverse = True)
    
    for i in range(0, 5):
         print(sortedCollection[i])
    
  4. PySpark/Synapse Pyspark çekirdeğini yükleme istemi pencerenin sağ alt köşesinde görüntülenir. PySpark/Synapse Pyspark yüklemelerine devam etmek için Yükle düğmesine tıklayabilir veya atla düğmesine tıklayarak bu adımı atlayabilirsiniz.

    Screenshot shows an option to skip the PySpark installation.

  5. Daha sonra yüklemeniz gerekirse, Dosya>Tercihi> Ayarlar'ne gidip ayarlarda HDInsight: Pyspark Yüklemesini Atla seçeneğinin işaretini kaldırabilirsiniz.

    Screenshot shows the option to Enable Skip Pyspark Installation.

  6. 4. adımda yükleme başarılı olursa, pencerenin sağ alt köşesinde "PySpark başarıyla yüklendi" ileti kutusu görüntülenir. Pencereyi yeniden yüklemek için Yeniden Yükle düğmesine tıklayın.

    pyspark installed successfully.

  7. Menü çubuğundan Komut Paletini Görüntüle>... öğesine gidin veya Shift + Ctrl + P klavye kısayolunu kullanın ve Python: Yorumlayıcı'yı seçerek Jupyter Server'ı başlatın.

    select interpreter to start jupyter server.

  8. Aşağıdaki Python seçeneğini belirleyin.

    choose the below option.

  9. Menü çubuğundan Komut Paletini Görüntüle>... öğesine gidin veya Shift + Ctrl + P klavye kısayolunu kullanın ve Geliştirici: Pencereyi Yeniden Yükle yazın.

    reload window.

  10. Azure hesabınıza Bağlan veya henüz yapmadıysanız kümeyi bağlayın.

  11. Sorguyu göndermek için tüm kodu seçin, betik düzenleyicisine sağ tıklayın ve Spark: PySpark Interactive / Synapse: Pyspark Interactive'i seçin.

    pyspark interactive context menu.

  12. Varsayılan küme belirtmediyseniz kümeyi seçin. Birkaç dakika sonra Python Etkileşimli sonuçları yeni bir sekmede görünür. Çekirdeği PySpark /Synapse Pyspark'a geçmek için PySpark'a tıklayın; kod başarıyla çalışır. Synapse Pyspark çekirdeğine geçmek istiyorsanız Azure portalında otomatik ayarları devre dışı bırakmanız tavsiye edilir. Aksi takdirde kümeyi uyandırmak ve ilk kez kullanmak üzere synapse çekirdeğini ayarlamak uzun sürebilir. Araçlar, bağlam menüsünü kullanarak betik dosyasının tamamı yerine bir kod bloğu göndermenize de izin verirse:

    pyspark interactive python interactive window.

  13. %%info yazın ve iş bilgilerini görüntülemek için Shift+Enter tuşlarına basın (isteğe bağlı):

    pyspark interactive view job information.

Araç Spark SQL sorgusunu da destekler:

pyspark interactive view result.

#%% açıklamasını kullanarak PY dosyasında etkileşimli sorgu gerçekleştirme

  1. Not defteri deneyimi elde etmek için Py kodunun önüne ekleyin #%% .

    add #%%.

  2. Hücreyi Çalıştır'a tıklayın. Birkaç dakika sonra Python Etkileşimli sonuçları yeni bir sekmede görünür. PySpark'a tıklayarak çekirdeği PySpark/Synapse PySpark'a geçirin ve ardından Hücreyi Yeniden Çalıştır'a tıklayın; kod başarıyla çalıştırılır.

    run cell results.

Python uzantısından IPYNB desteğinden yararlanma

  1. Komut Paleti'nden komutuyla veya çalışma alanınızda yeni bir .ipynb dosyası oluşturarak Jupyter Not Defteri oluşturabilirsiniz. Daha fazla bilgi için bkz . Visual Studio Code'da Jupyter Notebook'larla çalışma

  2. Hücreyi çalıştır düğmesine tıklayın, istemleri izleyerek Varsayılan spark havuzunu ayarlayın (not defterini açmadan önce varsayılan kümeyi/havuzu her seferinde ayarlamayı kesinlikle teşvik edin) ve ardından Yeniden Yükle penceresi.

    set the default spark pool and reload.

  3. PySpark'a tıklayarak çekirdeği PySpark / Synapse Pyspark'a geçirin ve ardından Hücreyi Çalıştır'a tıklayın, bir süre sonra sonuç görüntülenir.

    run ipynb results.

Not

Synapse PySpark yükleme hatası için, bağımlılığı artık diğer ekip tarafından korunmayacak olduğundan, bu da artık korunmayacaktır. Synapse Pyspark etkileşimli kullanmaya çalışıyorsanız lütfen bunun yerine Azure Synapse Analytics'i kullanmaya geçin. Ve bu uzun vadeli bir değişiklik.

PySpark toplu işini gönderme

  1. Daha önce açıkladığınız HDexample klasörünü (kapatılırsa) yeniden açın.

  2. Önceki adımları izleyerek yeni bir BatchFile.py dosyası oluşturun.

  3. Aşağıdaki kodu kopyalayıp betik dosyasına yapıştırın:

    from __future__ import print_function
    import sys
    from operator import add
    from pyspark.sql import SparkSession
    if __name__ == "__main__":
        spark = SparkSession\
            .builder\
            .appName("PythonWordCount")\
            .getOrCreate()
    
        lines = spark.read.text('/HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv').rdd.map(lambda r: r[0])
        counts = lines.flatMap(lambda x: x.split(' '))\
                   .map(lambda x: (x, 1))\
                    .reduceByKey(add)
        output = counts.collect()
        for (word, count) in output:
            print("%s: %i" % (word, count))
        spark.stop()
    
  4. Azure hesabınıza Bağlan veya henüz yapmadıysanız kümeyi bağlayın.

  5. Betik düzenleyicisine sağ tıklayın ve spark: PySpark Batch veya Synapse: PySpark Batch* öğesini seçin.

  6. PySpark işinizi göndermek için bir küme/spark havuzu seçin:

    Submit Python job result output.

Bir Python işi gönderdikten sonra gönderme günlükleri Visual Studio Code'daki OUTPUT penceresinde görüntülenir. Spark UI URL'si ve Yarn UI URL'si de gösterilir. Toplu işi bir Apache Spark havuzuna gönderirseniz Spark geçmişi kullanıcı arabirimi URL'si ve Spark İşi Uygulaması Kullanıcı Arabirimi URL'si de gösterilir. İş durumunu izlemek için URL'yi bir web tarayıcısında açabilirsiniz.

HDInsight Kimlik Aracısı (HIB) ile tümleştirme

KIMLIK Aracısı (HIB) ile HDInsight ESP kümenize Bağlan

Kimlik Aracısı (HIB) ile HDInsight ESP kümenize bağlanmak için Azure aboneliğinde oturum açmak için normal adımları izleyebilirsiniz. Oturum açma işleminin ardından Azure Gezgini'nde küme listesini görürsünüz. Daha fazla yönerge için bkz. HDInsight kümenize Bağlan.

Kimlik Aracısı (HIB) ile HDInsight ESP kümesinde Hive/PySpark işi çalıştırma

Bir hive işi çalıştırmak için, kimlik aracısı (HIB) ile HDInsight ESP kümesine iş göndermek için normal adımları izleyebilirsiniz. Daha fazla yönerge için Etkileşimli Hive sorguları ve Hive toplu iş betikleri gönderme bölümüne bakın.

Etkileşimli bir PySpark işi çalıştırmak için, işi KIMLIK Aracısı (HIB) ile HDInsight ESP kümesine göndermek için normal adımları izleyebilirsiniz. Etkileşimli PySpark sorguları gönderme bölümüne bakın.

PySpark toplu işlemini çalıştırmak için, işi KIMLIK Aracısı (HIB) ile HDInsight ESP kümesine göndermek için normal adımları izleyebilirsiniz. Daha fazla yönerge için PySpark toplu işini gönderme bölümüne bakın.

Apache Livy yapılandırması

Apache Livy yapılandırması desteklenir. içinde yapılandırabilirsiniz. ÇALıŞMA alanı klasöründe VSCode\settings.json dosyası. Şu anda Livy yapılandırması yalnızca Python betiğini desteklemektedir. Daha fazla bilgi için bkz . Livy BENİOKU.

Livy yapılandırmasını tetikleme

1. Yöntem

  1. Menü çubuğundan Dosya>Tercihleri> Ayarlar'ne gidin.
  2. Arama ayarları kutusuna HDInsight İş Gönderimi: Livy Conf girin.
  3. İlgili arama sonucu için settings.json düzenle'yi seçin.

2. Yöntem

Bir dosya gönderin ve klasörün çalışma klasörüne otomatik olarak eklendiğine dikkat edin .vscode . Livy yapılandırmasını .vscode\settings.json'ı seçerek görebilirsiniz.

  • Proje ayarları:

    HDInsight Apache Livy configuration.

    Not

    driverMemory ve executorMemory ayarları için değeri ve birimi ayarlayın. Örneğin: 1g veya 1024m.

  • Desteklenen Livy yapılandırmaları:

    POST /batches

    İstek gövdesi

    Adı açıklama Tür
    dosyası Yürütülecek uygulamayı içeren dosya Yol (gerekli)
    proxyUser İşi çalıştırırken kimliğine bürünecek kullanıcı String
    Classname Uygulama Java/Spark ana sınıfı String
    args Uygulama için komut satırı bağımsız değişkenleri Dize listesi
    Kavanoz Bu oturumda kullanılacak jar'lar Dize listesi
    pyFiles Bu oturumda kullanılacak Python dosyaları Dize listesi
    files Bu oturumda kullanılacak dosyalar Dize listesi
    driverMemory Sürücü işlemi için kullanılacak bellek miktarı String
    driverCores Sürücü işlemi için kullanılacak çekirdek sayısı Int
    executorMemory Yürütücü işlemi başına kullanılacak bellek miktarı String
    executorCores Her yürütücü için kullanılacak çekirdek sayısı Int
    numExecutors Bu oturum için başlatacak yürütücü sayısı Int
    Arşiv Bu oturumda kullanılacak arşivler Dize listesi
    kuyruk Gönderilecek YARN kuyruğunun adı String
    Adı Bu oturumun adı String
    conf Spark yapılandırma özellikleri key=val haritası

    Yanıt gövdesi Oluşturulan Batch nesnesi.

    Adı açıklama Tür
    Kimlik Oturum kimliği Int
    appId Bu oturumun uygulama kimliği String
    Appinfo Ayrıntılı uygulama bilgileri key=val haritası
    Günlük Günlük satırları Dize listesi
    semt Toplu iş durumu String

    Not

    Betiği gönderdiğinizde çıkış bölmesinde atanan Livy yapılandırması görüntülenir.

Explorer'dan Azure HDInsight ile tümleştirme

Hive Tablosu'nu kümelerinizde doğrudan Azure HDInsight gezgini aracılığıyla önizleyebilirsiniz:

  1. Henüz yapmadıysanız Azure hesabınıza Bağlan.

  2. En soldaki sütundan Azure simgesini seçin.

  3. Sol bölmeden AZURE: HDINSIGHT'ı genişletin. Kullanılabilir abonelikler ve kümeler listelenir.

  4. Hive meta veri veritabanını ve tablo şemasını görüntülemek için kümeyi genişletin.

  5. Hive tablosuna sağ tıklayın. Örneğin: hivesampletable. Önizlemeyi seçin.

    Spark & Hive for Visual Studio Code preview hive table.

  6. Sonuçları Önizle penceresi açılır:

    Spark & Hive for Visual Studio Code preview results window.

  • SONUÇLAR paneli

    Sonucun tamamını CSV, JSON veya Excel dosyası olarak yerel bir yola kaydedebilir veya yalnızca birden çok satır seçebilirsiniz.

  • MESAJLAR paneli

    1. Tablodaki satır sayısı 100'den büyük olduğunda şu iletiyi görürsünüz: "Hive tablosu için ilk 100 satır görüntüleniyor."

    2. Tablodaki satır sayısı 100'den küçük veya buna eşit olduğunda şu iletiyi görürsünüz: "Hive tablosu için 60 satır görüntüleniyor."

    3. Tabloda içerik olmadığında şu iletiyi görürsünüz: "0 rows are displayed for Hive table."

      Not

      Linux'ta, tablo kopyalama verilerini etkinleştirmek için xclip'i yükleyin.

      Spark & Hive for Visual Studio code in Linux.

Ek özellikler

Visual Studio Code için Spark & Hive aşağıdaki özellikleri de destekler:

  • IntelliSense otomatik tamamlama. Anahtar sözcükler, yöntemler, değişkenler ve diğer programlama öğeleri için öneriler açılır. Farklı simgeler farklı nesne türlerini temsil eder:

    Spark & Hive Tools for Visual Studio Code IntelliSense objects.

  • IntelliSense hata işaretçisi. Dil hizmeti Hive betiğindeki düzenleme hatalarının altını çizer.

  • Söz dizimi vurguları. Dil hizmeti değişkenleri, anahtar sözcükleri, veri türünü, işlevleri ve diğer programlama öğelerini ayırt etmek için farklı renkler kullanır:

    Spark & Hive Tools for Visual Studio Code syntax highlights.

Yalnızca okuyucu rolü

Küme için yalnızca okuyucu rolü atanmış kullanıcılar HDInsight kümesine iş gönderemez veya Hive veritabanını görüntüleyemez. Rolünüzü Azure portalında HDInsight Küme Operatörü'ne yükseltmek için küme yöneticisine başvurun. Geçerli Ambari kimlik bilgileriniz varsa aşağıdaki kılavuzu kullanarak kümeyi el ile bağlayabilirsiniz.

HDInsight kümesine göz atma

HdInsight kümesini genişletmek için Azure HDInsight gezginini seçtiğinizde, küme için yalnızca okuyucu rolüne sahipseniz kümeyi bağlamanız istenir. Ambari kimlik bilgilerinizi kullanarak kümeye bağlanmak için aşağıdaki yöntemi kullanın.

İşi HDInsight kümesine gönderme

bir HDInsight kümesine iş gönderirken, küme için yalnızca okuyucu rolündeyseniz kümeyi bağlamanız istenir. Ambari kimlik bilgilerini kullanarak kümeye bağlanmak için aşağıdaki adımları kullanın.

  1. Geçerli bir Ambari kullanıcı adı girin.

  2. Geçerli bir parola girin.

    Spark & Hive Tools for Visual Studio Code Username.

    Spark & Hive Tools for Visual Studio Code Password.

    Not

    Bağlı kümeyi denetlemek için kullanabilirsiniz Spark / Hive: List Cluster :

    Spark & Hive Tools for Visual Studio Code Reader Linked.

Azure Data Lake Storage 2. Nesil

Data Lake Storage 2. Nesil hesabına göz atma

Data Lake Storage 2. Nesil hesabını genişletmek için Azure HDInsight gezginini seçin. Azure hesabınızın 2. Nesil depolamaya erişimi yoksa depolama erişim anahtarını girmeniz istenir. Erişim anahtarı doğrulandıktan sonra Data Lake Storage 2. Nesil hesabı otomatik olarak genişletilir.

Data Lake Storage 2. Nesil ile hdInsight kümesine iş gönderme

Data Lake Storage 2. Nesil kullanarak HDInsight kümesine iş gönderin. Azure hesabınızın 2. Nesil depolama alanına yazma erişimi yoksa depolama erişim anahtarını girmeniz istenir. Erişim anahtarı doğrulandıktan sonra iş başarıyla gönderilir.

Spark & Hive Tools for Visual Studio Code AccessKey.

Not

Depolama hesabının erişim anahtarını Azure portalından alabilirsiniz. Daha fazla bilgi için bkz . Depolama hesabı erişim anahtarlarını yönetme.

  1. Menü çubuğundan Komut Paletini Görüntüle'ye >gidin ve Spark / Hive: Küme bağlantısını kaldır yazın.

  2. Bağlantısını kaldıracak bir küme seçin.

  3. Doğrulama için ÇıKıŞ görünümüne bakın.

Oturumu kapat

Menü çubuğundan Komut Paletini Görüntüle'ye >gidin ve Azure: Oturumu Kapat yazın.

Bilinen Sorunlar

Synapse PySpark yükleme hatası.

Synapse PySpark yükleme hatası için bağımlılığı artık diğer ekip tarafından korunmayacağı için artık korunmaz. Synapse Pyspark etkileşimli kullanmaya çalışıyorsanız lütfen bunun yerine Azure Synapse Analytics'i kullanın. Ve bu uzun vadeli bir değişiklik.

synapse pyspark installation error.

Sonraki adımlar

Visual Studio Code için Spark & Hive kullanmayı gösteren bir video için bkz . Visual Studio Code için Spark & Hive.