HDInsight kümesi için Apache Spark uygulamaları oluşturmak üzere IntelliJ için Azure Toolkit kullanma

Bu makalede, IntelliJ IDE için Azure Toolkit eklentisini kullanarak Azure HDInsight üzerinde Apache Spark uygulamaları geliştirme adımları gösterilmektedir. Azure HDInsight , bulutta yönetilen, açık kaynaklı bir analiz hizmetidir. Hizmet Hadoop, Apache Spark, Apache Hive ve Apache Kafka gibi açık kaynak çerçeveleri kullanmanıza olanak tanır.

Azure Toolkit eklentisini birkaç yolla kullanabilirsiniz:

  • Scala Spark uygulaması geliştirin ve hdInsight Spark kümesine gönderin.
  • Azure HDInsight Spark kümesi kaynaklarınıza erişin.
  • Scala Spark uygulamasını yerel olarak geliştirin ve çalıştırın.

Bu makalede şunları öğreneceksiniz:

  • Azure Toolkit for IntelliJ eklentisini kullanma
  • Apache Spark uygulamaları geliştirme
  • Azure HDInsight kümesine uygulama gönderme

Önkoşullar

IntelliJ IDEA için Scala eklentisini yükleme

Scala eklentisini yükleme adımları:

  1. IntelliJ IDEA’yı açın.

  2. Hoş geldiniz ekranında Eklentileri Yapılandır'a >gidip Eklentiler penceresini açın.

    IntelliJ IDEA enables scala plugin.

  3. Yeni pencerede öne çıkan Scala eklentisi için Yükle'yi seçin.

    IntelliJ IDEA installs scala plugin.

  4. Eklenti başarıyla yüklendikten sonra IDE’yi yeniden başlatmanız gerekir.

HDInsight Spark kümesi için Spark Scala uygulaması oluşturma

  1. IntelliJ IDEA'yı başlatın ve Yeni Proje Oluştur'u seçerek Yeni Proje penceresini açın.

  2. Sol bölmeden Azure Spark/HDInsight'ı seçin.

  3. Ana pencerede Spark Projesi (Scala) öğesini seçin.

  4. Derleme aracı açılan listesinden aşağıdaki seçeneklerden birini belirleyin:

    • Scala için Maven proje oluşturma sihirbazı desteği.

    • Scala projesi için bağımlılıkları yönetmeye ve oluşturmaya yönelik SBT .

      IntelliJ IDEA New Project dialog box.

  5. İleri'yi seçin.

  6. Yeni Proje penceresinde aşağıdaki bilgileri sağlayın:

    Özellik Açıklama
    Proje adı Bir ad girin. Bu makalede kullanılır myApp.
    Proje konumu Projenizi kaydetmek için konumu girin.
    Proje SDK'sı Idea'nın ilk kullanımında bu alan boş olabilir. Yeni... öğesini seçin ve JDK'nize gidin.
    Spark Sürümü Oluşturma sihirbazı, Spark SDK ve Scala SDK'sı için uygun sürümü tümleştirir. Spark kümesi sürümü 2.0’dan eskiyse Spark 1.x seçeneğini belirleyin. Aksi takdirde, Spark2.x seçeneğini belirleyin. Bu örnekte Spark 2.3.0 (Scala 2.11.8) kullanılır.

    Selecting the Apache Spark SDK.

  7. Bitir'i seçin. Projenin kullanılabilir duruma gelmesi birkaç dakika sürebilir.

  8. Spark projesi sizin için otomatik olarak bir yapıt oluşturur. Yapıtı görüntülemek için aşağıdaki adımları uygulayın:

    a. Menü çubuğundan Dosya>Proje Yapısı.... seçeneğine gidin.

    b. Proje Yapısı penceresinde Yapıtlar'ı seçin.

    c. Yapıtı görüntüledikten sonra İptal'i seçin.

    Artifact info in the dialog box.

  9. Aşağıdaki adımları uygulayarak uygulama kaynak kodunuzu ekleyin:

    a. Project'ten myApp>src>ana>scala'ya gidin.

    b. Scala'ya sağ tıklayın ve Yeni>Scala Sınıfı'na gidin.

    Commands for creating a Scala class from Project.

    c. Yeni Scala Sınıfı Oluştur iletişim kutusunda bir ad girin, Tür açılan listesinde Nesne'yi seçin ve ardından Tamam'ı seçin.

    Create New Scala Class dialog box.

    d. Ardından myApp.scala dosyası ana görünümde açılır. Varsayılan kodu aşağıda bulunan kodla değiştirin:

    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    
    object myApp{
        def main (arg: Array[String]): Unit = {
        val conf = new SparkConf().setAppName("myApp")
        val sc = new SparkContext(conf)
    
        val rdd = sc.textFile("wasbs:///HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv")
    
        //find the rows that have only one digit in the seventh column in the CSV file
        val rdd1 =  rdd.filter(s => s.split(",")(6).length() == 1)
    
        rdd1.saveAsTextFile("wasbs:///HVACOut")
        }
    
    }
    

    Kod, HVAC.csv verileri okur (tüm HDInsight Spark kümelerinde kullanılabilir), CSV dosyasındaki yedinci sütunda yalnızca bir basamak bulunan satırları alır ve çıkışı /HVACOut küme için varsayılan depolama kapsayıcısının altına yazar.

HDInsight kümenize Bağlan

Kullanıcı Azure aboneliğinizde oturum açabilir veya bir HDInsight kümesi bağlayabilir. HDInsight kümenize bağlanmak için Ambari kullanıcı adını/parolasını veya etki alanına katılmış kimlik bilgilerini kullanın.

Azure aboneliğinizde oturum açın

  1. Menü çubuğundan Görünüm>Aracı Windows>Azure Gezgini'ne gidin.

    IntelliJ IDEA shows azure explorer.

  2. Azure Gezgini'nde Azure düğümüne sağ tıklayıp Oturum Aç'ı seçin.

    IntelliJ IDEA explorer right-click azure.

  3. Azure Oturum Aç iletişim kutusunda Cihaz Oturum Açma'yı ve ardından Oturum aç'ı seçin.

    `IntelliJ IDEA azure sign-in device login`.

  4. Azure Cihaz Oturum Açma iletişim kutusunda Kopyala ve Aç'a tıklayın.

    `IntelliJ IDEA azure device login`.

  5. Tarayıcı arabiriminde kodu yapıştırın ve İleri'ye tıklayın.

    `Microsoft enter code dialog for HDI`.

  6. Azure kimlik bilgilerinizi girin ve tarayıcıyı kapatın.

    `Microsoft enter e-mail dialog for HDI`.

  7. Oturum açtıktan sonra Abonelikleri Seç iletişim kutusunda, kimlik bilgileriyle ilişkili tüm Azure abonelikleri listelenir. Aboneliğinizi ve ardından Seç düğmesini seçin.

    The Select Subscriptions dialog box.

  8. Azure Gezgini'nde HDInsight'ı genişleterek aboneliklerinizdeki HDInsight Spark kümelerini görüntüleyin.

    IntelliJ IDEA Azure Explorer main view.

  9. Kümeyle ilişkili kaynakları (örneğin, depolama hesapları) görüntülemek için bir küme adı düğümünü daha da genişletebilirsiniz.

    Azure Explorer storage accounts.

Apache Ambari tarafından yönetilen kullanıcı adını kullanarak HDInsight kümesini bağlayabilirsiniz. Benzer şekilde, etki alanına katılmış bir HDInsight kümesi için, etki alanını ve kullanıcı adını kullanarak bağlantı oluşturabilirsiniz; örneğin user1@contoso.com. Ayrıca Livy Service kümesini de bağlayabilirsiniz.

  1. Menü çubuğundan Görünüm>Aracı Windows>Azure Gezgini'ne gidin.

  2. Azure Gezgini'nden HDInsight düğümüne sağ tıklayın ve ardından Küme Bağla'yı seçin.

    Azure Explorer link cluster context menu.

  3. Kümeyi Bağla penceresindeki kullanılabilir seçenekler, Kaynak Türünü Bağla açılan listesinden seçtiğiniz değere bağlı olarak değişir. Değerlerinizi girin ve Tamam'ı seçin.

    • HDInsight Kümesi

      Özellik Değer
      Bağlantı Kaynak Türü Açılan listeden HDInsight Kümesi'ni seçin.
      Küme Adı/URL Küme adını girin.
      Kimlik Doğrulaması Türü Temel Kimlik Doğrulaması olarak bırakın
      User Name Küme kullanıcı adını girin; varsayılan değer yöneticidir.
      Parola Kullanıcı adı için parola girin.

      IntelliJ IDEA link a cluster dialog.

    • Livy Hizmeti

      Özellik Değer
      Bağlantı Kaynak Türü Açılan listeden Livy Service'i seçin.
      Livy Uç Noktası Livy Uç Noktası girin
      Küme Adı Küme adını girin.
      Yarn Uç Noktası isteğe bağlı.
      Kimlik Doğrulaması Türü Temel Kimlik Doğrulaması olarak bırakın
      User Name Küme kullanıcı adını girin; varsayılan değer yöneticidir.
      Parola Kullanıcı adı için parola girin.

      IntelliJ IDEA link Livy cluster dialog.

  4. Bağlı kümenizi HDInsight düğümünden görebilirsiniz.

    Azure Explorer linked cluster1.

  5. Ayrıca bir kümenin Azure Gezgini bağlantısını da kaldırabilirsiniz.

    Azure Explorer unlinked cluster.

HDInsight Spark kümesinde Spark Scala uygulaması çalıştırma

Scala uygulamasını oluşturduktan sonra kümeye gönderebilirsiniz.

  1. Project'ten myApp>src>main>scala myApp konumuna>gidin. Uygulamam'a sağ tıklayın ve Spark Uygulaması Gönder'i seçin (Büyük olasılıkla listenin en altında bulunur).

    The Submit Spark Application to HDInsight command.

  2. Spark Uygulaması Gönder iletişim kutusunda 1'i seçin. HDInsight üzerinde Spark.

  3. Yapılandırmayı düzenle penceresinde aşağıdaki değerleri sağlayın ve Tamam'ı seçin:

    Özellik Değer
    Spark kümeleri (yalnızca Linux) Uygulamanızı çalıştırmak istediğiniz HDInsight Spark kümesini seçin.
    Göndermek için bir Yapıt seçin Varsayılan ayarı değiştirmeyin.
    Ana sınıf adı Varsayılan değer, seçili dosyadaki ana sınıftır. Üç noktayı (...) ve başka bir sınıfı seçerek sınıfı değiştirebilirsiniz.
    İş yapılandırmaları Varsayılan anahtarları ve veya değerleri değiştirebilirsiniz. Daha fazla bilgi için bkz . Apache Livy REST API.
    Komut satırı bağımsız değişkenleri Gerekirse, ana sınıf için boşlukla ayrılmış bağımsız değişkenler girebilirsiniz.
    Başvuruda Belirtilen Jar'lar ve Başvurulan Dosyalar Başvuruda bulunan Jar'ların ve varsa dosyaların yollarını girebilirsiniz. Şu anda yalnızca ADLS 2. Nesil kümesini destekleyen Azure sanal dosya sistemindeki dosyalara da göz atabilirsiniz. Daha fazla bilgi için: Apache Spark Yapılandırması. Ayrıca bkz. Kaynakları kümeye yükleme.
    İş Yükleme Depolama Ek seçenekleri göstermek için genişletin.
    Depolama Türü Açılan listeden Karşıya yüklemek için Azure Blobunu kullan'ı seçin.
    Depolama Hesabı Depolama hesabınızı girin.
    Depolama Anahtarı Depolama anahtarınızı girin.
    kapsayıcıyı Depolama Hesap ve Depolama Depolama Anahtarı girildikten sonra açılan listeden depolama kapsayıcınızı seçin.

    The Spark Submission dialog box.

  4. Projenizi seçili kümeye göndermek için SparkJobRun'u seçin. Kümedeki Uzak Spark İşi sekmesi, iş yürütme ilerleme durumunu en altta görüntüler. Kırmızı düğmeye tıklayarak uygulamayı durdurabilirsiniz.

    Apache Spark Submission window.

HDInsight kümesinde Apache Spark uygulamalarında yerel olarak veya uzaktan hata ayıklama

Spark uygulamasını kümeye göndermenin başka bir yolunu da öneririz. Bunu yapmak için Çalıştırma/Hata Ayıklama yapılandırmaları IDE'sindeki parametreleri ayarlayabilirsiniz. Bkz . SSH aracılığıyla IntelliJ için Azure Toolkit ile HDInsight kümesinde yerel olarak veya uzaktan Apache Spark uygulamalarında hata ayıklama.

IntelliJ için Azure Toolkit kullanarak HDInsight Spark kümelerine erişme ve kümelerini yönetme

IntelliJ için Azure Toolkit'i kullanarak çeşitli işlemler yapabilirsiniz. İşlemlerin çoğu Azure Gezgini'nden başlatılır. Menü çubuğundan Görünüm>Aracı Windows>Azure Gezgini'ne gidin.

İş görünümüne erişme

  1. Azure Gezgini'nden HDInsight><Küme>>İşleriniz'e gidin.

    IntelliJ Azure Explorer Job view node.

  2. Sağ bölmede Spark İşi Görünümü sekmesi, kümede çalıştırılan tüm uygulamaları görüntüler. Daha fazla ayrıntı görmek istediğiniz uygulamanın adını seçin.

    Spark Job View Application details.

  3. Çalışan temel iş bilgilerini görüntülemek için, iş grafiğinin üzerine gelin. Aşamalar grafiğini ve her işin oluşturduğu bilgileri görüntülemek için iş grafı üzerinde bir düğüm seçin.

    Spark Job View Job stage details.

  4. Sürücü Stderr, Sürücü Stdout ve Dizin Bilgileri gibi sık kullanılan günlükleri görüntülemek için Günlük sekmesini seçin.

    Spark Job View Log details.

  5. Spark geçmişi kullanıcı arabirimini ve YARN kullanıcı arabirimini görüntüleyebilirsiniz (uygulama düzeyinde). Pencerenin üst kısmından bir bağlantı seçin.

Spark geçmiş sunucusuna erişme

  1. Azure Gezgini'nden HDInsight'ı genişletin, Spark kümenizin adına sağ tıklayın ve spark geçmişi kullanıcı arabirimini aç'ı seçin.

  2. İstendiğinde, kümeyi ayarlarken belirttiğiniz kümenin yönetici kimlik bilgilerini girin.

  3. Spark geçmişi sunucusu panosunda, çalıştırmayı yeni tamamladığınız uygulamayı aramak için uygulama adını kullanabilirsiniz. Önceki kodda, kullanarak val conf = new SparkConf().setAppName("myApp")uygulama adını ayarlarsınız. Spark uygulamanızın adı myApp'tir.

Ambari portalını başlatma

  1. Azure Gezgini'nden HDInsight'ı genişletin, Spark kümenizin adına sağ tıklayın ve ardından Küme Yönetim Portalını Aç(Ambari)'yi seçin.

  2. İstendiğinde kümenin yönetici kimlik bilgilerini girin. Bu kimlik bilgilerini küme kurulum işlemi sırasında belirttiniz.

Azure aboneliklerini yönetme

Varsayılan olarak, IntelliJ için Azure Toolkit tüm Azure aboneliklerinizdeki Spark kümelerini listeler. Gerekirse, erişmek istediğiniz abonelikleri belirtebilirsiniz.

  1. Azure Gezgini'nden Azure kök düğümüne sağ tıklayın ve ardından Abonelikleri Seç'i seçin.

  2. AbonelikLeri Seç penceresinde, erişmek istemediğiniz aboneliklerin yanındaki onay kutularını temizleyin ve kapat'ı seçin.

Spark Konsolu

Spark Yerel Konsolu'nu (Scala) veya Spark Livy Etkileşimli Oturum Konsolu'nu (Scala) çalıştırabilirsiniz.

Spark Yerel Konsolu (Scala)

WINUTILS.EXE önkoşulunu karşıladığınızdan emin olun.

  1. Menü çubuğundan Yapılandırmaları Düzenle... komutunu çalıştırın>.

  2. Çalıştırma/Hata Ayıklama Yapılandırmaları penceresinde, sol bölmede HDInsight üzerinde Apache Spark[HDInsight> üzerinde Spark] myApp'e gidin.

  3. Ana pencerede sekmeyi Locally Run seçin.

  4. Aşağıdaki değerleri sağlayın ve tamam'ı seçin:

    Özellik Değer
    İş ana sınıfı Varsayılan değer, seçili dosyadaki ana sınıftır. Üç noktayı (...) ve başka bir sınıfı seçerek sınıfı değiştirebilirsiniz.
    Ortam değişkenleri HADOOP_HOME değerinin doğru olduğundan emin olun.
    WINUTILS.exe konumu Yolun doğru olduğundan emin olun.

    Local Console Set Configuration.

  5. Project'ten myApp>src>main>scala myApp konumuna>gidin.

  6. Menü çubuğundan Araçlar>Spark Konsolu Spark Yerel Konsolunu>Çalıştır (Scala) seçeneğine gidin.

  7. Ardından, bağımlılıkları otomatik olarak düzeltmek isteyip istemediğinizi sormak için iki iletişim kutusu görüntülenebilir. Öyleyse, Otomatik Düzeltme'yi seçin.

    IntelliJ IDEA Spark Auto Fix dialog1.

    IntelliJ IDEA Spark Auto Fix dialog2.

  8. Konsol aşağıdaki resme benzer görünmelidir. Konsol penceresine yazın sc.appNameve ardından ctrl+Enter tuşlarına basın. Sonuç gösterilir. Kırmızı düğmeye tıklayarak yerel konsolu sonlandırabilirsiniz.

    IntelliJ IDEA local console result.

Spark Livy Etkileşimli Oturum Konsolu (Scala)

  1. Menü çubuğundan Yapılandırmaları Düzenle... komutunu çalıştırın>.

  2. Çalıştırma/Hata Ayıklama Yapılandırmaları penceresinde, sol bölmede HDInsight üzerinde Apache Spark[HDInsight> üzerinde Spark] myApp'e gidin.

  3. Ana pencerede sekmeyi Remotely Run in Cluster seçin.

  4. Aşağıdaki değerleri sağlayın ve tamam'ı seçin:

    Özellik Değer
    Spark kümeleri (yalnızca Linux) Uygulamanızı çalıştırmak istediğiniz HDInsight Spark kümesini seçin.
    Ana sınıf adı Varsayılan değer, seçili dosyadaki ana sınıftır. Üç noktayı (...) ve başka bir sınıfı seçerek sınıfı değiştirebilirsiniz.

    Interactive Console Set Configuration.

  5. Project'ten myApp>src>main>scala myApp konumuna>gidin.

  6. Menü çubuğundan Araçlar>Spark Konsolu>Spark Livy Etkileşimli Oturum Konsolu'nu (Scala) Çalıştır'a gidin.

  7. Konsol aşağıdaki resme benzer görünmelidir. Konsol penceresine yazın sc.appNameve ardından ctrl+Enter tuşlarına basın. Sonuç gösterilir. Kırmızı düğmeye tıklayarak yerel konsolu sonlandırabilirsiniz.

    IntelliJ IDEA Interactive Console Result.

Seçimi Spark Konsoluna Gönder

Yerel konsola veya Livy Interactive Session Console'a (Scala) kod göndererek betik sonucunu tahmin etmek sizin için kullanışlıdır. Scala dosyasında bazı kodları vurgulayabilir ve ardından Seçimi Spark Konsoluna Gönder'e sağ tıklayabilirsiniz. Seçilen kod konsola gönderilir. Sonuç, konsoldaki koddan sonra görüntülenir. Varsa konsol hataları denetler.

Send Selection to Spark Console.

HDInsight Kimlik Aracısı (HIB) ile tümleştirme

KIMLIK Aracısı (HIB) ile HDInsight ESP kümenize Bağlan

Kimlik Aracısı (HIB) ile HDInsight ESP kümenize bağlanmak için Azure aboneliğinde oturum açmak için normal adımları izleyebilirsiniz. Oturum açma işleminin ardından Azure Gezgini'nde küme listesini görürsünüz. Daha fazla yönerge için bkz. HDInsight kümenize Bağlan.

Kimlik Aracısı (HIB) ile HDInsight ESP kümesinde Spark Scala uygulaması çalıştırma

Kimlik Aracısı (HIB) ile HDInsight ESP kümesine iş göndermek için normal adımları izleyebilirsiniz. Daha fazla yönerge için bkz. HDInsight Spark kümesinde Spark Scala uygulaması çalıştırma.

Gerekli dosyaları oturum açma hesabınızla adlı bir klasöre yükleriz ve yapılandırma dosyasında karşıya yükleme yolunu görebilirsiniz.

upload path in the configuration.

Kimlik Aracısı (HIB) ile HDInsight ESP kümesinde Spark konsolu

Spark Yerel Konsolu'nu (Scala) veya Kimlik Aracısı (HIB) ile bir HDInsight ESP kümesinde Spark Livy Etkileşimli Oturum Konsolu'nu (Scala) çalıştırabilirsiniz. Daha fazla yönerge için Spark Konsolu'na bakın.

Not

Kimlik Aracısı (HIB) içeren HDInsight ESP kümesi için bir kümeyi bağlayın ve Apache Spark uygulamalarında uzaktan hata ayıklama şu anda desteklenmiyor.

Yalnızca okuyucu rolü

Kullanıcılar işi yalnızca okuyucu rolü izni olan bir kümeye gönderdiğinde Ambari kimlik bilgileri gerekir.

  1. Yalnızca okuyucu rol hesabıyla oturum açın.

  2. Azure Gezgini'nde, aboneliğinizdeki HDInsight kümelerini görüntülemek için HDInsight'ı genişletin. "Role:Reader" olarak işaretlenen kümelerin yalnızca okuyucu rol izni vardır.

    `IntelliJ Azure Explorer Role:Reader`.

  3. Yalnızca okuyucu rolü iznine sahip kümeye sağ tıklayın. Kümeyi bağlamak için bağlam menüsünden Bu kümeyi bağla'ya tıklayın. Ambari kullanıcı adını ve Parolayı girin.

    IntelliJ Azure Explorer link this cluster.

  4. Küme başarıyla bağlanırsa HDInsight yenilenir. Kümenin aşaması bağlanır.

    IntelliJ Azure Explorer linked dialog.

  1. İşler düğümü'ne tıklayın, Küme İşi Erişimi Reddedildi penceresi açılır.

  2. Kümeyi bağlamak için Bu kümeyi bağla'ya tıklayın.

    cluster job access denied dialog.

  1. HDInsight Yapılandırması oluşturma. Ardından Kümede Uzaktan Çalıştır'ı seçin.

  2. Spark kümeleri için yalnızca okuyucu rol iznine sahip bir küme seçin (yalnızca Linux). Uyarı iletisi gösterilir. Kümeyi bağlamak için Bu kümeyi bağla'ya tıklayabilirsiniz.

    IntelliJ IDEA run/debug configuration create.

Depolama Hesaplarını Görüntüle

  • Yalnızca okuyucu rolü iznine sahip kümeler için Hesaplar düğümüne Depolama tıklayın Depolama Erişim Reddedildi penceresi açılır. Azure Depolama Gezgini Aç'a tıklayarak Depolama Gezgini'ne açabilirsiniz.

    `IntelliJ IDEA Storage Access Denied`.

    IntelliJ IDEA Storage Access Denied button.

  • Bağlı kümeler için, Depolama Hesapları düğümüne tıklayın Depolama Erişim Reddedildi penceresi açılır. Azure Depolama Aç'a tıklayarak Depolama Gezgini'ne açabilirsiniz.

    `IntelliJ IDEA Storage Access Denied2`.

    IntelliJ IDEA Storage Access Denied2 button.

Mevcut IntelliJ IDEA uygulamalarını Azure Toolkit for IntelliJ kullanacak şekilde dönüştürme

IntelliJ IDEA'da oluşturduğunuz mevcut Spark Scala uygulamalarını, IntelliJ için Azure Toolkit ile uyumlu olacak şekilde dönüştürebilirsiniz. Ardından, uygulamaları bir HDInsight Spark kümesine göndermek için eklentiyi kullanabilirsiniz.

  1. IntelliJ IDEA aracılığıyla oluşturulan mevcut bir Spark Scala uygulaması için ilişkili .iml dosyayı açın.

  2. Kök düzeyinde, aşağıdaki metne benzer bir modül öğesidir:

    <module org.jetbrains.idea.maven.project.MavenProjectsManager.isMavenModule="true" type="JAVA_MODULE" version="4">
    

    Modül öğesinin aşağıdaki metin gibi görünmesi için öğesini düzenleyerek ekleyin:UniqueKey="HDInsightTool"

    <module org.jetbrains.idea.maven.project.MavenProjectsManager.isMavenModule="true" type="JAVA_MODULE" version="4" UniqueKey="HDInsightTool">
    
  3. Değişiklikleri kaydedin. Uygulamanız artık IntelliJ için Azure Toolkit ile uyumlu olmalıdır. Project'te proje adına sağ tıklayarak test edebilirsiniz. Açılır menüde artık Spark Uygulamasını HDInsight'a Gönder seçeneği vardır.

Kaynakları temizleme

Bu uygulamayı kullanmaya devam etmeyecekseniz, aşağıdaki adımlarla oluşturduğunuz kümeyi silin:

  1. Azure Portal’ında oturum açın.

  2. Üstteki Arama kutusuna HDInsight yazın.

  3. Hizmetler'in altında HDInsight kümeleri'netıklayın.

  4. Görüntülenen HDInsight kümeleri listesinde, bu makale için oluşturduğunuz kümenin yanındaki ... öğesini seçin.

  5. Sil'i seçin. Evet'i seçin.

Azure portal deletes HDInsight cluster.

Hatalar ve çözüm

Aşağıdaki gibi derleme başarısız hataları alırsanız src klasörünü Kaynak olarak işaretlerini kaldırın:

Screenshot showing the build failed.

Bu sorunu çözmek için src klasörünü Kaynaklar olarak işaretlerini kaldırın:

  1. Dosya'ya gidin ve Proje Yapısı'nı seçin.

  2. Proje Ayarlar altındaki Modüller'i seçin.

  3. src dosyasını seçin ve Kaynak olarak işaretini kaldırın.

  4. Uygula düğmesine tıklayın ve ardından tamam düğmesine tıklayarak iletişim kutusunu kapatın.

    Screenshot showing the unmark the src as sources.

Sonraki adımlar

Bu makalede, Scala'da yazılmış Apache Spark uygulamaları geliştirmek için IntelliJ için Azure Toolkit eklentisini kullanmayı öğrendiniz. Ardından bunları doğrudan IntelliJ tümleşik geliştirme ortamından (IDE) bir HDInsight Spark kümesine gönderdi. Apache Spark'a kaydettiğiniz verilerin Power BI gibi bir BI analiz aracına nasıl çekilebileceğini görmek için sonraki makaleye ilerleyin.