Hibakeresési spark-feladat hibakeresése az IntelliJ-hez készült Azure Toolkittel (előzetes verzió)
Ez a cikk részletes útmutatást nyújt arról, hogyan használható a HDInsight Tools az Azure Toolkit for IntelliJ-ben Spark-hibakeresési alkalmazások futtatásához.
Előfeltételek
Oracle Java fejlesztői készlet. Ez az oktatóanyag a Java 8.0.202-es verzióját használja.
IntelliJ IDEA. Ez a cikk az IntelliJ IDEA Community 2019.1.3-at használja.
Azure Toolkit for IntelliJ. Lásd : Az Azure Toolkit for IntelliJ telepítése.
Csatlakozás a HDInsight-fürthöz. Lásd a HDInsight-fürthöz Csatlakozás.
Microsoft Azure Storage Explorer. Lásd: A Microsoft Azure Storage Explorer letöltése.
Projekt létrehozása hibakeresési sablonnal
Hozzon létre egy spark2.3.2-projektet a hibakeresés folytatásához, és a hibakeresési feladat hibakeresési mintafájlját ebben a dokumentumban.
Nyissa meg az IntelliJ IDEA-t. Nyissa meg az Új projekt ablakot.
a. Válassza az Azure Spark/HDInsight lehetőséget a bal oldali panelen.
b. Válassza a Hibakeresési minta (előzetes verzió)(Scala) hibakeresési mintával rendelkező Spark-projektet a főablakban.
c. Válassza a Tovább lehetőséget.
Az Új projekt ablakban hajtsa végre a következő lépéseket:
a. Adja meg a projekt nevét és a projekt helyét.
b. A Project SDK legördülő listában válassza a Spark 2.3.2-fürthöz készült Java 1.8-at.
c. A Spark-verzió legördülő listában válassza a Spark 2.3.2(Scala 2.11.8)lehetőséget.
d. Válassza a Befejezés lehetőséget.
Válassza az src>fő>scala lehetőséget a kód projektben való megnyitásához. Ez a példa a AgeMean_Div() szkriptet használja.
Spark Scala/Java-alkalmazás futtatása HDInsight-fürtön
Hozzon létre egy Spark Scala/Java-alkalmazást, majd futtassa az alkalmazást egy Spark-fürtön az alábbi lépésekkel:
Kattintson a Konfiguráció hozzáadása gombra a Futtatás/hibakeresés konfigurációk ablak megnyitásához.
A Konfigurációk futtatása/hibakeresése párbeszédpanelen válassza a pluszjelet (+). Ezután válassza az Apache Spark on HDInsight lehetőséget.
Váltson távoli futtatásra a Fürt lapon. Adja meg a Név, a Spark-fürt és a főosztály nevét. Eszközeink támogatják a végrehajtókkal való hibakeresést. A numExectors alapértelmezett értéke 5, és jobb, ha nem állítja be a 3-nál magasabb értéket. A futtatási idő csökkentése érdekében hozzáadhat spark.yarn.maxAppAttempts függvényeket a feladatkonfigurációkhoz, és az értéket 1 értékre állíthatja. A konfiguráció mentéséhez kattintson az OK gombra.
A konfigurációt a megadott névvel menti a rendszer. A konfiguráció részleteinek megtekintéséhez válassza ki a konfiguráció nevét. A módosítások elvégzéséhez válassza a Konfigurációk szerkesztése lehetőséget.
A konfigurációs beállítások elvégzése után futtathatja a projektet a távoli fürtön.
Az alkalmazásazonosítót a kimeneti ablakban ellenőrizheti.
Sikertelen feladatprofil letöltése
Ha a feladat elküldése sikertelen, a sikertelen feladatprofilt letöltheti a helyi gépre a további hibakereséshez.
Nyissa meg a Microsoft Azure Storage Explorert, keresse meg a fürt HDInsight-fiókját a sikertelen feladathoz, töltse le a sikertelen feladat erőforrásait a megfelelő helyről: \hdp\spark2-events\.spark-failures\<application ID> egy helyi mappába. A tevékenységek ablak a letöltés előrehaladását jeleníti meg.
Helyi hibakeresési környezet konfigurálása és hibakeresés
Nyissa meg az eredeti projektet, vagy hozzon létre egy új projektet, és társítsa az eredeti forráskódhoz. A hibakeresés jelenleg csak a Spark2.3.2-es verzióját támogatja.
Az IntelliJ IDEA-ban hozzon létre egy Spark-hibakeresési konfigurációs fájlt, és válassza ki az FTD-fájlt a Korábban letöltött feladaterőforrások közül a Spark-feladat hibakörnyezetének helymezőjéhez .
Kattintson a helyi futtatás gombra az eszköztáron, a hiba a Futtatás ablakban jelenik meg.
Állítsa be a töréspontot, ahogy a napló jelzi, majd kattintson a helyi hibakeresés gombra a helyi hibakereséshez, ugyanúgy, mint a normál Scala/Java-projektek az IntelliJ-ben.
A hibakeresés után, ha a projekt sikeresen befejeződött, újra elküldheti a sikertelen feladatot a HDInsight-fürtön lévő sparkba.
Következő lépések
Forgatókönyvek
- Apache Spark és BI: Interaktív adatelemzés a Spark in HDInsight használatával BI-eszközökkel
- Apache Spark gépi Tanulás: A Spark használata a HDInsightban az épülethőmérséklet HVAC-adatokkal történő elemzéséhez
- Apache Spark gépi Tanulás: A Spark használata a HDInsightban az élelmiszer-ellenőrzési eredmények előrejelzéséhez
- Webhelynapló-elemzés az Apache Spark használatával a HDInsightban
Alkalmazások létrehozása és futtatása
- Önálló alkalmazás létrehozása a Scala használatával
- Feladatok távoli futtatása Apache Spark-fürtön az Apache Livy használatával
Eszközök és bővítmények
- Apache Spark-alkalmazások létrehozása HDInsight-fürtökhöz az Azure Toolkit for IntelliJ használatával
- Apache Spark-alkalmazások távoli hibakeresése VPN-en keresztül az Azure Toolkit for IntelliJ használatával
- Apache Spark-alkalmazások létrehozásához használja a HDInsight Toolst az Azure Toolkit for Eclipse-ben
- Apache Zeppelin-jegyzetfüzetek használata Apache Spark-fürttel a HDInsighton
- A HDInsighthoz készült Apache Spark-fürtben elérhető Kernelek a Jupyter Notebookhoz
- Külső csomagok használata Jupyter Notebookokkal
- A Jupyter telepítése a számítógépre, majd csatlakozás egy HDInsight Spark-fürthöz