A Spark > Hive Tools for Visual Studio Code használata

Megtudhatja, hogyan használhatja az Apache Spark & Hive Tools for Visual Studio Code-ot. Az eszközökkel Apache Hive batch-feladatokat, interaktív Hive-lekérdezéseket és PySpark-szkripteket hozhat létre és küldhet el az Apache Sparkhoz. Először bemutatjuk, hogyan telepítheti a Spark > Hive Toolst a Visual Studio Code-ban. Ezután bemutatjuk, hogyan küldhet be feladatokat a Spark > Hive Toolsnak.

A Spark > Hive Tools telepíthető a Visual Studio Code által támogatott platformokra. Vegye figyelembe a különböző platformok következő előfeltételeit.

Előfeltételek

A cikk lépéseinek elvégzéséhez a következő elemek szükségesek:

Spark > Hive-eszközök telepítése

Az előfeltételek teljesítése után az alábbi lépések végrehajtásával telepítheti a Spark > Hive Tools for Visual Studio Code-ot:

  1. Nyissa meg a Visual Studio Code-ot.

  2. A menüsávon navigáljon a Bővítmények megtekintése elemre>.

  3. A keresőmezőbe írja be a Spark &Hive nevet.

  4. Válassza a Spark > Hive Tools lehetőséget a keresési eredmények közül, majd válassza a Telepítés lehetőséget:

    Spark & Hive for Visual Studio Code Python install.

  5. Szükség esetén válassza az Újratöltés lehetőséget.

Munkahelyi mappa megnyitása

Ha meg szeretne nyitni egy munkahelyi mappát, és létre szeretne hozni egy fájlt a Visual Studio Code-ban, kövesse az alábbi lépéseket:

  1. A menüsávon navigáljon a Fájl>megnyitása mappához...>C:\HD\HDexample, majd válassza a Mappa kiválasztása gombot. A mappa a bal oldali Explorer nézetben jelenik meg.

  2. Explorer nézetben válassza a HDexample mappát, majd válassza az Új fájl ikont a munkahelyi mappa mellett:

    visual studio code new file icon.

  3. Nevezze el az új fájlt a .hql (Hive-lekérdezések) vagy a .py (Spark-szkript) fájlkiterjesztés használatával. Ez a példa a HelloWorld.hql-t használja.

Az Azure-környezet beállítása

A nemzeti felhőfelhasználók esetében kövesse az alábbi lépéseket az Azure-környezet beállításához, majd az Azure: Bejelentkezés paranccsal jelentkezzen be az Azure-ba:

  1. Lépjen a Fájlbeállítások>> Gépház elemre.

  2. Keressen a következő sztringre: Azure: Cloud.

  3. Válassza ki az országos felhőt a listából:

    Set default login entry configuration.

Kapcsolódás Azure-fiókhoz

Mielőtt szkripteket küldhet a fürtökre a Visual Studio Code-ból, a felhasználó bejelentkezhet az Azure-előfizetésbe, vagy összekapcsolhat egy HDInsight-fürtöt. A HDInsight-fürthöz való csatlakozáshoz használja az ESP-fürt Ambari-felhasználónevét/jelszavát vagy tartományhoz csatlakoztatott hitelesítő adatait. Az Azure-hoz való csatlakozáshoz kövesse az alábbi lépéseket:

  1. A menüsávon navigáljon a Parancskatalógus megtekintése>..., majd írja be az Azure-t: Bejelentkezés:

    Spark & Hive Tools for Visual Studio Code login.

  2. Az Azure-ba való bejelentkezéshez kövesse a bejelentkezési utasításokat. A csatlakozás után az Azure-fiók neve megjelenik a Visual Studio Code ablakának alján található állapotsoron.

Egy normál fürtöt Apache Ambari által felügyelt felhasználónévvel kapcsolhat össze, vagy csatolhat egy Enterprise Security Pack biztonságos Hadoop-fürtöt egy tartománynévvel (például: user1@contoso.com).

  1. A menüsávon navigáljon a Parancskatalógus megtekintése>... elemre, és írja be a Spark/Hive: Fürt csatolása parancsot.

    Command Palette link cluster command.

  2. Válassza ki az Azure HDInsight társított fürttípust.

  3. Adja meg a HDInsight-fürt URL-címét.

  4. Adja meg Ambari-felhasználónevét; az alapértelmezett beállítás a rendszergazda.

  5. Adja meg az Ambari-jelszót.

  6. Válassza ki a fürt típusát.

  7. Állítsa be a fürt megjelenítendő nevét (nem kötelező).

  8. Tekintse át a KIMENETI nézetet ellenőrzés céljából.

    Feljegyzés

    A csatolt felhasználónevet és jelszót akkor használja a rendszer, ha a fürt bejelentkezett az Azure-előfizetésbe, és csatolt egy fürtöt.

  1. A menüsávon navigáljon a Parancskatalógus megtekintése>... elemre, és írja be a Spark/Hive: Fürt csatolása parancsot.

  2. Válassza ki a csatolt fürttípust általános Livy-végpontként.

  3. Adja meg az általános Livy-végpontot. Például: http://10.172.41.42:18080.

  4. Válassza az Egyszerű vagy a Nincs engedélyezési típust. Ha az Alapszintű lehetőséget választja:

    1. Adja meg Ambari-felhasználónevét; az alapértelmezett beállítás a rendszergazda.

    2. Adja meg az Ambari-jelszót.

  5. Tekintse át a KIMENETI nézetet ellenőrzés céljából.

Fürtök listázása

  1. A menüsávon navigáljon a Parancskatalógus megtekintése>..., majd írja be a Spark/Hive: Listafürt parancsot.

  2. Válassza ki a kívánt előfizetést.

  3. Tekintse át a KIMENETI nézetet. Ez a nézet a csatolt fürtöket (vagy fürtöket) és az Azure-előfizetéshez tartozó összes fürtöt jeleníti meg:

    Set a default cluster configuration.

Az alapértelmezett fürt beállítása

  1. Ha bezárja, nyissa meg újra a korábban tárgyalt HDexample mappát.

  2. Válassza ki a korábban létrehozott HelloWorld.hql fájlt. Megnyílik a szkriptszerkesztőben.

  3. Kattintson a jobb gombbal a szkriptszerkesztőre, majd válassza a Spark/Hive: Alapértelmezett fürt beállítása lehetőséget.

  4. Csatlakozás az Azure-fiókjához, vagy csatoljon egy fürtöt, ha még nem tette meg.

  5. Jelöljön ki egy fürtöt az aktuális szkriptfájl alapértelmezett fürtjeként. Az eszközök automatikusan frissítik a . VSCode\settings.json konfigurációs fájl:

    Set default cluster configuration.

Interaktív Hive-lekérdezések és Hive-kötegszkriptek küldése

A Spark > Hive Tools for Visual Studio Code használatával interaktív Hive-lekérdezéseket és Hive-kötegszkripteket küldhet a fürtökre.

  1. Ha bezárja, nyissa meg újra a korábban tárgyalt HDexample mappát.

  2. Válassza ki a korábban létrehozott HelloWorld.hql fájlt. Megnyílik a szkriptszerkesztőben.

  3. Másolja és illessze be a következő kódot a Hive-fájlba, majd mentse:

    SELECT * FROM hivesampletable;
    
  4. Csatlakozás az Azure-fiókjához, vagy csatoljon egy fürtöt, ha még nem tette meg.

  5. Kattintson a jobb gombbal a szkriptszerkesztőre, és válassza a Hive: Interaktív parancsot a lekérdezés elküldéséhez, vagy használja a Ctrl+Alt+I billentyűparancsot. Válassza a Hive: Batch lehetőséget a szkript elküldéséhez, vagy használja a Ctrl+Alt+H billentyűparancsot.

  6. Ha még nem adott meg alapértelmezett fürtöt, válasszon ki egy fürtöt. Az eszközök segítségével a helyi menü használatával a teljes szkriptfájl helyett kódblokkot is elküldhet. Néhány pillanat múlva a lekérdezés eredményei egy új lapon jelennek meg:

    Interactive Apache Hive query result.

    • EREDMÉNYEK panel: A teljes eredményt mentheti CSV-, JSON- vagy Excel-fájlként egy helyi elérési útra, vagy egyszerűen kijelölhet több sort.

    • ÜZENETEK panel: Amikor kiválaszt egy sorszámot , az a futó szkript első sorára ugrik.

Interaktív PySpark-lekérdezések küldése

A Pyspark interaktív használatának előfeltétele

Vegye figyelembe, hogy a Jupyter Extension (ms-jupyter): v2022.1.1001614873 és Python Extension version (ms-python): v2021.12.1559732655, Python 3.6.x és 3.7.x szükséges a HDInsight interaktív PySpark-lekérdezésekhez.

A felhasználók az alábbi módokon végezhetik el a PySpark interaktív végrehajtását.

A PySpark interaktív parancs használata PY-fájlban

A PySpark interaktív parancsával küldje el a lekérdezéseket, kövesse az alábbi lépéseket:

  1. Ha bezárja, nyissa meg újra a korábban tárgyalt HDexample mappát.

  2. Hozzon létre egy új HelloWorld.py fájlt a korábbi lépések végrehajtásával.

  3. Másolja és illessze be a következő kódot a szkriptfájlba:

    from operator import add
    from pyspark.sql import SparkSession 
    spark = SparkSession.builder \ 
          .appName('hdisample') \ 
          .getOrCreate() 
    lines = spark.read.text("/HdiSamples/HdiSamples/FoodInspectionData/README").rdd.map(lambda r: r[0])
    counters = lines.flatMap(lambda x: x.split(' ')) \
                 .map(lambda x: (x, 1)) \
                 .reduceByKey(add)
    
    coll = counters.collect()
    sortedCollection = sorted(coll, key = lambda r: r[1], reverse = True)
    
    for i in range(0, 5):
         print(sortedCollection[i])
    
  4. A PySpark/Synapse Pyspark kernel telepítésére vonatkozó kérés az ablak jobb alsó sarkában jelenik meg. A Telepítés gombra kattintva továbbléphet a PySpark/Synapse Pyspark telepítéseihez, vagy a Kihagyás gombra kattintva kihagyhatja ezt a lépést.

    Screenshot shows an option to skip the PySpark installation.

  5. Ha később telepítenie kell, lépjen a Fájlbeállítások>> elemre Gépház majd törölje a HDInsight jelölését: Engedélyezze a Pyspark telepítésének kihagyását a beállítások között.

    Screenshot shows the option to Enable Skip Pyspark Installation.

  6. Ha a telepítés sikeres a 4. lépésben, az ablak jobb alsó sarkában megjelenik a "PySpark telepítése sikeresen" üzenetmező. Kattintson az Újratöltés gombra az ablak újbóli betöltéséhez.

    pyspark installed successfully.

  7. A menüsávon navigáljon a Parancskatalógus megtekintése>elemre... vagy használja a Shift + Ctrl + P billentyűparancsot, és írja be a Python: Értelmező kiválasztása parancsot a Jupyter Server elindításához.

    select interpreter to start jupyter server.

  8. Válassza az alábbi Python lehetőséget.

    choose the below option.

  9. A menüsávon navigáljon a Parancskatalógus megtekintése>elemre... vagy használja a Shift + Ctrl + P billentyűparancsot, és írja be a Developer: Reload Window parancsot.

    reload window.

  10. Csatlakozás az Azure-fiókjához, vagy csatoljon egy fürtöt, ha még nem tette meg.

  11. Válassza ki az összes kódot, kattintson a jobb gombbal a szkriptszerkesztőre, és válassza a Spark: PySpark Interactive / Synapse: Pyspark Interactive lehetőséget a lekérdezés elküldéséhez.

    pyspark interactive context menu.

  12. Jelölje ki a fürtöt, ha nem adott meg alapértelmezett fürtöt. Néhány pillanat múlva a Python Interaktív eredmények egy új lapon jelennek meg. Kattintson a PySparkra a kernel PySpark/Synapse Pysparkra való átváltásához, és a kód sikeresen lefut. Ha Synapse Pyspark kernelre szeretne váltani, javasoljuk, hogy tiltsa le az automatikus beállításokat az Azure Portalon. Ellenkező esetben a fürt felébresztése és a synapse kernel első alkalommal történő beállítása hosszabb időt vehet igénybe. Ha az eszközök lehetővé teszik, hogy a helyi menü használatával a teljes szkriptfájl helyett kódblokkot küldjön be:

    pyspark interactive python interactive window.

  13. Írja be a %%-adatokat, majd nyomja le a Shift+Enter billentyűkombinációt a feladatadatok megtekintéséhez (nem kötelező):

    pyspark interactive view job information.

Az eszköz a Spark SQL-lekérdezést is támogatja:

pyspark interactive view result.

Interaktív lekérdezés végrehajtása PY-fájlban #%% megjegyzés használatával

  1. Adja hozzá #%% a Py-kód előtt a jegyzetfüzet élményének lekéréséhez.

    add #%%.

  2. Kattintson a Cella futtatása elemre. Néhány pillanat múlva a Python Interaktív eredmények egy új lapon jelennek meg. Kattintson a PySparkra a kernel PySpark/Synapse PySparkra való váltásához, majd kattintson ismét a Cella futtatása elemre, és a kód sikeresen lefut.

    run cell results.

IPYNB-támogatás használata Python-bővítményből

  1. Jupyter-jegyzetfüzetet a parancskatalógusból vagy egy új .ipynb-fájl létrehozásával hozhat létre a munkaterületen. További információ: Jupyter-jegyzetfüzetek használata a Visual Studio Code-ban

  2. Kattintson a Cella futtatása gombra, kövesse az utasításokat az alapértelmezett spark-készlet beállításához (erősen javasoljuk, hogy a jegyzetfüzet megnyitása előtt minden alkalommal állítsa be az alapértelmezett fürtöt/készletet), majd töltse be újra az ablakot.

    set the default spark pool and reload.

  3. Kattintson a PySparkra a kernel PySpark/Synapse Pysparkra való váltásához, majd kattintson a Futtató cellára, egy idő után megjelenik az eredmény.

    run ipynb results.

Feljegyzés

A Synapse PySpark telepítési hibája esetén, mivel a függőségét a többi csapat már nem fogja fenntartani, ezt már nem tartjuk fenn. Ha interaktívan szeretné használni a Synapse Pysparkot, váltson inkább az Azure Synapse Analytics használatára. És ez hosszú távú változás.

PySpark-kötegelt feladat elküldése

  1. Ha bezárja, nyissa meg újra a korábban tárgyalt HDexample mappát.

  2. Hozzon létre egy új BatchFile.py fájlt a korábbi lépések végrehajtásával.

  3. Másolja és illessze be a következő kódot a szkriptfájlba:

    from __future__ import print_function
    import sys
    from operator import add
    from pyspark.sql import SparkSession
    if __name__ == "__main__":
        spark = SparkSession\
            .builder\
            .appName("PythonWordCount")\
            .getOrCreate()
    
        lines = spark.read.text('/HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv').rdd.map(lambda r: r[0])
        counts = lines.flatMap(lambda x: x.split(' '))\
                   .map(lambda x: (x, 1))\
                    .reduceByKey(add)
        output = counts.collect()
        for (word, count) in output:
            print("%s: %i" % (word, count))
        spark.stop()
    
  4. Csatlakozás az Azure-fiókjához, vagy csatoljon egy fürtöt, ha még nem tette meg.

  5. Kattintson a jobb gombbal a szkriptszerkesztőre, majd válassza a Spark: PySpark Batch vagy a Synapse: PySpark Batch* lehetőséget.

  6. Válasszon ki egy fürtöt/spark-készletet a PySpark-feladat elküldéséhez a következő címre:

    Submit Python job result output.

A Python-feladat elküldése után a beküldési naplók megjelennek a Visual Studio Code OUTPUT ablakában. Megjelenik a Spark felhasználói felület URL-címe és a Yarn felhasználói felületének URL-címe is. Ha egy Apache Spark-készletbe küldi el a kötegelt feladatot, megjelenik a Spark-előzmények felhasználói felületének URL-címe és a Spark-feladatalkalmazás felhasználói felületének URL-címe is. A feladat állapotának nyomon követéséhez megnyithatja az URL-címet egy webböngészőben.

Integrálás a HDInsight Identity Brokerrel (HIB)

Csatlakozás a HDInsight ESP-fürthöz az ID Broker (HIB) használatával

A normál lépéseket követve bejelentkezhet az Azure-előfizetésbe a HDInsight ESP-fürthöz való csatlakozáshoz az ID Broker (HIB) használatával. A bejelentkezés után megjelenik a fürtlista az Azure Explorerben. További útmutatásért tekintse meg a HDInsight-fürtre vonatkozó Csatlakozás.

Hive/PySpark-feladat futtatása HDInsight ESP-fürtön id Brokerrel (HIB)

Hive-feladat futtatásához kövesse a normál lépéseket a feladat HDInsight ESP-fürtbe való elküldéséhez az ID Broker (HIB) használatával. További útmutatásért tekintse meg az interaktív Hive-lekérdezések és a Hive-kötegszkriptek beküldését.

Interaktív PySpark-feladat futtatásához kövesse a normál lépéseket a feladat HDInsight ESP-fürtbe való elküldéséhez az ID Broker (HIB) használatával. Tekintse meg az interaktív PySpark-lekérdezések beküldését.

PySpark-kötegelt feladat futtatásához kövesse a normál lépéseket a feladat HDInsight ESP-fürtbe való elküldéséhez az ID Broker (HIB) használatával. További útmutatásért tekintse meg a PySpark-kötegelt feladat elküldését.

Apache Livy-konfiguráció

Az Apache Livy-konfiguráció támogatott. Konfigurálhatja a . VSCode\settings.json fájl a munkaterület mappájában. A Livy-konfiguráció jelenleg csak a Python-szkripteket támogatja. További információ: Livy README.

Livy-konfiguráció aktiválása

1. módszer

  1. A menüsávon lépjen a Fájlbeállítások>> Gépház elemre.
  2. A Keresési beállítások mezőbe írja be a HDInsight-feladatbeküldést: Livy Conf.
  3. Válassza a Szerkesztés lehetőséget a settings.json a megfelelő keresési eredményhez.

2. módszer

Küldjön be egy fájlt, és figyelje meg, hogy a .vscode mappa automatikusan bekerül a munkahelyi mappába. A Livy-konfiguráció a .vscode\settings.json lehetőséget választva jelenik meg.

  • A projekt beállításai:

    HDInsight Apache Livy configuration.

    Feljegyzés

    A driverMemory és a executorMemory beállításoknál adja meg az értéket és az egységet. Például: 1g vagy 1024m.

  • Támogatott Livy-konfigurációk:

    POST /batches

    Kérelem törzse

    név leírás típus
    fájl A végrehajtandó alkalmazást tartalmazó fájl Elérési út (kötelező)
    proxyUser A feladat futtatásakor megszemélyesítendő felhasználó Sztring
    Osztálynév Java-alkalmazás/Spark főosztály Sztring
    args Az alkalmazás parancssori argumentumai Sztringek listája
    Tégelyek Az ebben a munkamenetben használandó jarok Sztringek listája
    pyFiles A munkamenetben használandó Python-fájlok Sztringek listája
    fájlok Az ebben a munkamenetben használandó fájlok Sztringek listája
    driverMemory Az illesztőprogram-folyamathoz használandó memória mennyisége Sztring
    driverCores Az illesztőprogram-folyamathoz használandó magok száma Int
    executorMemory A végrehajtói folyamatonként használandó memória mennyisége Sztring
    executorCores Az egyes végrehajtókhoz használandó magok száma Int
    numExecutors A munkamenethez elindítandó végrehajtók száma Int
    Archívum Az ebben a munkamenetben használandó archívumok Sztringek listája
    feldolgozási sor Annak a YARN-üzenetsornak a neve, amelybe elküldendő Sztring
    név A munkamenet neve Sztring
    Conf Spark-konfiguráció tulajdonságai A key=val térképe

    Válasz törzs A létrehozott Batch-objektum.

    név leírás típus
    ID (Azonosító) Munkamenet-azonosító Int
    appId A munkamenet alkalmazásazonosítója Sztring
    appInfo Részletes alkalmazásadatok A key=val térképe
    napló Naplósorok Sztringek listája
    állapot Batch-állapot Sztring

    Feljegyzés

    A hozzárendelt Livy-konfiguráció megjelenik a kimeneti panelen a szkript elküldésekor.

Integrálás az Azure HDInsighttal az Explorerből

A Hive Table előnézetét közvetlenül az Azure HDInsight Explorer használatával tekintheti meg a fürtökben:

  1. Csatlakozás az Azure-fiókjába, ha még nem tette meg.

  2. Válassza ki az Azure ikont a bal szélső oszlopból.

  3. A bal oldali panelen bontsa ki az AZURE: HDINSIGHT elemet. Az elérhető előfizetések és fürtök listája megjelenik.

  4. Bontsa ki a fürtöt a Hive metaadat-adatbázis és a táblaséma megtekintéséhez.

  5. Kattintson a jobb gombbal a Hive táblára. Például: hivesampletable. Válassza a Előnézet elemet.

    Spark & Hive for Visual Studio Code preview hive table.

  6. Megnyílik az Előnézeti eredmények ablak:

    Spark & Hive for Visual Studio Code preview results window.

  • EREDMÉNYEK panel

    A teljes eredményt mentheti CSV-, JSON- vagy Excel-fájlként egy helyi elérési útra, vagy egyszerűen kijelölhet több sort.

  • ÜZENETEK panel

    1. Ha a táblázat sorainak száma meghaladja a 100-t, a következő üzenet jelenik meg: "A Hive-tábla első 100 sora jelenik meg."

    2. Ha a táblázat sorainak száma kisebb vagy egyenlő 100-nál, a következő üzenet jelenik meg: "60 sor jelenik meg a Hive-tábla esetében".

    3. Ha nincs tartalom a táblázatban, a következő üzenet jelenik meg: "0 rows are displayed for Hive table."

      Feljegyzés

      Linuxon telepítse az xclipet a másolási tábla adatainak engedélyezéséhez.

      Spark & Hive for Visual Studio code in Linux.

További funkciók

A Visual Studio Code-hoz készült Spark > Hive a következő funkciókat is támogatja:

  • IntelliSense automatikus kiegészítés. Kulcsszavakra, metódusokra, változókra és egyéb programozási elemekre vonatkozó javaslatok jelennek meg. A különböző ikonok különböző típusú objektumokat jelölnek:

    Spark & Hive Tools for Visual Studio Code IntelliSense objects.

  • IntelliSense hibajelölő. A nyelvi szolgáltatás aláhúzza a Hive-szkript szerkesztési hibáit.

  • Szintaxiskiemelések. A nyelvi szolgáltatás különböző színekkel különbözteti meg a változókat, kulcsszavakat, adattípust, függvényeket és egyéb programozási elemeket:

    Spark & Hive Tools for Visual Studio Code syntax highlights.

Csak olvasói szerepkör

A fürt csak olvasó szerepkörével rendelkező felhasználók nem küldhetnek feladatokat a HDInsight-fürtnek, és nem tekinthetik meg a Hive-adatbázist. Lépjen kapcsolatba a fürt rendszergazdájával, és frissítse a szerepkört a HDInsight-fürt operátorára az Azure Portalon. Ha rendelkezik érvényes Ambari-hitelesítő adatokkal, az alábbi útmutató segítségével manuálisan csatolhatja a fürtöt.

Tallózás a HDInsight-fürtben

Amikor egy HDInsight-fürt kibontásához az Azure HDInsight Explorert választja, a rendszer arra kéri, hogy kapcsolja össze a fürtöt, ha a fürt csak olvasó szerepkörrel rendelkezik. Az alábbi módszerrel csatolhatja a fürtöt az Ambari hitelesítő adataival.

A feladat elküldése a HDInsight-fürtre

Amikor feladatot küld egy HDInsight-fürtnek, a rendszer arra kéri, hogy kapcsolja össze a fürtöt, ha a fürt csak olvasó szerepkörben van. Az alábbi lépésekkel csatolhatja a fürtöt az Ambari hitelesítő adataival.

  1. Adjon meg érvényes Ambari-felhasználónevet.

  2. Adjon meg érvényes jelszót.

    Spark & Hive Tools for Visual Studio Code Username.

    Spark & Hive Tools for Visual Studio Code Password.

    Feljegyzés

    A csatolt fürt ellenőrzéséhez használhatja Spark / Hive: List Cluster a következőt:

    Spark & Hive Tools for Visual Studio Code Reader Linked.

Azure Data Lake Storage Gen2

2. generációs Data Lake Storage-fiók tallózása

A Data Lake Storage Gen2-fiók kibontásához válassza az Azure HDInsight Explorert. A rendszer kéri, hogy adja meg a tárelérési kulcsot, ha az Azure-fiókja nem fér hozzá a Gen2-tárolóhoz. A hozzáférési kulcs érvényesítése után a Data Lake Storage Gen2-fiók automatikusan ki lesz bontva.

Feladatok elküldése HDInsight-fürtbe a Data Lake Storage Gen2 használatával

Feladat elküldése EGY HDInsight-fürtbe a Data Lake Storage Gen2 használatával. A rendszer kéri, hogy adja meg a tárelérési kulcsot, ha az Azure-fiókja nem rendelkezik írási hozzáféréssel a Gen2 Storage-hoz. A hozzáférési kulcs ellenőrzése után a feladat sikeresen el lesz küldve.

Spark & Hive Tools for Visual Studio Code AccessKey.

Feljegyzés

A tárfiók hozzáférési kulcsát az Azure Portalon szerezheti be. További információ: Tárfiók hozzáférési kulcsainak kezelése.

  1. A menüsávon lépjen a Parancskatalógus megtekintése>lapra, majd írja be a Spark/Hive: Fürt leválasztása parancsot.

  2. Válassza ki a leválasztani kívánt fürtöt.

  3. Az ellenőrzéshez tekintse meg a OUTPUT nézetet.

Kijelentkezés

A menüsávon lépjen a Parancskatalógus megtekintése>lapra, majd írja be az Azure: Kijelentkezés parancsot.

Ismert problémák

A Synapse PySpark telepítési hibája.

A Synapse PySpark telepítési hibája esetén, mivel függőségét a többi csapat már nem fogja fenntartani, többé nem fogja fenntartani. Ha a Synapse Pyspark interaktív használatát szeretné használni, használja inkább az Azure Synapse Analyticset . És ez hosszú távú változás.

synapse pyspark installation error.

Következő lépések

A Visual Studio Code-hoz készült Spark & Hive használatát bemutató videóért tekintse meg a Spark > Hive for Visual Studio Code-ot.