Share via


Bővített generáció lekérése az Azure Machine Tanulás parancssori folyamatával (előzetes verzió)

Fontos

Ez a funkció jelenleg nyilvános előzetes verzióban érhető el. Ez az előzetes verzió szolgáltatásszintű szerződés nélkül érhető el, és éles számítási feladatokhoz nem javasoljuk. Előfordulhat, hogy néhány funkció nem támogatott, vagy korlátozott képességekkel rendelkezik.

For more information, see Supplemental Terms of Use for Microsoft Azure Previews.

A beolvasási kiterjesztett generáció (RAG) egy olyan minta, amely előre betanított nagy nyelvi modellekkel (LLM) és saját adataival működik a válaszok létrehozásához. Az Azure Machine Learningben mostantól a RAG-ot egy prompt flow-ban is megvalósíthatja. A RAG támogatása jelenleg nyilvános előnézetben van.

Ez a cikk felsorolja a RAG néhány előnyét, műszaki áttekintést nyújt, és ismerteti az Azure Machine Tanulás RAG-támogatását.

Megjegyzés:

Új LLM- és RAG-fogalmak? Ez a Microsoft-bemutatóból származó videoklip egyszerű magyarázatot nyújt.

Miért érdemes ragot használni?

Az alapmodelleket hagyományosan pont-idő adatokkal tanítják be, hogy biztosítsák az adott feladatok végrehajtásának hatékonyságát és a kívánt tartományhoz való alkalmazkodást. Előfordulhat azonban, hogy újabb vagy újabb adatokkal kell dolgoznia. Az alapmodellt két megközelítés egészítheti ki: az alapmodell finomhangolása vagy további betanítása új adatokkal, vagy rag, amely gyors tervezést alkalmaz a modell valós idejű kiegészítésére vagy irányítására.

A finomhangolás alkalmas a folyamatos tartományadaptálásra, ami jelentős javulást tesz lehetővé a modellminőségben, de gyakran magasabb költségekkel jár. Ezzel szemben a RAG alternatív megközelítést kínál, amely lehetővé teszi, hogy ugyanazt a modellt használja, mint egy érvelési motor a parancssorban megadott új adatokon. Ez a technika lehetővé teszi a környezeten belüli tanulást anélkül, hogy költséges finomhangolásra van szükség, így a vállalatok hatékonyabban használhatják az LLM-eket.

A RAG lehetővé teszi a vállalatok számára, hogy testre szabott megoldásokat érjenek el az adatok relevanciájának fenntartása és a költségek optimalizálása mellett. A RAG alkalmazásával a vállalatok az LLM-k érvelési képességeit használhatják, a meglévő modelljeik használatával pedig új adatokon alapuló válaszokat dolgozhatnak fel és hozhatnak létre. A RAG lehetővé teszi a rendszeres adatfrissítéseket anélkül, hogy finomhangolásra van szükség, ezáltal egyszerűsítve az LLM-eket a vállalkozásokba.

  • Kiegészítő adatok megadása irányelvként vagy kérésként az LLM-nek
  • Tényellenőrzési összetevő hozzáadása a meglévő modellekhez
  • A modell naprakész adatokon való betanítása anélkül, hogy a finomhangoláshoz kapcsolódó többletidő és költségek merülnek fel
  • Betanítása az üzleti adatokra

A RAG nagy nyelvi modelleken (LLM-eken) való használatának technikai áttekintése

Az információlekérés során a RAG egy olyan megközelítés, amely lehetővé teszi, hogy az LLM-eket a saját adataival hasznosíthassa. Ha egy LLM-nek engedélyeznie kell az egyéni adatok elérését, az alábbi lépésekkel jár. Először is a nagy adatokat kezelhető részekre kell bontani. Másodszor, az adattömböket kereshető formátumba kell konvertálni. Harmadszor, a konvertált adatokat olyan helyen kell tárolni, amely lehetővé teszi a hatékony hozzáférést. Emellett fontos az idézetek vagy hivatkozások releváns metaadatainak tárolása, amikor az LLM választ ad.

Screenshot of a diagram of the technical overview of an LLM walking through rag steps.

Nézzük meg részletesebben a diagramot.

  • Forrásadatok: itt találhatók az adatok. Ez lehet egy fájl/mappa a gépen, egy felhőbeli tárolóban lévő fájl, egy Azure Machine Tanulás adategység, egy Git-adattár vagy egy SQL-adatbázis.

  • Adattömb: A forrásban lévő adatokat egyszerű szöveggé kell konvertálni. A word-dokumentumokat vagy PDF-fájlokat például meg kell nyitni, és szöveggé kell konvertálni. A szöveg ezután kisebb darabokra van osztva.

  • A szöveg vektorokká alakítása: úgynevezett beágyazások. A vektorok a fogalmak számsorozatokká alakított numerikus ábrázolásai, amelyek megkönnyítik a számítógépek számára a fogalmak közötti kapcsolatok megértését.

  • Hivatkozások a forrásadatok és a beágyazások között: ezeket az információkat metaadatként tárolja a rendszer a létrehozott adattömbökben, amelyek aztán a válasz generálása során segítséget nyújtanak az LLM-eknek az idézetek létrehozásához.

RAG az Azure Machine Tanulás (előzetes verzió)

Az Azure Machine Tanulás RAG-t az Azure OpenAI Service-vel való integráció teszi lehetővé nagy nyelvi modellekhez és vektorizáláshoz, a Faiss és az Azure AI Search (korábbi nevén Cognitive Search) vektortárolókként való támogatásával, valamint nyílt forráskód olyan eszközök és keretrendszerek támogatásával, mint például a LangChain adattömbökhöz.

A RAG implementálásához teljesíteni kell néhány alapvető követelményt. Először úgy kell formázni az adatokat, hogy a hatékony kereshetőséget lehetővé tegye, mielőtt elküldené azokat az LLM-nek, ami végső soron csökkenti a tokenhasználatot. A RAG hatékonyságának biztosítása érdekében fontos az adatok rendszeres rendszeres frissítése is. Továbbá, ha képes az LLM kimenetének kiértékelésére az adatok használatával, lehetővé teszi a technikák hatékonyságának mérését. Az Azure Machine Tanulás nem csak ezen szempontok alapján teszi lehetővé a könnyű kezdést, hanem lehetővé teszi a RAG fejlesztését és élesítését is. Az Azure Machine Tanulás ajánlatai:

  • Minták RAG-alapú Q&A-forgatókönyvek indításához.
  • Varázslóalapú felhasználói felület az adatok létrehozásához és kezeléséhez, valamint a parancssori folyamatokba való beépítéséhez.
  • A RAG-munkafolyamatok mérésének és fejlesztésének képessége, beleértve a tesztelési adatok létrehozását, az automatikus parancssori létrehozást és a vizualizált gyorsértékelési metrikákat.
  • Speciális forgatókönyvek, nagyobb vezérléssel az új beépített RAG-összetevők használatával egyéni folyamatok jegyzetfüzetekben való létrehozásához.
  • Kódélmény, amely lehetővé teszi az olyan nyílt forráskód ajánlatokkal létrehozott adatok használatát, mint a LangChain.
  • A RAG-munkafolyamatok zökkenőmentes integrációja MLOps-munkafolyamatokba folyamatok és feladatok használatával.

Összefoglalás

Az Azure Machine Tanulás lehetővé teszi, hogy az Azure Machine Tanulás Studióval vagy az Azure Machine Tanulás-folyamatokkal kóddal beépítse a RAG-t az AI-be. Számos értéknövelő lehetőséget kínál, például a RAG-munkafolyamatok mérését és továbbfejlesztését, az adatlétrehozás tesztelését, az automatikus parancssori létrehozást és a gyors kiértékelési metrikák megjelenítését. Lehetővé teszi a RAG-munkafolyamatok mlOps-munkafolyamatokba való integrálását folyamatok használatával. Az adatokat nyílt forráskód olyan ajánlatokkal is használhatja, mint a LangChain.

További lépések

Vektortárolók használata az Azure Machine Tanulás használatával (előzetes verzió)

Vektorindex létrehozása az Azure Machine Tanulás parancssori folyamatában (előzetes verzió)