Importera från Azure Table

Den här artikeln beskriver hur du använder modulen Importera data i Azure Machine Learning Studio (klassisk) för att importera strukturerade eller halvstrukturerade data från Azure-tabeller till ett maskininlärningsexperiment.

Anteckning

Gäller för: Machine Learning Studio (klassisk)

Det här innehållet gäller endast Studio (klassisk). Liknande dra-och släpp moduler har lagts till i Azure Machine Learning designer. Mer information i den här artikeln är att jämföra de två versionerna.

Azure-tabelltjänsten är en datahanteringstjänst i Azure som kan lagra stora mängder strukturerade, icke-relationella data. Det är ett NoSQL-datalager som accepterar autentiserade anrop inifrån och utanför Azure.

Om du importerar från Azure Table Storage måste du välja någon av två kontotyper: ett lagringskonto som kan nås med hjälp av en SAS-URL eller ett privat lagringskonto som kräver inloggningsuppgifter.

Så här importerar du data från Azure-tabeller

Använd guiden Importera data

Modulen innehåller en ny guide som hjälper dig att välja ett lagringsalternativ, välja bland befintliga prenumerationer och konton och snabbt konfigurera alla alternativ.

  1. Lägg till modulen Importera data i experimentet. Du hittar modulen under Data Input (Indata) och Output (Utdata).

  2. Klicka på Starta guiden Importera data och följ anvisningarna.

  3. När konfigurationen är klar kopierar du data till experimentet genom att högerklicka på modulen och välja Kör valda.

Om du behöver redigera en befintlig dataanslutning läser guiden in all tidigare konfigurationsinformation så att du inte behöver börja om från början

Ange egenskaper manuellt i modulen Importera data

Följande steg beskriver hur du konfigurerar importkällan manuellt.

  1. Lägg till modulen Importera data i experimentet. Du hittar den här modulen i gruppen Indata och utdata i listan med experimentobjekt i Azure Machine Learning Studio (klassisk).

  2. För Datakälla väljer du Azure Table.

  3. För Autentiseringstyp väljer du Offentlig (SAS-URL) om du vet att informationen har angetts som en offentlig datakälla. En SAS-URL är en tidsbunden åtkomst-URL som du kan generera med hjälp av ett Azure Storage-verktyg.

    Annars väljer du Konto.

  4. Om dina data finns i en offentlig blob som kan nås med hjälp av en SAS-URL behöver du inte ytterligare autentiseringsuppgifter eftersom URL-strängen innehåller all information som behövs för nedladdning och autentisering.

    I fältet Table SAS URI (SAS-URI för tabell) skriver eller klistrar du in den fullständiga URI som definierar kontot och den offentliga bloben.

    Anteckning

    På en sida som är tillgänglig via SAS-URL kan data lagras med endast följande format: CSV, TSV och ARFF.

  5. Om dina data finns i ett privat konto måste du ange autentiseringsuppgifter, inklusive kontonamnet och nyckeln.

    • I Tabellkontonamn skriver eller klistrar du in namnet på det konto som innehåller den blob som du vill komma åt.

      Om den fullständiga URL:en för lagringskontot till exempel är https://myshared.table.core.windows.net skriver du myshared .

    • För Tabellkontonyckel klistrar du in åtkomstnyckeln som är associerad med lagringskontot.\

      Om du inte känner till åtkomstnyckeln kan du läsa avsnittet "Visa, kopiera och återskapa lagringsåtkomstnycklar" i den här artikeln: Om Azure Storage-konton.

    • I Tabellnamn anger du namnet på den specifika tabell som du vill läsa.

  6. Välj ett alternativ som anger hur många rader som ska genomsöka importdata. Importera data använder genomsökningen för att hämta listan över kolumner i data och för att fastställa vilka kolumndatatyper som ska vara.

    • TopN: Sök bara igenom det angivna antalet rader, med början överst i datauppsättningen.

      Som standard genomsöks 10 rader, men du kan öka eller minska det värdet med hjälp av alternativet Antal rader för TopN.

      Om data är homogena och förutsägbara väljer du TopN och anger ett tal för N. För stora tabeller kan detta resultera i snabbare lästider.

    • ScanAll: Sök igenom alla rader i tabellen.

      Om data är strukturerade med uppsättningar egenskaper som varierar beroende på tabellens djup och position väljer du alternativet ScanAll för att söka igenom alla rader. Detta säkerställer integriteten för resulterande egenskap och metadatakonvertering.

  7. Ange om du vill att data ska uppdateras varje gång experimentet körs. Om du väljer alternativet Använd cachelagrade resultat (standard) läser modulen Importera data data från den angivna källan första gången experimentet körs och cachelagrar sedan resultatet. Om det finns några ändringar i parametrarna i modulen Importera data läses data in på nya sätt.

    Om du avmarkerar det här alternativet läses data från källan varje gång experimentet körs, oavsett om data är desamma eller inte.

Exempel

Exempel på hur du använder modulen Exportera data finns i Azure AI Gallery.

Teknisk information

Det här avsnittet innehåller implementeringsinformation, tips och svar på vanliga frågor.

Vanliga frågor

Hur undviker jag att läsa in samma data i onödan igen?

Om dina källdata ändras kan du uppdatera datauppsättningen och lägga till nya data genom att köra Importera data igen. Men om du inte vill läsa från källan varje gång du kör experimentet väljer du alternativet Använd cachelagrade resultat till TRUE. När det här alternativet är inställt på TRUE kontrollerar modulen om experimentet har körts tidigare med samma alternativ för källa och samma indata, och om en tidigare körning hittas används data i cacheminnet i stället för att läsa in data igen från källan.

Kan jag filtrera data när de läses från källan?

Modulen Importera data stöder inte filtrering eftersom data läses. Undantaget är läsning från dataflöden, vilket ibland gör att du kan ange ett filtervillkor som en del av feed-URL:en.

Du kan dock ändra eller filtrera data när du har läst in dem i Azure Machine Learning Studio (klassisk):

  • Använd ett anpassat R-skript för att ändra eller filtrera data.
  • Använd modulen Dela data med ett relativt uttryck eller ett reguljärt uttryck för att isolera de data du vill ha och spara dem sedan som en datauppsättning.

Anteckning

Om du upptäcker att du har läst in mer data än du behöver kan du skriva över den cachelagrade datauppsättningen genom att läsa in en ny datauppsättning och spara den med samma namn som äldre, större data.

Hur hanterar Import Data data som läses in från olika geografiska regioner?

Om blob- eller tabellagringskontot finns i en annan region än beräkningsnoden som används för machine learning-experimentet kan dataåtkomsten vara långsammare. Dessutom debiteras du för in- och utgående data i prenumerationen.

Varför visas inte vissa tecken i tabellen korrekt?

Azure Machine Learning har stöd för UTF-8-kodning. Om tabellen använder en annan kodning kanske inte tecknen importeras korrekt.

Finns det några förbjudna tecken eller tecken som ändras under importen?

Om attributdata innehåller citattecken eller sekvenser med citattecken hanteras de med hjälp av reglerna för sådana tecken i Microsoft Excel. Alla andra tecken hanteras med hjälp av följande specifikationer som riktlinje: RFC 4180.

Modulparametrar

Name Intervall Typ Standard Standard
Datakälla Lista Datakälla eller mottagare Azure Blob Storage Datakällan kan vara HTTP, FTP, anonym HTTPS eller FTPS, en fil i Azure BLOB Storage, en Azure-tabell, en Azure SQL Database, en lokal SQL Server-databas, en Hive-tabell eller en OData-slutpunkt.
Autentiseringstyp PublicOrSas

Konto
tableAuthType Konto Ange om data finns i en offentlig container som kan nås via SAS-URL eller finns i ett privat lagringskonto som kräver autentisering för åtkomst.

Offentlig lagring eller SAS – alternativ för offentlig lagring

Name Intervall Typ Standardvärde Description
Tabell-URI valfri Sträng
Rader som ska genomsöks efter egenskapsnamn via SAS heltal
Antal rader för TopN via SAS

Konto – Alternativ för privat lagring

Name Intervall Typ Standardvärde Description
Tabellkontonamn
Tabellkontonyckel valfri SecureString
Tabellnamn valfri
Rader som ska genomsöks efter egenskapsnamn TopN

ScanAll
Antal rader för TopN valfri heltal

Utdata

Namn Typ Description
Resultatdatauppsättning Datatabell Datauppsättning med nedladdade data

Undantag

Undantag Description
Fel 0027 Ett undantag inträffar när två objekt måste ha samma storlek, men de inte är det.
Fel 0003 Ett undantag inträffar om en eller flera indata är null eller tomma.
Fel 0029 Ett undantag inträffar när en ogiltig URI skickas.
Fel 0030 ett undantag inträffar i när det inte går att ladda ned en fil.
Fel 0002 Ett undantag inträffar om en eller flera parametrar inte kunde parsas eller konverteras från den angivna typen till den typ som krävs av målmetoden.
Fel 0009 Ett undantag inträffar om namnet på Azure-lagringskontot eller containernamnet har angetts felaktigt.
Fel 0048 Ett undantag inträffar när det inte går att öppna en fil.
Fel 0046 Ett undantag inträffar när det inte går att skapa en katalog på den angivna sökvägen.
Fel 0049 Ett undantag inträffar när det inte går att parsa en fil.

En lista över fel som är specifika för Studio-moduler (klassisk) finns i Machine Learning felkoder.

En lista över API-undantag finns i Machine Learning REST API felkoder.

Se även

Importera data
Exportera data
Importera från webb-URL via HTTP
Importera från Hive-fråga
Importera från Azure SQL Database
Importera från Azure Blob Storage
Importera från dataflödesproviders
Importera från lokal SQL Server Database