Öğretici: New York Taxicab veri kümesini yüklemeTutorial: Load the New York Taxicab dataset

Bu öğretici, New York Taxıab veri kümesini bir Azure Blob depolama hesabından yüklemek için Copy ifadesini kullanır.This tutorial uses the COPY statement to load New York Taxicab dataset from an Azure Blob Storage account. Öğreticide aşağıdaki işlemler için Azure Portal ve SQL Server Management Studio (SSMS) kullanılır:The tutorial uses the Azure portal and SQL Server Management Studio (SSMS) to:

  • Verileri yüklemek için belirlenen bir kullanıcı oluşturmaCreate a user designated for loading data
  • Örnek veri kümesi için tabloları oluşturmaCreate the tables for the sample dataset
  • Veri ambarınıza veri yüklemek için COPY T-SQL ifadesini kullanınUse the COPY T-SQL statement to load data into your data warehouse
  • Yüklendikleri sırada verilerin ilerleme durumunu görüntülemeView the progress of data as it is loading

Azure aboneliğiniz yoksa başlamadan önce ücretsiz bir hesap oluşturun.If you don't have an Azure subscription, create a free account before you begin.

Başlamadan önceBefore you begin

Bu öğreticiye başlamadan önce, SQL Server Management Studio’nun (SSMS) en yeni sürümünü indirin ve yükleyin.Before you begin this tutorial, download and install the newest version of SQL Server Management Studio (SSMS).

Bu öğreticide, aşağıdaki öğreticidenzaten bir SQL adanmış havuzu oluşturmuş olduğunuz varsayılmaktadır.This tutorial assumes you have already created a SQL dedicated pool from the following tutorial.

Verileri yüklemek için kullanıcı oluşturmaCreate a user for loading data

Sunucu yöneticisi hesabı yönetim işlemlerini gerçekleştirmeye yöneliktir ve kullanıcı verileri üzerinde sorgu çalıştırmaya uygun değildir.The server admin account is meant to perform management operations, and is not suited for running queries on user data. Verileri yükleme, yoğun bellek kullanan bir işlemdir.Loading data is a memory-intensive operation. Bellek üst sınırları, veri ambarı birimlerine ve yapılandırılan kaynak sınıfına göre tanımlanır.Memory maximums are defined according to the data warehouse units and resource class configured.

En iyisi verileri yüklemeye ayrılmış bir oturum açma ve kullanıcı bilgisi oluşturmaktır.It's best to create a login and user that is dedicated for loading data. Ardından yükleme kullanıcısını uygun bir bellek ayırma üst sınırına olanak tanıyan bir kaynak sınıfına ekleyin.Then add the loading user to a resource class that enables an appropriate maximum memory allocation.

Oturum açma bilgileri ve kullanıcılar oluşturabilmeniz için sunucu yöneticisi olarak bağlanın.Connect as the server admin so you can create logins and users. Şu adımları kullanarak LoaderRC20 adlı bir oturum açma bilgisi ve kullanıcı oluşturun.Use these steps to create a login and user called LoaderRC20. Sonra kullanıcıyı staticrc20 kaynak sınıfına atayın.Then assign the user to the staticrc20 resource class.

  1. SSMS 'de, açılan menüyü göstermek için ana öğe ' yi sağ seçin ve Yeni sorgu' yı seçin.In SSMS, right-select master to show a drop-down menu, and choose New Query. Yeni bir sorgu penceresi açılır.A new query window opens.

    Asıl veritabanında yeni sorgu

  2. Sorgu penceresinde, şu T-SQL komutlarını girerek LoaderRC20 adlı bir oturum açma bilgisi ve kullanıcı oluşturun, 'a123STRONGpassword!' yerine kendi parolanızı girin.In the query window, enter these T-SQL commands to create a login and user named LoaderRC20, substituting your own password for 'a123STRONGpassword!'.

    CREATE LOGIN LoaderRC20 WITH PASSWORD = 'a123STRONGpassword!';
    CREATE USER LoaderRC20 FOR LOGIN LoaderRC20;
    
  3. Yürüt’ü seçin.Select Execute.

  4. mySampleDataWarehouse’a sağ tıklayıp Yeni Sorgu’yu seçin.Right-click mySampleDataWarehouse, and choose New Query. Yeni bir sorgu penceresi açılır.A new query Window opens.

    Örnek veri ambarında yeni sorgu

  5. Aşağıdaki T-SQL komutlarını girerek LoaderRC20 oturum açma bilgisi için LoaderRC20 adlı bir veritabanı kullanıcısı oluşturun.Enter the following T-SQL commands to create a database user named LoaderRC20 for the LoaderRC20 login. İkinci satır, yeni kullanıcıya yeni veri ambarı üzerinde DENETİM izinleri verir.The second line grants the new user CONTROL permissions on the new data warehouse. Bu izinler, kullanıcıyı veritabanı sahibi yapmaya benzer.These permissions are similar to making the user the owner of the database. Üçüncü satır, yeni kullanıcı staticrc20 kaynak sınıfına üye olarak ekler.The third line adds the new user as a member of the staticrc20 resource class.

    CREATE USER LoaderRC20 FOR LOGIN LoaderRC20;
    GRANT CONTROL ON DATABASE::[mySampleDataWarehouse] to LoaderRC20;
    EXEC sp_addrolemember 'staticrc20', 'LoaderRC20';
    
  6. Yürüt’ü seçin.Select Execute.

Yükleme kullanıcısı olarak sunucuya bağlanmaConnect to the server as the loading user

Verileri yüklemenin ilk adımı LoaderRC20 olarak oturum açmaktır.The first step toward loading data is to login as LoaderRC20.

  1. Nesne Gezgini ' de Bağlan açılan menüsünü seçin ve veritabanı altyapısı' nı seçin.In Object Explorer, select the Connect drop down menu and select Database Engine. Sunucuya Bağlan iletişim kutusu görüntülenir.The Connect to Server dialog box appears.

    Yeni oturum açma bilgileriyle bağlanma

  2. Tam sunucu adını girin ve Oturum Açma bilgisi olarak LoaderRC20 girin.Enter the fully qualified server name, and enter LoaderRC20 as the Login. LoaderRC20 için parolanızı girin.Enter your password for LoaderRC20.

  3. Bağlan’ı seçin.Select Connect.

  4. Bağlantınız hazır olduğunda, Nesne Gezgini'nde iki sunucu bağlantısı görürsünüz.When your connection is ready, you will see two server connections in Object Explorer. Bağlantılardan biri ServerAdmin ve diğeri de MedRCLogin olarak gösterilir.One connection as ServerAdmin and one connection as MedRCLogin.

    Bağlantı başarılı oldu

Örnek veriler için tablo oluşturmaCreate tables for the sample data

Verileri yeni veri ambarınıza yükleme işlemine başlamaya hazırsınız.You are ready to begin the process of loading data into your new data warehouse. Öğreticinin bu bölümünde, New York City TAXI cab veri kümesini bir Azure Storage blobundan yüklemek için COPY ifadesinin nasıl kullanılacağı gösterilmektedir.This part of the tutorial shows you how to use the COPY statement to load the New York City taxi cab dataset from an Azure Storage blob. Daha sonra başvurmak üzere verilerinizi Azure Blob depolama alanına alma veya doğrudan kaynağınızdan yükleme hakkında bilgi edinmek için bkz. yüklemeye genel bakış.For future reference, to learn how to get your data to Azure Blob Storage or to load it directly from your source, see the loading overview.

Aşağıdaki SQL betiklerini çalıştırın ve yüklemek istediğiniz veriler hakkındaki bilgileri belirtin.Run the following SQL scripts and specify information about the data you wish to load. Bu bilgiler verilerin konumu, verilerdeki içeriğin biçimi ve verilerin tablo tanımıdır.This information includes where the data is located, the format of the contents of the data, and the table definition for the data.

  1. Önceki bölümde veri ambarınızda LoaderRC20 olarak oturum açmıştınız.In the previous section, you logged into your data warehouse as LoaderRC20. SSMS'de, LoaderRC20 bağlantınıza sağ tıklayın ve Yeni Sorgu'yu seçin.In SSMS, right-click your LoaderRC20 connection and select New Query. Yeni bir sorgu penceresi görüntülenir.A new query window appears.

    Yeni yükleme sorgusu penceresi

  2. Sorgu pencerenizi önceki resimle karşılaştırın.Compare your query window to the previous image. Yeni sorgu pencerenizin LoaderRC20 olarak çalıştırıldığını ve MySampleDataWarehouse veritabanınız üzerinde sorgular gerçekleştirdiğini doğrulayın.Verify your new query window is running as LoaderRC20 and performing queries on your MySampleDataWarehouse database. Tüm yükleme adımlarını gerçekleştirmek için bu sorgu penceresini kullanın.Use this query window to perform all of the loading steps.

  3. Tabloları oluşturmak için aşağıdaki T-SQL deyimlerini çalıştırın:Run the following T-SQL statements to create the tables:

    CREATE TABLE [dbo].[Date]
    (
        [DateID] int NOT NULL,
        [Date] datetime NULL,
        [DateBKey] char(10) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfMonth] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DaySuffix] varchar(4) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayName] varchar(9) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfWeek] char(1) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfWeekInMonth] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfWeekInYear] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfQuarter] varchar(3) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DayOfYear] varchar(3) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [WeekOfMonth] varchar(1) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [WeekOfQuarter] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [WeekOfYear] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [Month] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [MonthName] varchar(9) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [MonthOfQuarter] varchar(2) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [Quarter] char(1) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [QuarterName] varchar(9) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [Year] char(4) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [YearName] char(7) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [MonthYear] char(10) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [MMYYYY] char(6) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [FirstDayOfMonth] date NULL,
        [LastDayOfMonth] date NULL,
        [FirstDayOfQuarter] date NULL,
        [LastDayOfQuarter] date NULL,
        [FirstDayOfYear] date NULL,
        [LastDayOfYear] date NULL,
        [IsHolidayUSA] bit NULL,
        [IsWeekday] bit NULL,
        [HolidayUSA] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[Geography]
    (
        [GeographyID] int NOT NULL,
        [ZipCodeBKey] varchar(10) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL,
        [County] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [City] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [State] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [Country] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [ZipCode] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[HackneyLicense]
    (
        [HackneyLicenseID] int NOT NULL,
        [HackneyLicenseBKey] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL,
        [HackneyLicenseCode] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[Medallion]
    (
        [MedallionID] int NOT NULL,
        [MedallionBKey] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL,
        [MedallionCode] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[Time]
    (
        [TimeID] int NOT NULL,
        [TimeBKey] varchar(8) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL,
        [HourNumber] tinyint NOT NULL,
        [MinuteNumber] tinyint NOT NULL,
        [SecondNumber] tinyint NOT NULL,
        [TimeInSecond] int NOT NULL,
        [HourlyBucket] varchar(15) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL,
        [DayTimeBucketGroupKey] int NOT NULL,
        [DayTimeBucket] varchar(100) COLLATE SQL_Latin1_General_CP1_CI_AS NOT NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[Trip]
    (
        [DateID] int NOT NULL,
        [MedallionID] int NOT NULL,
        [HackneyLicenseID] int NOT NULL,
        [PickupTimeID] int NOT NULL,
        [DropoffTimeID] int NOT NULL,
        [PickupGeographyID] int NULL,
        [DropoffGeographyID] int NULL,
        [PickupLatitude] float NULL,
        [PickupLongitude] float NULL,
        [PickupLatLong] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [DropoffLatitude] float NULL,
        [DropoffLongitude] float NULL,
        [DropoffLatLong] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [PassengerCount] int NULL,
        [TripDurationSeconds] int NULL,
        [TripDistanceMiles] float NULL,
        [PaymentType] varchar(50) COLLATE SQL_Latin1_General_CP1_CI_AS NULL,
        [FareAmount] money NULL,
        [SurchargeAmount] money NULL,
        [TaxAmount] money NULL,
        [TipAmount] money NULL,
        [TollsAmount] money NULL,
        [TotalAmount] money NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    
    CREATE TABLE [dbo].[Weather]
    (
        [DateID] int NOT NULL,
        [GeographyID] int NOT NULL,
        [PrecipitationInches] float NOT NULL,
        [AvgTemperatureFahrenheit] float NOT NULL
    )
    WITH
    (
        DISTRIBUTION = ROUND_ROBIN,
        CLUSTERED COLUMNSTORE INDEX
    );
    

Verileri veri ambarınıza yüklemeLoad the data into your data warehouse

Bu bölüm, örnek verileri Azure Depolama Blobu yüklemek Için Copy ifadesini kullanır.This section uses the COPY statement to load the sample data from Azure Storage Blob.

Not

Bu öğretici verileri doğrudan son tabloya yükler.This tutorial loads the data directly into the final table. Genellikle üretim iş yükleriniz için bir hazırlama tablosuna yüklersiniz.You would typically load into a staging table for your production workloads. Veriler hazırlama tablosundayken tüm gerekli dönüştürmeleri yapabilirsiniz.While data is in the staging table you can perform any necessary transformations.

  1. Verileri yüklemek için aşağıdaki deyimlerini çalıştırın:Run the following statements to load the data:

    COPY INTO [dbo].[Date]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Date'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = ''
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Date] - Taxi dataset');
    
    
    COPY INTO [dbo].[Geography]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Geography'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = ''
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Geography] - Taxi dataset');
    
    COPY INTO [dbo].[HackneyLicense]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/HackneyLicense'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = ''
    )
    OPTION (LABEL = 'COPY : Load [dbo].[HackneyLicense] - Taxi dataset');
    
    COPY INTO [dbo].[Medallion]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Medallion'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = ''
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Medallion] - Taxi dataset');
    
    COPY INTO [dbo].[Time]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Time'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = ''
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Time] - Taxi dataset');
    
    COPY INTO [dbo].[Weather]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Weather'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = ',',
        FIELDQUOTE = '',
        ROWTERMINATOR='0X0A'
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Weather] - Taxi dataset');
    
    COPY INTO [dbo].[Trip]
    FROM 'https://nytaxiblob.blob.core.windows.net/2013/Trip2013'
    WITH
    (
        FILE_TYPE = 'CSV',
        FIELDTERMINATOR = '|',
        FIELDQUOTE = '',
        ROWTERMINATOR='0X0A',
        COMPRESSION = 'GZIP'
    )
    OPTION (LABEL = 'COPY : Load [dbo].[Trip] - Taxi dataset');
    
  2. Verilerinizi yüklenirken görüntüleyin.View your data as it loads. Birkaç GB veri yüklüyorsunuz ve yüksek performanslı columnstore dizinlerine sıkıştırıyorsunuz.You're loading several GBs of data and compressing it into highly performant clustered columnstore indexes. Yüklemenin durumunu göstermek için, dinamik yönetim görünümleri (DMV’ler) kullanan aşağıdaki sorguyu çalıştırın.Run the following query that uses a dynamic management views (DMVs) to show the status of the load.

    SELECT  r.[request_id]                           
    ,       r.[status]                               
    ,       r.resource_class                         
    ,       r.command
    ,       sum(bytes_processed) AS bytes_processed
    ,       sum(rows_processed) AS rows_processed
    FROM    sys.dm_pdw_exec_requests r
                  JOIN sys.dm_pdw_dms_workers w
                         ON r.[request_id] = w.request_id
    WHERE [label] = 'COPY : Load [dbo].[Date] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[Geography] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[HackneyLicense] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[Medallion] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[Time] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[Weather] - Taxi dataset' OR
        [label] = 'COPY : Load [dbo].[Trip] - Taxi dataset' 
    and session_id <> session_id() and type = 'WRITER'
    GROUP BY r.[request_id]                           
    ,       r.[status]                               
    ,       r.resource_class                         
    ,       r.command;
    
  3. Tüm sistem sorgularını görüntüleyin.View all system queries.

    SELECT * FROM sys.dm_pdw_exec_requests;
    
  4. Veri ambarınıza verilerinizin sorunsuz şekilde yüklenmesinin keyfini çıkarın.Enjoy seeing your data nicely loaded into your data warehouse.

    Yüklenen tabloları görüntüleme

Kaynakları temizlemeClean up resources

İşlem kaynakları ve veri ambarınıza yüklediğiniz veriler için ücretlendirilirsiniz.You are being charged for compute resources and data that you loaded into your data warehouse. Bunlar ayrı faturalandırılır.These are billed separately.

  • Verileri depoda tutmak istiyorsanız, veri ambarını kullanmadığınız zamanlarda işlemi duraklatabilirsiniz.If you want to keep the data in storage, you can pause compute when you aren't using the data warehouse. İşlemi duraklattığınızda yalnızca veri depolaması için ücretlendirilirsiniz ve verilerle çalışmaya hazır olduğunuzda işlemi sürdürebilirsiniz.By pausing compute you will only be charge for data storage and you can resume the compute whenever you are ready to work with the data.
  • Gelecekteki ücretlendirmeleri kaldırmak istiyorsanız, veri ambarını silebilirsiniz.If you want to remove future charges, you can delete the data warehouse.

Kaynakları istediğiniz gibi temizlemek için bu adımları izleyin.Follow these steps to clean up resources as you desire.

  1. Azure Portaloturum açın, veri Ambarınızı seçin.Log in to the Azure portal, select your data warehouse.

    Kaynakları temizleme

  2. İşlem duraklatmak için Duraklat düğmesini seçin.To pause compute, select the Pause button. Veri ambarı duraklatıldığında, bir Başlat düğmesi görürsünüz.When the data warehouse is paused, you will see a Start button. İşlem işlemini sürdürmesini sağlamak için Başlat' ı seçin.To resume compute, select Start.

  3. Veri ambarını kaldırmak için işlem veya depolama için ücretlendirilmezsiniz, Sil' i seçin.To remove the data warehouse so you won't be charged for compute or storage, select Delete.

  4. Oluşturduğunuz sunucuyu kaldırmak için önceki görüntüde MyNewServer-20180430.Database.Windows.net ' ı seçin ve Sil' i seçin.To remove the server you created, select mynewserver-20180430.database.windows.net in the previous image, and then select Delete. Sunucuyu silmek sunucuyla ilişkili tüm veritabanlarını da sileceğinden bu işlemi gerçekleştirirken dikkatli olun.Be careful with this as deleting the server will delete all databases assigned to the server.

  5. Kaynak grubunu kaldırmak için Myresourcegroup' ı seçin ve kaynak grubunu sil' i seçin.To remove the resource group, select myResourceGroup, and then select Delete resource group.

Sonraki adımlarNext steps

Bu öğreticide, veri ambarı oluşturmayı ve verileri yüklemek için kullanıcı oluşturmayı öğrendiniz.In this tutorial, you learned how to create a data warehouse and create a user for loading data. Veri ambarınıza veri yüklemek için basit kopyalama ifadesini kullandınız.You used the simple COPY statement to load data into your data warehouse.

Şu işlemleri yaptınız:You did these things:

  • Azure Portal'da veri ambarı oluşturulduCreated a data warehouse in the Azure portal
  • Azure portalında sunucu düzeyinde güvenlik duvarı kuralı ayarlamaSet up a server-level firewall rule in the Azure portal
  • SSMS ile veri ambarına bağlandıConnected to the data warehouse with SSMS
  • Verileri yüklemek için belirlenen bir kullanıcı oluşturulduCreated a user designated for loading data
  • Örnek veriler için tablolar oluşturulduCreated the tables for the sample data
  • Veri ambarınıza veri yüklemek için COPY T-SQL ifadesini kullandınızUsed the COPY T-SQL statement to load data into your data warehouse
  • Yüklendikleri sırada verilerin ilerleme durumu görüntülendiViewed the progress of data as it is loading

Mevcut bir veritabanını Azure SYNAPSE Analytics 'e geçirmeyi öğrenmek için geliştirmeye genel bakış konusuna ilerleyin:Advance to the development overview to learn how to migrate an existing database to Azure Synapse Analytics:

Daha fazla örnek ve başvuru yüklemek için aşağıdaki belgeleri görüntüleyin:For more loading examples and references, view the following documentation: