Öğretici: Azure HDInsight kullanarak verileri ayıklama, dönüştürme ve yükleme
Bu öğreticide, bir ETL işlemi gerçekleştirirsiniz: verileri ayıklama, dönüştürme ve yükleme. ham bir CSV veri dosyası alır, Azure hdınsight kümesine içeri aktarabilir, Apache Hive ile dönüştürürler ve Apache sqoop ile Azure SQL Veritabanı yükleyebilirsiniz.
Bu öğreticide şunların nasıl yapıldığını öğreneceksiniz:
- Verileri bir HDInsight kümesine ayıklayın ve karşıya yükleyin.
- Apache Hive kullanarak verileri dönüştürün.
- sqoop kullanarak Azure SQL Veritabanı verileri yükleyin.
Azure aboneliğiniz yoksa başlamadan önce ücretsiz bir hesap oluşturun.
Önkoşullar
hdınsight için yapılandırılmış Azure Data Lake Storage 2. depolama hesabı
bkz. Azure hdınsight kümeleri ile Azure Data Lake Storage 2. kullanma.
HDInsight 'ta Linux tabanlı Hadoop kümesi
Azure SQL Veritabanı: Azure SQL Veritabanı hedef veri deposu olarak kullanırsınız. SQL Veritabanı bir veritabanınız yoksa, Azure portal Azure SQL Veritabanı veritabanı oluşturma' ya bakın.
Azure CLI: Azure CLI 'yi yüklemediyseniz bkz. Azure CLI 'yı yükleme.
bir Secure Shell (SSH) istemcisi: daha fazla bilgi için bkz. SSH kullanarak hdınsight 'a (Hadoop) Bağlan.
Uçuş verilerini indirme
Research and Innovative Technology Administration, Bureau of Transportation Statistics (Araştırma ve Yenilikçi Teknolojiler İdaresi, Ulaşım İstatistikleri Bürosu) sayfasına göz atın.
Sayfada aşağıdaki değerleri seçin:
Name Değer Yıl Filtresi 2013 Dönem Filtresi Ocak Alanlar Year, FlightDate, Reporting_Airline, IATA_CODE_Reporting_Airline, Flight_Number_Reporting_Airline, Originairportıd, Origin, OriginCityName, OriginState, Destairportıd, dest, DestCityName, DestState, DepDelayMinutes, ArrDelay, ArrDelayMinutes, CarrierDelay, pembe Therdelay, NASDelay, SecurityDelay, Lateaırcraftdelay. Diğer tüm alanları temizleyin.
İndir'i seçin. Seçtiğiniz veri alanlarını içeren bir .zip dosyası alırsınız.
Verileri ayıklama ve karşıya yükleme
bu bölümde, hdınsight kümenize verileri yükleyecek ve ardından bu verileri Data Lake Storage 2. hesabınıza kopyalayacaksınız.
Bir komut istemi açın ve .zip dosyasını HDInsight kümesi baş düğümüne yüklemek için aşağıdaki güvenli kopya (SCP) komutunu kullanın:
scp <file-name>.zip <ssh-user-name>@<cluster-name>-ssh.azurehdinsight.net:<file-name.zip><file-name>Yer tutucusunu .zip dosyanın adıyla değiştirin.<ssh-user-name>Yer tutucusunu HDInsight kümesi IÇIN SSH oturum açma ile değiştirin.<cluster-name>Yer tutucusunu HDInsight kümesinin adıyla değiştirin.
SSH oturum açma bilgilerinizi doğrulamak için bir parola kullanıyorsanız parola girmeniz istenir.
Ortak anahtar kullanıyorsanız, eşleşen özel anahtarın yolunu belirtmek için
-iparametresini kullanmanız gerekebilir. Örneğin,scp -i ~/.ssh/id_rsa <file_name>.zip <user-name>@<cluster-name>-ssh.azurehdinsight.net:.Karşıya yükleme tamamlandıktan sonra SSH kullanarak kümeye bağlanın. Komut istemine aşağıdaki komutu girin:
ssh <ssh-user-name>@<cluster-name>-ssh.azurehdinsight.net.zip dosyasını açmak için aşağıdaki komutu kullanın:
unzip <file-name>.zipKomut bir .csv dosyası ayıklar.
Data Lake Storage 2. kapsayıcısını oluşturmak için aşağıdaki komutu kullanın.
hadoop fs -D "fs.azure.createRemoteFileSystemDuringInitialization=true" -ls abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/<container-name>Yer tutucusunu, kapsayıcınıza vermek istediğiniz adla değiştirin.<storage-account-name>Yer tutucusunu depolama hesabınızın adıyla değiştirin.Bir dizin oluşturmak için aşağıdaki komutu kullanın.
hdfs dfs -mkdir -p abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/data.csv dosyasını dizine kopyalamak için aşağıdaki komutu kullanın:
hdfs dfs -put "<file-name>.csv" abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/data/Dosya adı boşluk veya özel karakterler içeriyorsa dosya adı etrafında tırnak işareti kullanın.
Verileri dönüştürme
Bu bölümde, bir Apache Hive işini çalıştırmak için Beeline kullanırsınız.
Apache Hive işin bir parçası olarak, verileri .csv dosyasından gecikmeler adlı bir Apache Hive tabloya aktarırsınız.
HDInsight kümesi için zaten sahip olduğunuz SSH isteminden, flightgecikmeleri. HQL adlı yeni bir dosya oluşturmak ve düzenlemek için aşağıdaki komutu kullanın:
nano flightdelays.hql<container-name>Ve<storage-account-name>yer tutucuları kapsayıcınıza ve depolama hesabı adınızla değiştirerek aşağıdaki metni değiştirin. Sonra sağ fare tıklama düğmesi ile birlikte SHIFT tuşuna basarak metni nano konsola kopyalayıp yapıştırın.DROP TABLE delays_raw; -- Creates an external table over the csv file CREATE EXTERNAL TABLE delays_raw ( YEAR string, FL_DATE string, UNIQUE_CARRIER string, CARRIER string, FL_NUM string, ORIGIN_AIRPORT_ID string, ORIGIN string, ORIGIN_CITY_NAME string, ORIGIN_CITY_NAME_TEMP string, ORIGIN_STATE_ABR string, DEST_AIRPORT_ID string, DEST string, DEST_CITY_NAME string, DEST_CITY_NAME_TEMP string, DEST_STATE_ABR string, DEP_DELAY_NEW float, ARR_DELAY_NEW float, CARRIER_DELAY float, WEATHER_DELAY float, NAS_DELAY float, SECURITY_DELAY float, LATE_AIRCRAFT_DELAY float) -- The following lines describe the format and location of the file ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' STORED AS TEXTFILE LOCATION 'abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/data'; -- Drop the delays table if it exists DROP TABLE delays; -- Create the delays table and populate it with data -- pulled in from the CSV file (via the external table defined previously) CREATE TABLE delays LOCATION 'abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/processed' AS SELECT YEAR AS year, FL_DATE AS flight_date, substring(UNIQUE_CARRIER, 2, length(UNIQUE_CARRIER) -1) AS unique_carrier, substring(CARRIER, 2, length(CARRIER) -1) AS carrier, substring(FL_NUM, 2, length(FL_NUM) -1) AS flight_num, ORIGIN_AIRPORT_ID AS origin_airport_id, substring(ORIGIN, 2, length(ORIGIN) -1) AS origin_airport_code, substring(ORIGIN_CITY_NAME, 2) AS origin_city_name, substring(ORIGIN_STATE_ABR, 2, length(ORIGIN_STATE_ABR) -1) AS origin_state_abr, DEST_AIRPORT_ID AS dest_airport_id, substring(DEST, 2, length(DEST) -1) AS dest_airport_code, substring(DEST_CITY_NAME,2) AS dest_city_name, substring(DEST_STATE_ABR, 2, length(DEST_STATE_ABR) -1) AS dest_state_abr, DEP_DELAY_NEW AS dep_delay_new, ARR_DELAY_NEW AS arr_delay_new, CARRIER_DELAY AS carrier_delay, WEATHER_DELAY AS weather_delay, NAS_DELAY AS nas_delay, SECURITY_DELAY AS security_delay, LATE_AIRCRAFT_DELAY AS late_aircraft_delay FROM delays_raw;Dosyayı CTRL + X kullan ' ı kullanarak kaydedin ve sorulduğunda yazın
Y.Hive 'yi başlatmak ve dosyayı çalıştırmak için
flightdelays.hqlaşağıdaki komutu kullanın:beeline -u 'jdbc:hive2://localhost:10001/;transportMode=http' -f flightdelays.hqlflightdelays.hqlBetiğin çalışması bittikten sonra, aşağıdaki komutu kullanarak etkileşimli bir Beeline oturumunu açın:beeline -u 'jdbc:hive2://localhost:10001/;transportMode=http'jdbc:hive2://localhost:10001/>istemini aldığınızda, içeri aktarılan uçuş gecikme verilerini almak için aşağıdaki sorguyu kullanın:INSERT OVERWRITE DIRECTORY '/tutorials/flightdelays/output' ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' SELECT regexp_replace(origin_city_name, '''', ''), avg(weather_delay) FROM delays WHERE weather_delay IS NOT NULL GROUP BY origin_city_name;Bu sorgu, hava durumundan kaynaklanan gecikmeler yaşayan şehirlerin bir listesini, ortalama gecikme süresi ile birlikte alır ve
abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/outputkonumuna kaydeder. Daha sonra, Sqoop bu konumdaki verileri okur ve Azure SQL Veritabanına aktarır.Beeline’dan çıkmak için isteme
!quitgirin.
SQL veritabanı tablosu oluşturma
bu işlem için SQL Veritabanı sunucu adı gerekir. Sunucu adınızı bulmak için bu adımları izleyin.
Azure Portal gidin.
SQL veritabanları' nı seçin.
Kullanmayı seçtiğiniz veritabanının adını filtreleyin. Sunucu adı, Sunucu adı sütununda listelenir.
Kullanmak istediğiniz veritabanının adını filtreleyin. Sunucu adı, Sunucu adı sütununda listelenir.

SQL Veritabanına bağlanıp tablo oluşturmanın çok sayıda yolu vardır. Aşağıdaki adımlarda HDInsight kümesinden FreeTDS kullanılır.
FreeTDS yüklemek için küme ile kurulan bir SSH bağlantısından aşağıdaki komutu kullanın:
sudo apt-get --assume-yes install freetds-dev freetds-binyükleme tamamlandıktan sonra, SQL Veritabanı bağlanmak için aşağıdaki komutu kullanın.
TDSVER=8.0 tsql -H '<server-name>.database.windows.net' -U '<admin-login>' -p 1433 -D '<database-name>'<server-name>yer tutucusunu mantıksal SQL sunucu adıyla değiştirin.<admin-login>yer tutucusunu SQL Veritabanı için yönetici oturum kimliğiyle değiştirin.<database-name>Yer tutucusunu veritabanı adıyla değiştirin
istendiğinde, SQL Veritabanı yönetici oturumu için parolayı girin.
Aşağıdakine benzer bir çıktı alırsınız:
locale is "en_US.UTF-8" locale charset is "UTF-8" using default charset "UTF-8" Default database being set to sqooptest 1>1>İsteminde aşağıdaki deyimleri girin:CREATE TABLE [dbo].[delays]( [OriginCityName] [nvarchar](50) NOT NULL, [WeatherDelay] float, CONSTRAINT [PK_delays] PRIMARY KEY CLUSTERED ([OriginCityName] ASC)) GOGOdeyimi girildiğinde önceki deyimler değerlendirilir.Sorgu, kümelenmiş dizine sahip olan gecikmeler adlı bir tablo oluşturur.
Tablonun oluşturulduğunu doğrulamak için aşağıdaki sorguyu kullanın:
SELECT * FROM information_schema.tables GOÇıktı aşağıdaki metne benzer:
TABLE_CATALOG TABLE_SCHEMA TABLE_NAME TABLE_TYPE databaseName dbo delays BASE TABLETsql yardımcı programından çıkış yapmak için
1>istemineexitgirin.
Verileri dışarı ve yükleme
Önceki bölümlerde, dönüştürülen verileri konumda kopyaladınız abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/output . bu bölümde, verileri içinden Azure SQL Veritabanı oluşturduğunuz tabloya aktarmak için sqoop kullanırsınız abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/tutorials/flightdelays/output .
Sqoop’un SQL veritabanınızı görebildiğini doğrulamak için aşağıdaki komutu kullanın:
sqoop list-databases --connect jdbc:sqlserver://<SERVER_NAME>.database.windows.net:1433 --username <ADMIN_LOGIN> --password <ADMIN_PASSWORD>Komut, gecikmeler tablosunu oluşturduğunuz veritabanı da dahil olmak üzere veritabanlarının bir listesini döndürür.
Hivesampletable tablosundan gecikme tablosuna veri aktarmak için aşağıdaki komutu kullanın:
sqoop export --connect 'jdbc:sqlserver://<SERVER_NAME>.database.windows.net:1433;database=<DATABASE_NAME>' --username <ADMIN_LOGIN> --password <ADMIN_PASSWORD> --table 'delays' --export-dir 'abfs://<container-name>@.dfs.core.windows.net/tutorials/flightdelays/output' --fields-terminated-by '\t' -m 1Sqoop, gecikmeler tablosunu içeren veritabanına bağlanır ve verileri
/tutorials/flightdelays/outputdizinden gecikmeler tablosuna aktarır.sqoopKomut bittikten sonra, veritabanına bağlanmak için TSQL yardımcı programını kullanın:TDSVER=8.0 tsql -H <SERVER_NAME>.database.windows.net -U <ADMIN_LOGIN> -P <ADMIN_PASSWORD> -p 1433 -D <DATABASE_NAME>Verilerin gecikmeler tablosuna verildiğini doğrulamak için aşağıdaki deyimleri kullanın:
SELECT * FROM delays GOTabloda verilerin listesini görürsünüz. Tablo, şehir adını ve bu şehre ait ortalama uçuş gecikme süresini içerir.
exittsql yardımcı programından çıkmak için girin.
Kaynakları temizleme
Bu öğreticide kullanılan tüm kaynaklar önceden var olur. Temizleme gerekli değildir.
Sonraki adımlar
HDInsight'ta verilerle çalışmanın daha fazla yolu hakkında daha fazla bilgi edinmek için aşağıdaki makaleye bakın: