다음을 통해 공유


자습서: Azure HDInsight에서 Interactive Query를 사용하여 데이터 추출, 변환 및 로드

이 자습서에서는 공개적으로 사용 가능한 비행 데이터의 원시 CSV 데이터 파일을 다운로드합니다. HDInsight 클러스터 스토리지로 가져온 다음, Azure HDInsight의 대화형 쿼리를 사용하여 데이터를 변환합니다. 데이터가 변환된 후 Apache Sqoop을 사용하여 Azure SQL Database의 데이터베이스로 해당 데이터를 로드합니다.

이 자습서에서 다루는 작업은 다음과 같습니다.

  • 샘플 비행 데이터 다운로드
  • HDInsight 클러스터에 데이터 업로드
  • 대화형 쿼리를 사용하여 데이터 변환
  • Azure SQL Database의 데이터베이스에서 테이블 만들기
  • Sqoop을 사용하여 Azure SQL Database의 데이터베이스에 데이터 내보내기

필수 조건

비행 데이터 다운로드

  1. Research and Innovative Technology Administration, Bureau of Transportation Statistics(영문)로 이동합니다.

  2. 페이지에서 모든 필드의 선택을 취소하고 다음 값을 선택합니다.

    속성
    Filter Year 2019
    Filter Period January
    필드 Year, FlightDate, Reporting_Airline, DOT_ID_Reporting_Airline, Flight_Number_Reporting_Airline, OriginAirportID, Origin, OriginCityName, OriginState, DestAirportID, Dest, DestCityName, DestState, DepDelayMinutes, ArrDelay, ArrDelayMinutes, CarrierDelay, WeatherDelay, NASDelay, SecurityDelay, LateAircraftDelay.
  3. 다운로드를 선택합니다. 선택한 데이터 필드가 포함된 .zip 파일이 다운로드됩니다.

HDInsight 클러스터에 데이터 업로드

HDInsight 클러스터와 연결된 스토리지로 데이터를 업로드하는 여러 가지 방법이 있습니다. 이 섹션에서는 scp를 사용하여 데이터를 업로드합니다. 데이터를 업로드하는 다른 방법에 대해 알아보려면 HDInsight에 데이터 업로드를 참조하세요.

  1. .zip 파일을 HDInsight 클러스터 헤드 노드에 업로드합니다. FILENAME을 .zip 파일의 이름으로 바꾸고 CLUSTERNAME을 HDInsight 클러스터의 이름으로 바꿉니다. 그런 다음 명령 프롬프트를 열고 작업 디렉터리를 파일 위치로 설정한 후에 명령을 입력합니다.

    scp FILENAME.zip sshuser@CLUSTERNAME-ssh.azurehdinsight.net:FILENAME.zip
    

    메시지가 표시되면 예 또는 아니요를 입력하여 계속합니다. 입력하는 동안 텍스트는 창에 표시되지 않습니다.

  2. 업로드를 완료한 후에 SSH를 사용하여 클러스터에 연결합니다. CLUSTERNAME을 HDInsight 클러스터의 이름으로 바꾸어 아래 명령을 편집합니다. 다음 명령을 입력합니다.

    ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
    
  3. SSH 연결이 설정된 후 환경 변수를 설정합니다. FILE_NAME, SQL_SERVERNAME, SQL_DATABASE, SQL_USERSQL_PASWORD를 해당 값으로 바꿉니다. 그런 후 다음 명령을 입력합니다.

    export FILENAME=FILE_NAME
    export SQLSERVERNAME=SQL_SERVERNAME
    export DATABASE=SQL_DATABASE
    export SQLUSER=SQL_USER
    export SQLPASWORD='SQL_PASWORD'
    
  4. 아래 명령을 입력하여.zip 파일의 압축을 풉니다.

    unzip $FILENAME.zip
    
  5. 아래 명령을 입력하여 HDInsight 스토리지에 디렉터리를 만든 다음, .csv 파일을 디렉터리에 복사합니다.

    hdfs dfs -mkdir -p /tutorials/flightdelays/data
    hdfs dfs -put $FILENAME.csv /tutorials/flightdelays/data/
    

Hive 쿼리를 사용하여 데이터 변환

HDInsight 클러스터에서 Hive 작업을 실행하는 여러 가지 방법이 있습니다. 이 섹션에서는 Beeline을 사용하여 Hive 작업을 실행합니다. Hive 작업 실행의 다른 메서드에 대한 정보는 HDInsight의 Apache Hive 사용을 참조하세요.

Hive 작업의 일부로 .csv 파일에서 지연이라는 Hive 테이블로 데이터를 가져옵니다.

  1. HDInsight 클러스터에 대해 이미 있는 SSH 프롬프트에서 다음 명령을 사용하여 flightdelays.hql이라는 새 파일을 만들고 편집합니다.

    nano flightdelays.hql
    
  2. 이 파일의 내용으로 다음 텍스트를 사용합니다.

    DROP TABLE delays_raw;
    -- Creates an external table over the csv file
    CREATE EXTERNAL TABLE delays_raw (
        YEAR string,
        FL_DATE string,
        UNIQUE_CARRIER string,
        CARRIER string,
        FL_NUM string,
        ORIGIN_AIRPORT_ID string,
        ORIGIN string,
        ORIGIN_CITY_NAME string,
        ORIGIN_CITY_NAME_TEMP string,
        ORIGIN_STATE_ABR string,
        DEST_AIRPORT_ID string,
        DEST string,
        DEST_CITY_NAME string,
        DEST_CITY_NAME_TEMP string,
        DEST_STATE_ABR string,
        DEP_DELAY_NEW float,
        ARR_DELAY_NEW float,
        CARRIER_DELAY float,
        WEATHER_DELAY float,
        NAS_DELAY float,
        SECURITY_DELAY float,
        LATE_AIRCRAFT_DELAY float)
    -- The following lines describe the format and location of the file
    ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
    LINES TERMINATED BY '\n'
    STORED AS TEXTFILE
    LOCATION '/tutorials/flightdelays/data';
    
    -- Drop the delays table if it exists
    DROP TABLE delays;
    -- Create the delays table and populate it with data
    -- pulled in from the CSV file (via the external table defined previously)
    CREATE TABLE delays AS
    SELECT YEAR AS year,
        FL_DATE AS flight_date,
        substring(UNIQUE_CARRIER, 2, length(UNIQUE_CARRIER) -1) AS unique_carrier,
        substring(CARRIER, 2, length(CARRIER) -1) AS carrier,
        substring(FL_NUM, 2, length(FL_NUM) -1) AS flight_num,
        ORIGIN_AIRPORT_ID AS origin_airport_id,
        substring(ORIGIN, 2, length(ORIGIN) -1) AS origin_airport_code,
        substring(ORIGIN_CITY_NAME, 2) AS origin_city_name,
        substring(ORIGIN_STATE_ABR, 2, length(ORIGIN_STATE_ABR) -1)  AS origin_state_abr,
        DEST_AIRPORT_ID AS dest_airport_id,
        substring(DEST, 2, length(DEST) -1) AS dest_airport_code,
        substring(DEST_CITY_NAME,2) AS dest_city_name,
        substring(DEST_STATE_ABR, 2, length(DEST_STATE_ABR) -1) AS dest_state_abr,
        DEP_DELAY_NEW AS dep_delay_new,
        ARR_DELAY_NEW AS arr_delay_new,
        CARRIER_DELAY AS carrier_delay,
        WEATHER_DELAY AS weather_delay,
        NAS_DELAY AS nas_delay,
        SECURITY_DELAY AS security_delay,
        LATE_AIRCRAFT_DELAY AS late_aircraft_delay
    FROM delays_raw;
    
  3. 파일을 저장하려면 Ctrl + X, Y, Enter를 차례로 누릅니다.

  4. Hive를 시작하고 flightdelays.hql 파일을 실행하려면 다음 명령을 사용합니다.

    beeline -u 'jdbc:hive2://localhost:10001/;transportMode=http' -f flightdelays.hql
    
  5. flightdelays.hql 스크립트 실행이 완료된 후에 다음 명령을 사용하여 대화형 Beeline 세션을 엽니다.

    beeline -u 'jdbc:hive2://localhost:10001/;transportMode=http'
    
  6. jdbc:hive2://localhost:10001/> 프롬프트를 수신하면, 다음 쿼리를 사용하여 가져온 비행 지연 데이터에서 데이터를 검색합니다.

    INSERT OVERWRITE DIRECTORY '/tutorials/flightdelays/output'
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
    SELECT regexp_replace(origin_city_name, '''', ''),
        avg(weather_delay)
    FROM delays
    WHERE weather_delay IS NOT NULL
    GROUP BY origin_city_name;
    

    이 쿼리는 평균 지연 시간과 함께 날씨 지연이 발생된 도시 목록이 검색된 후 /tutorials/flightdelays/output에 저장됩니다. 나중에 Sqoop는 이 위치에서 데이터를 읽어 Azure SQL Database로 내보냅니다.

  7. Beeline을 종료하려면 프롬프트에 !quit을 입력합니다.

SQL Database 테이블 만들기

여러 가지 방법으로 SQL Database에 연결하고 테이블을 생성할 수 있습니다. 다음 단계는 HDInsight 클러스터의 FreeTDS를 사용합니다.

  1. FreeTDS를 설치하려면 클러스터에 대해 열린 SSH 연결에서 다음 명령을 사용합니다.

    sudo apt-get --assume-yes install freetds-dev freetds-bin
    
  2. 설치가 완료되면 다음 명령을 사용하여 SQL Database에 연결합니다.

    TDSVER=8.0 tsql -H $SQLSERVERNAME.database.windows.net -U $SQLUSER -p 1433 -D $DATABASE -P $SQLPASWORD
    

    다음 텍스트와 비슷한 출력이 표시됩니다.

    locale is "en_US.UTF-8"
    locale charset is "UTF-8"
    using default charset "UTF-8"
    Default database being set to <yourdatabase>
    1>
    
  3. 1> 프롬프트에 다음 행을 입력합니다.

    CREATE TABLE [dbo].[delays](
    [origin_city_name] [nvarchar](50) NOT NULL,
    [weather_delay] float,
    CONSTRAINT [PK_delays] PRIMARY KEY CLUSTERED
    ([origin_city_name] ASC))
    GO
    

    GO 문을 입력하면 이전 문이 평가됩니다. 이 명령문은 클러스터형 인덱스가 있는 delays라는 테이블을 만듭니다.

    다음 쿼리를 사용하여 테이블이 생성되었는지 확인합니다.

    SELECT * FROM information_schema.tables
    GO
    

    다음 텍스트와 유사하게 출력됩니다.

    TABLE_CATALOG   TABLE_SCHEMA    TABLE_NAME      TABLE_TYPE
    databaseName       dbo             delays        BASE TABLE
    
  4. exit at the 1>를 입력하여 tsql 유틸리티를 종료합니다.

Apache Sqoop을 사용하여 SQL Database로 데이터 내보내기

이전 섹션에서는 /tutorials/flightdelays/output에서 변환된 데이터를 복사했습니다. 이 섹션에서는 Sqoop을 사용하여 /tutorials/flightdelays/output의 데이터를 Azure SQL Database에서 만든 테이블로 내보냅니다.

  1. 아래 명령을 입력하여 Sqoop이 SQL Database를 볼 수 있는지 확인합니다.

    sqoop list-databases --connect jdbc:sqlserver://$SQLSERVERNAME.database.windows.net:1433 --username $SQLUSER --password $SQLPASWORD
    

    이 명령은 앞에서 delays 테이블을 만든 데이터베이스를 포함한 데이터베이스 목록을 반환합니다.

  2. 아래 명령을 입력하여 /tutorials/flightdelays/output의 데이터를 delays로 내보냅니다.

    sqoop export --connect "jdbc:sqlserver://$SQLSERVERNAME.database.windows.net:1433;database=$DATABASE" --username $SQLUSER --password $SQLPASWORD --table 'delays' --export-dir '/tutorials/flightdelays/output' --fields-terminated-by '\t' -m 1
    

    Sqoop은 delays 테이블이 포함된 데이터베이스에 연결하고 /tutorials/flightdelays/output 디렉터리의 데이터를 delays 테이블로 내보냅니다.

  3. Sqoop 명령이 완료된 후 tsql 유틸리티에서 아래 명령을 입력하여 데이터베이스에 연결합니다.

    TDSVER=8.0 tsql -H $SQLSERVERNAME.database.windows.net -U $SQLUSER -p 1433 -D $DATABASE -P $SQLPASWORD
    

    다음 명령문을 사용하여 데이터가 delays 테이블로 내보내졌는지 확인합니다.

    SELECT * FROM delays
    GO
    

    테이블에 데이터 목록이 표시됩니다. 테이블은 도시 이름 및 해당 도시에 대한 평균 비행 지연 시간을 포함합니다.

    exit 를 입력하여 tsql 유틸리티를 종료합니다.

리소스 정리

이 자습서를 완료한 후에 클러스터를 삭제할 수 있습니다. HDInsight를 사용하면 데이터가 Azure Storage에 저장되기 때문에 클러스터를 사용하지 않을 때 안전하게 삭제할 수 있습니다. HDInsight 클러스터를 사용하지 않는 기간에도 요금이 청구됩니다. 클러스터에 대한 요금이 스토리지에 대한 요금보다 몇 배 더 많기 때문에, 클러스터를 사용하지 않을 때는 삭제하는 것이 경제적인 면에서 더 합리적입니다.

클러스터를 삭제하려면 브라우저, PowerShell 또는 Azure CLI를 사용하여 HDInsight 클러스터 삭제를 참조하세요.

다음 단계

이 자습서에서는 원시 CSV 데이터 파일을 선택하고 HDInsight 클러스터 스토리지로 가져온 다음, Azure HDInsight에서 대화형 쿼리를 사용하여 데이터를 변환했습니다. Apache Hive Warehouse 커넥터에 대해 자세히 알아보려면 다음 자습서로 이동합니다.