Azure Databricks에서 데이터 원본으로 커넥트

이 문서에서는 Azure Databricks에 연결할 수 있는 Azure의 모든 다른 데이터 원본에 대한 링크를 제공합니다. 이러한 링크의 예제를 따라 Azure 데이터 원본(예: Azure Blob Storage, Azure Event Hubs 등)의 데이터를 Azure Databricks 클러스터로 추출하고 데이터에 대한 분석 작업을 실행합니다.

필수 조건

  • Azure Databricks 작업 영역 및 Spark 클러스터가 있어야 합니다. 빠른 시작의 지침을 따릅니다.

Azure Databricks의 데이터 원본

다음 목록은 Azure Databricks에 사용할 수 있는 Azure의 데이터 원본을 보여 줍니다. Azure Databricks와 함께 사용할 수 있는 데이터 원본의 전체 목록은 Azure Databricks에 대한 데이터 원본을 참조 하세요.

  • Azure SQL Database

    이 링크는 JDBC를 사용하여 SQL 데이터베이스에 연결하기 위한 DataFrame API와 JDBC 인터페이스를 통해 읽기의 병렬 처리를 제어하는 방법을 제공합니다. 이 항목에서는 Scala API를 사용하여 자세한 예제를 제공하며, 끝에 축약된 Python 및 Spark SQL 예제가 나와 있습니다.

  • Azure Data Lake Storage

    이 링크는 Microsoft Entra ID(이전의 Azure Active Directory) 서비스 주체를 사용하여 Azure Data Lake Storage로 인증하는 방법에 대한 예제를 제공합니다. 또한 Azure Databricks에서 Azure Data Lake Storage의 데이터에 액세스하는 방법에 대한 지침을 제공합니다.

  • Azure Blob Storage

    이 링크는 액세스 키 또는 지정된 컨테이너에 대한 SAS를 사용하여 Azure Databricks에서 Azure Blob Storage에 직접 액세스하는 방법에 대한 예제를 제공합니다. 또한 이 링크는 RDD API를 사용하여 Azure Databricks에서 Azure Blob Storage에 액세스하는 방법에 대한 정보를 제공합니다.

  • Azure Event Hubs

    이 링크는 Azure Databricks에서 Azure Event Hubs Spark 커넥터 를 사용하여 Azure Event Hubs의 데이터에 액세스하는 방법에 대한 지침을 제공합니다.

  • Azure Synapse Analytics

    이 링크는 Azure Synapse에서 데이터를 쿼리하는 방법에 대한 지침을 제공합니다.

다음 단계

Azure Databricks로 데이터를 가져올 수 있는 원본에 대해 알아보려면 Azure Databricks의 데이터 원본을 참조 하세요.