你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

使用 Java SDK 对 Azure Data Lake Storage Gen1 执行的文件系统操作

了解如何使用 Azure Data Lake Storage Gen1 Java SDK 执行基本操作,例如创建文件夹、上传和下载数据文件等。有关 Data Lake Storage Gen1 的详细信息,请参阅 Azure Data Lake Storage Gen1

可以在 Azure Data Lake Storage Gen1 Java API 文档中访问适用于 Data Lake Storage Gen1 的 Java SDK API 文档。

先决条件

  • Java 开发工具包(JDK 7 或更高版本,使用 Java 1.7 或更高版本)。
  • Data Lake Storage Gen1 帐户。 请遵循通过 Azure 门户开始使用 Azure Data Lake Storage Gen1 中的说明进行操作。
  • Maven。 本教程使用 Maven 生成项目和项目依赖项。 尽管不使用 Maven 或 Gradle 等生成系统也能完成生成,但使用这些系统可以大大减化依赖项的管理。
  • (可选)IntelliJ IDEAEclipse 或类似的 IDE。

创建 Java 应用程序

GitHub 上的代码示例逐步讲解了在存储中创建文件、连接文件、下载文件以及在存储中删除某些文件的过程。 本文的此部分演练代码的主要组成部分。

  1. 在命令行使用 mvn archetype 或通过 IDE 创建一个 Maven 项目。 有关如何使用 IntelliJ 创建 Java 项目的说明,请参阅此文。 有关如何使用 Eclipse 创建项目的说明,请参阅此文

  2. 将以下依赖项添加到 Maven pom.xml 文件。 在 </project> 标记前添加以下代码片段:

    <dependencies>
        <dependency>
        <groupId>com.microsoft.azure</groupId>
        <artifactId>azure-data-lake-store-sdk</artifactId>
        <version>2.1.5</version>
        </dependency>
        <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-nop</artifactId>
        <version>1.7.21</version>
        </dependency>
    </dependencies>
    

    第一个依赖项从 maven 存储库使用 Data Lake Storage Gen1 SDK (azure-data-lake-store-sdk)。 第二个依赖项指定此应用程序使用的日志记录框架 (slf4j-nop)。 Data Lake Storage Gen1 SDK 使用 SLF4J 日志记录体系,允许用户从多种流行的记录框架(如 Log4j、Java 日志记录、Logback 等)中进行选择,或者不使用日志记录。 本示例禁用日志记录,因此我们使用 slf4j-nop 绑定。 若要在应用中使用其他日志记录选项,请参阅此文

  3. 将以下导入语句添加到应用程序。

    import com.microsoft.azure.datalake.store.ADLException;
    import com.microsoft.azure.datalake.store.ADLStoreClient;
    import com.microsoft.azure.datalake.store.DirectoryEntry;
    import com.microsoft.azure.datalake.store.IfExists;
    import com.microsoft.azure.datalake.store.oauth2.AccessTokenProvider;
    import com.microsoft.azure.datalake.store.oauth2.ClientCredsTokenProvider;
    
    import java.io.*;
    import java.util.Arrays;
    import java.util.List;
    

身份验证

创建 Data Lake Storage Gen1 客户端

创建 ADLStoreClient 对象需要指定 Data Lake Storage Gen1 帐户名和令牌提供程序,这是在通过 Data Lake Storage Gen1 进行身份验证(参见身份验证部分)时生成的。 Data Lake Storage Gen1 帐户名需是完全限定的域名。 例如,可将“FILL-IN-HERE”替换为类似于“mydatalakestoragegen1.azuredatalakestore.net”的内容

private static String accountFQDN = "FILL-IN-HERE";  // full account FQDN, not just the account name
ADLStoreClient client = ADLStoreClient.createClient(accountFQDN, provider);

以下部分的代码片段包含某些常用文件系统操作的示例。 可以参阅 ADLStoreClient 对象的完整 Data Lake Storage Gen1 Java SDK API 文档来查看其他操作的示例代码

创建目录

以下代码片段在指定的 Data Lake Storage Gen1 帐户的根目录中创建目录结构。

// create directory
client.createDirectory("/a/b/w");
System.out.println("Directory created.");

创建文件

以下代码片段在目录结构中创建一个文件 (c.txt),并向该文件写入一些数据。

// create file and write some content
String filename = "/a/b/c.txt";
OutputStream stream = client.createFile(filename, IfExists.OVERWRITE  );
PrintStream out = new PrintStream(stream);
for (int i = 1; i <= 10; i++) {
    out.println("This is line #" + i);
    out.format("This is the same line (%d), but using formatted output. %n", i);
}
out.close();
System.out.println("File created.");

也可使用字节数组创建一个文件 (d.txt)。

// create file using byte arrays
stream = client.createFile("/a/b/d.txt", IfExists.OVERWRITE);
byte[] buf = getSampleContent();
stream.write(buf);
stream.close();
System.out.println("File created using byte array.");

有关前述代码片段中使用的 getSampleContent 函数的定义,请参阅 GitHub 上的示例。

附加到文件

以下代码片段将内容追加到现有文件。

// append to file
stream = client.getAppendStream(filename);
stream.write(getSampleContent());
stream.close();
System.out.println("File appended.");

有关前述代码片段中使用的 getSampleContent 函数的定义,请参阅 GitHub 上的示例。

读取文件

以下代码片段从 Data Lake Storage Gen1 帐户中的文件读取内容。

// Read File
InputStream in = client.getReadStream(filename);
BufferedReader reader = new BufferedReader(new InputStreamReader(in));
String line;
while ( (line = reader.readLine()) != null) {
    System.out.println(line);
}
reader.close();
System.out.println();
System.out.println("File contents read.");

连接文件

以下代码片段将 Data Lake Storage Gen1 帐户中的两个文件连接到一起。 如果成功,连接的文件会替换两个现有的文件。

// concatenate the two files into one
List<String> fileList = Arrays.asList("/a/b/c.txt", "/a/b/d.txt");
client.concatenateFiles("/a/b/f.txt", fileList);
System.out.println("Two files concatenated into a new file.");

重命名文件

以下代码段重命名 Data Lake Storage Gen1 帐户中的文件。

//rename the file
client.rename("/a/b/f.txt", "/a/b/g.txt");
System.out.println("New file renamed.");

获取文件的元数据

以下代码片段检索 Data Lake Storage Gen1 帐户中某个文件的元数据。

// get file metadata
DirectoryEntry ent = client.getDirectoryEntry(filename);
printDirectoryInfo(ent);
System.out.println("File metadata retrieved.");

设置文件权限

以下代码片段设置在前一部分创建的文件的权限。

// set file permission
client.setPermission(filename, "744");
System.out.println("File permission set.");

列出目录内容

以下代码片段以递归方式列出目录的内容。

// list directory contents
List<DirectoryEntry> list = client.enumerateDirectory("/a/b", 2000);
System.out.println("Directory listing for directory /a/b:");
for (DirectoryEntry entry : list) {
    printDirectoryInfo(entry);
}
System.out.println("Directory contents listed.");

有关前述代码片段中使用的 printDirectoryInfo 函数的定义,请参阅 GitHub 上的示例。

删除文件和文件夹

以下代码片段以递归方式删除 Data Lake Storage Gen1 帐户中的指定的文件和文件夹。

// delete directory along with all the subdirectories and files in it
client.deleteRecursive("/a");
System.out.println("All files and folders deleted recursively");
promptEnterKey();

生成并运行应用程序

  1. 若要从 IDE 内部运行,请找到并按下“运行”按钮。 若要从 Maven 运行,请使用 exec:exec
  2. 若要生成一个可从命令行运行的独立 jar,请使用 Maven 程序集插件生成包含所有依赖项的 jar。 GitHub 上的示例源代码中的 pom.xml 列举了相关示例。

后续步骤