Formato de texto delimitado no Azure Data FactoryDelimited text format in Azure Data Factory

APLICA-SE A: Azure Data Factory Azure Synapse Analytics

Siga este artigo quando desejar analisar os arquivos de texto delimitados ou gravar os dados em um formato de texto delimitado.Follow this article when you want to parse the delimited text files or write the data into delimited text format.

O formato de texto delimitado tem suporte para os seguintes conectores: Amazon S3, blob do Azure, Azure data Lake Storage Gen1, Azure data Lake Storage Gen2, armazenamento de arquivos do Azure, sistema de arquivos, FTP, Google Cloud Storage, HDFS, httpe SFTP.Delimited text format is supported for the following connectors: Amazon S3, Azure Blob, Azure Data Lake Storage Gen1, Azure Data Lake Storage Gen2, Azure File Storage, File System, FTP, Google Cloud Storage, HDFS, HTTP, and SFTP.

Propriedades do conjunto de dadosDataset properties

Para obter uma lista completa das seções e propriedades disponíveis para definir os conjuntos de dados, confira o artigo sobre Conjuntos de Dados.For a full list of sections and properties available for defining datasets, see the Datasets article. Esta seção fornece uma lista das propriedades com suporte pelo conjunto de acordo de texto delimitado.This section provides a list of properties supported by the delimited text dataset.

PropriedadeProperty DescriçãoDescription ObrigatórioRequired
typetype A propriedade Type do conjunto de conjuntos deve ser definida como DelimitedText.The type property of the dataset must be set to DelimitedText. SimYes
locallocation Configurações de local dos arquivos.Location settings of the file(s). Cada conector baseado em arquivo tem seu próprio tipo de local e propriedades com suporte em location .Each file-based connector has its own location type and supported properties under location. SimYes
columnDelimitercolumnDelimiter Os caracteres usados para separar colunas em um arquivo.The character(s) used to separate columns in a file.
O valor padrão é vírgula ,.The default value is comma ,. Quando o delimitador de coluna é definido como uma cadeia de caracteres vazia, o que significa que não há delimitador, a linha inteira é executada como uma única coluna.When the column delimiter is defined as empty string, which means no delimiter, the whole line is taken as a single column.
Atualmente, o delimitador de coluna como cadeia de caracteres vazia ou multichar tem suporte apenas para mapear fluxo de dados, mas não para a atividade de cópia.Currently, column delimiter as empty string or multi-char is only supported for mapping data flow but not Copy activity.
NãoNo
rowDelimiterrowDelimiter O caractere único ou "\r\n" usado para separar linhas em um arquivo.The single character or "\r\n" used to separate rows in a file.
O valor padrão é qualquer um dos seguintes valores na leitura: ["\r\n", "\r", "\n"] e "\n" ou "\r\n" na gravação mapeando o fluxo de dados e a atividade de cópia, respectivamente.The default value is any of the following values on read: ["\r\n", "\r", "\n"], and "\n" or “\r\n” on write by mapping data flow and Copy activity respectively.
Quando o delimitador de linha é definido como nenhum delimitador (cadeia de caracteres vazia), o delimitador de coluna deve ser definido como nenhum delimitador (cadeia de caracteres vazia) também, o que significa tratar todo o conteúdo como um único valor.When the row delimiter is set to no delimiter (empty string), the column delimiter must be set as no delimiter (empty string) as well, which means to treat the entire content as a single value.
Atualmente, o delimitador de linha como uma cadeia de caracteres vazia só tem suporte para mapear o fluxo de dados, mas não para a atividadeCurrently, row delimiter as empty string is only supported for mapping data flow but not Copy activity.
NãoNo
quoteCharquoteChar O caractere único para citar valores de coluna se ele contiver delimitador de coluna.The single character to quote column values if it contains column delimiter.
O valor padrão é aspas duplas " .The default value is double quotes ".
Quando quoteChar é definido como uma cadeia de caracteres vazia, isso significa que não há nenhum caractere de cotação e o valor da coluna não está entre aspas e escapeChar é usado para escapar o delimitador de coluna e ele mesmo.When quoteChar is defined as empty string, it means there is no quote char and column value is not quoted, and escapeChar is used to escape the column delimiter and itself.
NãoNo
escapeCharescapeChar O caractere único para escapar as aspas dentro de um valor entre aspas.The single character to escape quotes inside a quoted value.
O valor padrão é barra invertida \.The default value is backslash \.
Quando escapeChar é definido como uma cadeia de caracteres vazia, o quoteChar também deve ser definido como uma cadeia de caracteres vazia; nesse caso, verifique se todos os valores de coluna não contêm delimitadores.When escapeChar is defined as empty string, the quoteChar must be set as empty string as well, in which case make sure all column values don’t contain delimiters.
NãoNo
firstRowAsHeaderfirstRowAsHeader Especifica se deve tratar/transformar a primeira linha como uma linha de cabeçalho com nomes de colunas.Specifies whether to treat/make the first row as a header line with names of columns.
Os valores permitidos são true e false (padrão).Allowed values are true and false (default).
Quando a primeira linha como cabeçalho é falsa, observe que a visualização de dados da interface do usuário e a saída da atividade de pesquisa geram automaticamente nomes de coluna como Prop_ {n} (a partir de 0), a atividade de cópia requer mapeamento explícito da origem para o coletor e localiza colunas por ordinal (começando de 1) e mapeando listas de fluxo de dados e localiza colunas com Column_ o nomeWhen first row as header is false, note UI data preview and lookup activity output auto generate column names as Prop_{n} (starting from 0), copy activity requires explicit mapping from source to sink and locates columns by ordinal (starting from 1), and mapping data flow lists and locates columns with name as Column_{n} (starting from 1).
NãoNo
nullValuenullValue Especifica a representação de cadeia de caracteres do valor nulo.Specifies the string representation of null value.
O valor padrão é uma cadeia de caracteres vazia.The default value is empty string.
NãoNo
encodingNameencodingName O tipo de codificação usado para ler/gravar arquivos de teste.The encoding type used to read/write test files.
Os valores permitidos são os seguintes: "UTF-8", "UTF-16", "UTF-16BE", "UTF-32", "UTF-32BE", "US-ASCII", "UTF-7", "BIG5", "EUC-JP", "EUC-KR", "GB2312", "GB18030", "JOHAB", "SHIFT-JIS", "CP875", "CP866", "IBM00858", "IBM037", "IBM273", "IBM437", "IBM500", "IBM737", "IBM775", "IBM850", "IBM852", "IBM855", "IBM857", "IBM860", "IBM861", "IBM863", "IBM864", "IBM865", "IBM869", "IBM870", "IBM01140", "IBM01141", "IBM01142", "IBM01143", "IBM01144", "IBM01145", "IBM01146", "IBM01147", "IBM01148", "IBM01149", "ISO-2022-JP", "ISO-2022-KR", "ISO-8859-1", "ISO-8859-2", "ISO-8859-3", "ISO-8859-4", "ISO-8859-5", "ISO-8859-6", "ISO-8859-7", "ISO-8859-8", "ISO-8859-9", "ISO-8859-13" , "ISO-8859-15", "WINDOWS-874", "WINDOWS-1250", "WINDOWS-1251", "WINDOWS-1252", "WINDOWS-1253", "WINDOWS-1254", "WINDOWS-1255", "WINDOWS-1256", "WINDOWS-1257", "WINDOWS-1258".Allowed values are as follows: "UTF-8", "UTF-16", "UTF-16BE", "UTF-32", "UTF-32BE", "US-ASCII", “UTF-7”, "BIG5", "EUC-JP", "EUC-KR", "GB2312", "GB18030", "JOHAB", "SHIFT-JIS", "CP875", "CP866", "IBM00858", "IBM037", "IBM273", "IBM437", "IBM500", "IBM737", "IBM775", "IBM850", "IBM852", "IBM855", "IBM857", "IBM860", "IBM861", "IBM863", "IBM864", "IBM865", "IBM869", "IBM870", "IBM01140", "IBM01141", "IBM01142", "IBM01143", "IBM01144", "IBM01145", "IBM01146", "IBM01147", "IBM01148", "IBM01149", "ISO-2022-JP", "ISO-2022-KR", "ISO-8859-1", "ISO-8859-2", "ISO-8859-3", "ISO-8859-4", "ISO-8859-5", "ISO-8859-6", "ISO-8859-7", "ISO-8859-8", "ISO-8859-9", "ISO-8859-13", "ISO-8859-15", "WINDOWS-874", "WINDOWS-1250", "WINDOWS-1251", "WINDOWS-1252", "WINDOWS-1253", "WINDOWS-1254", "WINDOWS-1255", "WINDOWS-1256", "WINDOWS-1257", "WINDOWS-1258”.
Observação o fluxo de dados de mapeamento não dá suporte à codificação UTF-7.Note mapping data flow doesn’t support UTF-7 encoding.
NãoNo
compressionCodeccompressionCodec O codec de compactação usado para ler/gravar arquivos de texto.The compression codec used to read/write text files.
Os valores permitidos são bzip2, gzip, deflate, ZipDeflate, TarGzip, tar, snapshot ou lz4.Allowed values are bzip2, gzip, deflate, ZipDeflate, TarGzip, Tar, snappy, or lz4. O padrão não é compactado.Default is not compressed.
Observação a atividade de cópia atualmente não dá suporte a "encaixar" & "lz4" e o fluxo de dados de mapeamento não dá suporte a "ZipDeflate", "TarGzip" e "tar".Note currently Copy activity doesn’t support "snappy" & "lz4", and mapping data flow doesn’t support "ZipDeflate", "TarGzip" and "Tar".
Observação ao usar a atividade de cópia para ZipDeflate descompactar / TarGzip / arquivo (s) ZipDeflate TarGzip tar e gravar no armazenamento de dados de coletor baseado em arquivo, por padrão os arquivos são extraídos para a pasta: <path specified in dataset>/<folder named as source compressed file>/ , use preserveZipFileNameAsFolder / preserveCompressionFileNameAsFolder na origem da atividade de cópia para controlar se deseja preservar o nome dos arquivos compactados como estrutura de pastas.Note when using copy activity to decompress ZipDeflate/TarGzip/Tar file(s) and write to file-based sink data store, by default files are extracted to the folder:<path specified in dataset>/<folder named as source compressed file>/, use preserveZipFileNameAsFolder/preserveCompressionFileNameAsFolder on copy activity source to control whether to preserve the name of the compressed file(s) as folder structure.
NãoNo
compressionLevelcompressionLevel A taxa de compactação.The compression ratio.
Os valores permitidos são ideal ou mais rápido.Allowed values are Optimal or Fastest.
- Mais rápido: A operação de compactação deve ser concluída o mais rápido possível, mesmo que o arquivo resultante não seja compactado de maneira ideal.- Fastest: The compression operation should complete as quickly as possible, even if the resulting file is not optimally compressed.
- Ideal: a operação de compactação deve ser corretamente compactada, mesmo se a operação levar mais tempo para ser concluída.- Optimal: The compression operation should be optimally compressed, even if the operation takes a longer time to complete. Para saber mais, veja o tópico Nível de compactação .For more information, see Compression Level topic.
NãoNo

Abaixo está um exemplo de conjunto de texto delimitado no armazenamento de BLOBs do Azure:Below is an example of delimited text dataset on Azure Blob Storage:

{
    "name": "DelimitedTextDataset",
    "properties": {
        "type": "DelimitedText",
        "linkedServiceName": {
            "referenceName": "<Azure Blob Storage linked service name>",
            "type": "LinkedServiceReference"
        },
        "schema": [ < physical schema, optional, retrievable during authoring > ],
        "typeProperties": {
            "location": {
                "type": "AzureBlobStorageLocation",
                "container": "containername",
                "folderPath": "folder/subfolder",
            },
            "columnDelimiter": ",",
            "quoteChar": "\"",
            "escapeChar": "\"",
            "firstRowAsHeader": true,
            "compressionCodec": "gzip"
        }
    }
}

Propriedades da atividade de cópiaCopy activity properties

Para obter uma lista completa das seções e propriedades disponíveis para definir atividades, confia o artigo Pipelines.For a full list of sections and properties available for defining activities, see the Pipelines article. Esta seção fornece uma lista das propriedades com suporte pela fonte de texto delimitada e pelo coletor.This section provides a list of properties supported by the delimited text source and sink.

Texto delimitado como fonteDelimited text as source

As propriedades a seguir têm suporte na seção atividade de cópia **_ _ origem ****.The following properties are supported in the copy activity __source** section.

PropriedadeProperty DescriçãoDescription ObrigatórioRequired
typetype A propriedade Type da fonte da atividade de cópia deve ser definida como DelimitedTextSource.The type property of the copy activity source must be set to DelimitedTextSource. SimYes
formatSettingsformatSettings Um grupo de propriedades.A group of properties. Consulte a tabela de configurações de leitura de texto delimitada abaixo.Refer to Delimited text read settings table below. NãoNo
storeSettingsstoreSettings Um grupo de propriedades sobre como ler dados de um armazenamento de dados.A group of properties on how to read data from a data store. Cada conector baseado em arquivo tem suas próprias configurações de leitura com suporte em storeSettings .Each file-based connector has its own supported read settings under storeSettings. NãoNo

Configurações de leitura de texto delimitado com suporte em formatSettings :Supported delimited text read settings under formatSettings:

PropriedadeProperty DescriçãoDescription ObrigatórioRequired
typetype O tipo de formatSettings deve ser definido como DelimitedTextReadSettings.The type of formatSettings must be set to DelimitedTextReadSettings. SimYes
skipLineCountskipLineCount Indica o número de linhas não vazias a serem ignoradas ao ler dados de arquivos de entrada.Indicates the number of non-empty rows to skip when reading data from input files.
Se skipLineCount e firstRowAsHeader forem especificados, primeiro as linhas serão ignoradas e, em seguida, as informações de cabeçalho serão lidas no arquivo de entrada.If both skipLineCount and firstRowAsHeader are specified, the lines are skipped first and then the header information is read from the input file.
NãoNo
compactpropertiescompressionProperties Um grupo de propriedades sobre como descompactar dados para um determinado codec de compactação.A group of properties on how to decompress data for a given compression codec. NãoNo
preserveZipFileNameAsFolderpreserveZipFileNameAsFolder
(em compressionProperties -> type como ZipDeflateReadSettings)(under compressionProperties->type as ZipDeflateReadSettings)
Aplica-se quando o conjunto de dados de entrada é configurado com compactação ZipDeflate .Applies when input dataset is configured with ZipDeflate compression. Indica se o nome do arquivo zip de origem deve ser preservado como estrutura de pastas durante a cópia.Indicates whether to preserve the source zip file name as folder structure during copy.
-Quando definido como true (padrão), data Factory grava arquivos descompactados em <path specified in dataset>/<folder named as source zip file>/ .- When set to true (default), Data Factory writes unzipped files to <path specified in dataset>/<folder named as source zip file>/.
-Quando definido como false, data Factory grava arquivos descompactados diretamente no <path specified in dataset> .- When set to false, Data Factory writes unzipped files directly to <path specified in dataset>. Verifique se você não tem nomes de arquivo duplicados em arquivos zip de origem diferentes para evitar a corrida ou comportamento inesperado.Make sure you don’t have duplicated file names in different source zip files to avoid racing or unexpected behavior.
NãoNo
preserveCompressionFileNameAsFolderpreserveCompressionFileNameAsFolder
(em compressionProperties -> type como TarGZipReadSettings ou TarReadSettings)(under compressionProperties->type as TarGZipReadSettings or TarReadSettings)
Aplica-se quando o conjunto de TarGzip dados de entrada é configurado com / compactação tar TarGzip.Applies when input dataset is configured with TarGzip/Tar compression. Indica se o nome do arquivo compactado de origem deve ser preservado como estrutura de pastas durante a cópia.Indicates whether to preserve the source compressed file name as folder structure during copy.
-Quando definido como true (padrão), data Factory grava arquivos descompactados em <path specified in dataset>/<folder named as source compressed file>/ .- When set to true (default), Data Factory writes decompressed files to <path specified in dataset>/<folder named as source compressed file>/.
-Quando definido como false, data Factory grava arquivos descompactados diretamente no <path specified in dataset> .- When set to false, Data Factory writes decompressed files directly to <path specified in dataset>. Verifique se você não tem nomes de arquivo duplicados em arquivos de origem diferentes para evitar a corrida ou comportamento inesperado.Make sure you don’t have duplicated file names in different source files to avoid racing or unexpected behavior.
NãoNo
"activities": [
    {
        "name": "CopyFromDelimitedText",
        "type": "Copy",
        "typeProperties": {
            "source": {
                "type": "DelimitedTextSource",
                "storeSettings": {
                    "type": "AzureBlobStorageReadSettings",
                    "recursive": true
                },
                "formatSettings": {
                    "type": "DelimitedTextReadSettings",
                    "skipLineCount": 3,
                    "compressionProperties": {
                        "type": "ZipDeflateReadSettings",
                        "preserveZipFileNameAsFolder": false
                    }
                }
            },
            ...
        }
        ...
    }
]

Texto delimitado como coletorDelimited text as sink

As propriedades a seguir têm suporte na seção atividade de cópia **_ _ Sink ****.The following properties are supported in the copy activity __sink** section.

PropriedadeProperty DescriçãoDescription ObrigatórioRequired
typetype A propriedade Type da fonte da atividade de cópia deve ser definida como DelimitedTextSink.The type property of the copy activity source must be set to DelimitedTextSink. SimYes
formatSettingsformatSettings Um grupo de propriedades.A group of properties. Consulte a tabela de configurações de gravação de texto delimitado abaixo.Refer to Delimited text write settings table below. NãoNo
storeSettingsstoreSettings Um grupo de propriedades sobre como gravar dados em um armazenamento de dados.A group of properties on how to write data to a data store. Cada conector baseado em arquivo tem suas próprias configurações de gravação com suporte em storeSettings .Each file-based connector has its own supported write settings under storeSettings. NãoNo

Configurações de gravação de texto delimitado com suporte em formatSettings :Supported delimited text write settings under formatSettings:

PropriedadeProperty DescriçãoDescription ObrigatórioRequired
typetype O tipo de formatSettings deve ser definido como DelimitedTextWriteSettings.The type of formatSettings must be set to DelimitedTextWriteSettings. SimYes
fileExtensionfileExtension A extensão de arquivo usada para nomear os arquivos de saída, por exemplo, .csv , .txt .The file extension used to name the output files, for example, .csv, .txt. Ele deve ser especificado quando o fileName não for especificado no conjunto de DelimitedText de saída.It must be specified when the fileName is not specified in the output DelimitedText dataset. Quando o nome do arquivo for configurado no conjunto de resultados de saída, ele será usado como o nome do arquivo do coletor e a configuração da extensão do arquivo será ignorada.When file name is configured in the output dataset, it will be used as the sink file name and the file extension setting will be ignored. Sim quando o nome do arquivo não é especificado no conjunto de resultados de saídaYes when file name is not specified in output dataset
maxRowsPerFilemaxRowsPerFile Ao gravar dados em uma pasta, você pode optar por gravar em vários arquivos e especificar o máximo de linhas por arquivo.When writing data into a folder, you can choose to write to multiple files and specify the max rows per file. NãoNo
fileNamePrefixfileNamePrefix Aplicável quando o maxRowsPerFile está configurado.Applicable when maxRowsPerFile is configured.
Especifique o prefixo do nome do arquivo ao gravar dados em vários arquivos, resultando neste padrão: <fileNamePrefix>_00000.<fileExtension> .Specify the file name prefix when writing data to multiple files, resulted in this pattern: <fileNamePrefix>_00000.<fileExtension>. Se não for especificado, o prefixo de nome de arquivo será gerado automaticamente.If not specified, file name prefix will be auto generated. Essa propriedade não se aplica quando a origem é um armazenamento de dados habilitado para opçãode armazenamento ou de partição baseada em arquivo.This property does not apply when source is file-based store or partition-option-enabled data store.
NãoNo

Propriedades do fluxo de dados de mapeamentoMapping data flow properties

No mapeamento de fluxos de dados, você pode ler e gravar em formato de texto delimitado nos seguintes repositórios de dados: armazenamento de BLOBs do Azure, Azure data Lake Storage Gen1e Azure data Lake Storage Gen2.In mapping data flows, you can read and write to delimited text format in the following data stores: Azure Blob Storage, Azure Data Lake Storage Gen1, and Azure Data Lake Storage Gen2.

Propriedades de origemSource properties

A tabela abaixo lista as propriedades com suporte por uma fonte de texto delimitada.The below table lists the properties supported by a delimited text source. Você pode editar essas propriedades na guia Opções de origem .You can edit these properties in the Source options tab.

NomeName DescriçãoDescription ObrigatórioRequired Valores permitidosAllowed values Propriedade de script de fluxo de dadosData flow script property
Caminhos curingaWild card paths Todos os arquivos correspondentes ao caminho curinga serão processados.All files matching the wildcard path will be processed. Substitui a pasta e o caminho do arquivo definido no conjunto de um.Overrides the folder and file path set in the dataset. nono String[]String[] wildcardPathswildcardPaths
Caminho raiz da partiçãoPartition root path Para dados de arquivo particionados, você pode inserir um caminho raiz de partição para ler pastas particionadas como colunasFor file data that is partitioned, you can enter a partition root path in order to read partitioned folders as columns nono StringString partitionRootPathpartitionRootPath
Lista de arquivosList of files Se sua fonte está apontando para um arquivo de texto que lista os arquivos a serem processadosWhether your source is pointing to a text file that lists files to process nono true ou falsetrue or false FilefileList
Linhas multilinhaMultiline rows O arquivo de origem contém linhas que abrangem várias linhas.Does the source file contain rows that span multiple lines. Os valores de várias linhas devem estar entre aspas.Multiline values must be in quotes. Não true ou falseno true or false multiLineRowmultiLineRow
Coluna para armazenar o nome do arquivoColumn to store file name Criar uma nova coluna com o nome e o caminho do arquivo de origemCreate a new column with the source file name and path nono StringString rowUrlColumnrowUrlColumn
Após a conclusãoAfter completion Exclua ou mova os arquivos após o processamento.Delete or move the files after processing. O caminho do arquivo inicia a partir da raiz do contêinerFile path starts from the container root nono Excluir: true ou falseDelete: true or false
Prosseguir ['<from>', '<to>']Move: ['<from>', '<to>']
purgeFilespurgeFiles
MoveFilemoveFiles
Filtrar por última modificaçãoFilter by last modified Escolher filtrar arquivos com base na última alteraçãoChoose to filter files based upon when they were last altered nono TimestampTimestamp modifiedAftermodifiedAfter
modifiedBeforemodifiedBefore
Não permitir nenhum arquivo encontradoAllow no files found Se for true, um erro não será gerado se nenhum arquivo for encontradoIf true, an error is not thrown if no files are found nono true ou falsetrue or false ignoreNoFilesFoundignoreNoFilesFound

Exemplo de origemSource example

A imagem abaixo é um exemplo de uma configuração de fonte de texto delimitada no mapeamento de fluxos de dados.The below image is an example of a delimited text source configuration in mapping data flows.

Origem do DelimitedText

O script de fluxo de dados associado é:The associated data flow script is:

source(
    allowSchemaDrift: true,
    validateSchema: false,
    multiLineRow: true,
    wildcardPaths:['*.csv']) ~> CSVSource

Observação

As fontes de fluxo de dados dão suporte a um conjunto limitado de mascaramento do Linux que é compatível com sistemas de arquivos do HadoopData flow sources support a limited set of Linux globbing that is support by Hadoop file systems

Propriedades do coletorSink properties

A tabela abaixo lista as propriedades com suporte por um coletor de texto delimitado.The below table lists the properties supported by a delimited text sink. Você pode editar essas propriedades na guia configurações .You can edit these properties in the Settings tab.

NomeName DescriçãoDescription ObrigatórioRequired Valores permitidosAllowed values Propriedade de script de fluxo de dadosData flow script property
Limpar a pastaClear the folder Se a pasta de destino for limpa antes da gravaçãoIf the destination folder is cleared prior to write nono true ou falsetrue or false truncatetruncate
Opção de nome de arquivoFile name option O formato de nomenclatura dos dados gravados.The naming format of the data written. Por padrão, um arquivo por partição no formato part-#####-tid-<guid>By default, one file per partition in format part-#####-tid-<guid> nono Padrão: cadeia de caracteresPattern: String
Por partição: cadeia de caracteres []Per partition: String[]
Como dados na coluna: StringAs data in column: String
Saída para arquivo único: ['<fileName>']Output to single file: ['<fileName>']
filePatternfilePattern
partitionFileNamespartitionFileNames
rowUrlColumnrowUrlColumn
partitionFileNamespartitionFileNames
Cotar tudoQuote all Incluir todos os valores entre aspasEnclose all values in quotes nono true ou falsetrue or false quoteAllquoteAll

Exemplo de coletorSink example

A imagem abaixo é um exemplo de configuração de coletor de texto delimitado no mapeamento de fluxos de dados.The below image is an example of a delimited text sink configuration in mapping data flows.

Coletor de DelimitedText

O script de fluxo de dados associado é:The associated data flow script is:

CSVSource sink(allowSchemaDrift: true,
    validateSchema: false,
    truncate: true,
    skipDuplicateMapInputs: true,
    skipDuplicateMapOutputs: true) ~> CSVSink

Próximas etapasNext steps