Run Classe

Define a classe base para todas as Azure Machine Learning de teste.

Uma executar representa uma única avaliação de um experimento. As execuções são usadas para monitorar a execução assíncrona de uma avaliação, as métricas de log e a saída de armazenamento da avaliação e para analisar os resultados e os artefatos de acesso gerados pela avaliação.

Os objetos de executar são criados quando você envia um script para treinar um modelo em muitos cenários diferentes no Azure Machine Learning, incluindo as executações do HyperDrive, as runs de pipeline e as de AutoML. Um objeto Run também é criado quando você submit ou com a classe start_logging Experiment .

Para começar com experimentos e executações, consulte

Herança
azureml._run_impl.run_base._RunBase
Run

Construtor

Run(experiment, run_id, outputs=None, **kwargs)

Parâmetros

experiment
Experiment

O experimento que o contém.

run_id
<xref:str>

A ID da executar.

outputs
<xref:str>

As saídas a serem rastreadas.

_run_dto
<xref:azureml._restclient.models.run_dto.RunDto>

Somente para uso interno.

kwargs
<xref:dict>

Um dicionário de parâmetros de configuração adicionais.

Comentários

Uma executar representa uma única avaliação de um experimento. Um objeto Run é usado para monitorar a execução assíncrona de uma avaliação, registrar métricas e armazenar a saída da avaliação e analisar os resultados e os artefatos de acesso gerados pela avaliação.

A run é usada dentro do código de experimentação para registrar métricas e artefatos no serviço Histórico de Executar.

A run é usada fora de seus experimentos para monitorar o progresso e para consultar e analisar as métricas e os resultados que foram gerados.

A funcionalidade de Executar inclui:

  • Armazenar e recuperar métricas e dados

  • Carregando e baixando arquivos

  • Usando marcas, bem como a hierarquia filho para facilitar a busca de últimas executações

  • Registrar arquivos de modelo armazenados como um modelo que pode ser operacionalizado

  • Armazenando, modificando e recuperando Propriedades de uma execução

  • Carregando a execução atual de um ambiente remoto com o get_context método

  • Instantâneo de forma eficiente um arquivo ou diretório para reprodução

Essa classe funciona com o Experiment nestes cenários:

  • Criando uma execução executando código usando submit

  • Criando uma execução interativamente em um bloco de anotações usando start_logging

  • Registrar em log as métricas e carregar artefatos em seu experimento, como ao usar log

  • Leitura de métricas e download de artefatos ao analisar resultados experimentais, como ao usar get_metrics

Para enviar uma execução, crie um objeto de configuração que descreva como o experimento é executado. Aqui estão exemplos dos diferentes objetos de configuração que você pode usar:

As métricas a seguir podem ser adicionadas a uma execução durante o treinamento de um experimento.

  • Escalar

    • Registre um valor numérico ou de cadeia de caracteres para a execução com o nome fornecido usando log . Registrar uma métrica em log para uma execução faz essa métrica ser armazenada no registro de execução no experimento. Você pode registrar em log a mesma métrica várias vezes dentro de uma execução, sendo o resultado considerado um vetor dessa métrica.

    • Exemplo: run.log("accuracy", 0.95)

  • Lista

    • Registra uma lista de valores para a execução com o nome fornecido usando log_list .

    • Exemplo: run.log_list("accuracies", [0.6, 0.7, 0.87])

  • Linha

    • log_rowO uso de cria uma métrica com várias colunas, conforme descrito em kwargs . Cada parâmetro nomeado gera uma coluna com o valor especificado. log_row pode ser chamado uma vez para registrar uma tupla arbitrária ou várias vezes em um loop para gerar uma tabela completa.

    • Exemplo: run.log_row("Y over X", x=1, y=0.4)

  • Tabela

    • Registre um objeto Dictionary na execução com o nome fornecido usando log_table .

    • Exemplo: run.log_table("Y over X", {"x":[1, 2, 3], "y":[0.6, 0.7, 0.89]})

  • Imagem

    • Faça logon uma imagem ao registro de execução. Use log_image para registrar um arquivo de imagem ou um gráfico matplotlib na execução. Essas imagens serão visíveis e comparáveis no registro de execução.

    • Exemplo: run.log_image("ROC", path)

Métodos

add_properties

Adicione Propriedades imutáveis à execução.

Marcas e Propriedades (dictname [Str, Str]) diferem em sua imutabilidade. As propriedades são imutáveis e, portanto, criam um registro permanente para fins de auditoria. As marcas são mutáveis. Para obter mais informações sobre como trabalhar com marcas e propriedades, consulte Marcar e encontrar executa.

add_type_provider

Gancho de extensibilidade para tipos de run personalizados armazenados no Histórico de Executar.

cancel

Marque a executar como cancelada.

Se houver um trabalho associado a um campo de cancel_uri, encente esse trabalho também.

child_run

Criar uma run filho.

clean

Remova os arquivos correspondentes à execução atual no destino especificado na configuração de execução.

complete

Aguarde até que a fila de tarefas seja processada.

Em seguida, executar é marcado como concluído. Isso normalmente é usado em cenários de bloco de anotações interativo.

create_children

Crie uma ou várias execuções filhas.

download_file

Baixe um arquivo associado do armazenamento.

download_files

Baixar arquivos de um determinado prefixo de armazenamento (nome da pasta) ou do contêiner inteiro se o prefixo não for especificado.

fail

Marque a executar como com falha.

Opcionalmente, de definir a propriedade Error da executar com uma mensagem ou exceção passada para error_details .

flush

Aguarde até que a fila de tarefas seja processada.

get

Obter a executar para este workspace com sua ID de executar.

get_all_logs

Baixe todos os logs para a executar em um diretório.

get_children

Obter todos os filhos para a versão atual selecionada por filtros especificados.

get_context

Retornar o contexto de serviço atual.

Use este método para recuperar o contexto de serviço atual para métricas de log e carregamento de arquivos. Se allow_offline for true (o padrão), as ações em relação ao objeto de execução serão impressas para padrão.

get_detailed_status

Busque o status mais recente da execução. Se o status da execução for "enfileirado", ele mostrará os detalhes.

get_details

Obtenha a definição, as informações de status, os arquivos de log atuais e outros detalhes da execução.

get_details_with_logs

Retornar status de executar, incluindo o conteúdo do arquivo de log.

get_environment

Obter a definição de ambiente que foi usada por esta executar.

get_file_names

Liste os arquivos armazenados em associação com a executar.

get_metrics

Recupere as métricas registradas na operação.

Se recursive for true (false por padrão), busque métricas para execuções na subárvore da execução especificada.

get_properties

Busque as propriedades mais recentes da execução do serviço.

get_secret

Obter o valor secreto do contexto de uma execução.

Obtenha o valor secreto para o nome fornecido. O nome do segredo faz referência a um valor armazenado em Azure Key Vault associado ao seu espaço de trabalho. Para obter um exemplo de como trabalhar com segredos, consulte usar segredos em execuções de treinamento.

get_secrets

Obtenha os valores secretos de uma determinada lista de nomes de segredo.

Obtenha um dicionário de segredos encontrados e não encontrados para a lista de nomes fornecidos. Cada nome secreto faz referência a um valor armazenado em Azure Key Vault associado ao seu espaço de trabalho. Para ver um exemplo de como trabalhar com segredos, consulte Usar segredos em executações de treinamento.

get_snapshot_id

Obter a ID de instantâneo mais recente.

get_status

Busque o status mais recente da executar.

Os valores comuns retornados incluem "Running", "Completed" e "Failed".

get_submitted_run

Preterido. Use get_context.

Obtenha a execução enviada para este experimento.

get_tags

Busque o conjunto mais recente de marcas mutáveis na execução do serviço.

list

Obtenha uma lista de execuções em um experimento especificado por filtros opcionais.

list_by_compute

Obter uma lista de executações em uma computação especificada por filtros opcionais.

log

Registre em log um valor de métrica para a execução com o nome fornecido.

log_accuracy_table

Registre uma tabela de precisão no armazenamento de artefatos.

A métrica de tabela de precisão é uma métrica não escalar e multiuso que pode ser usada para produzir vários tipos de gráficos de linhas que variam continuamente sobre o espaço de probabilidades previstas. Exemplos desses gráficos são ROC, recall de precisão e curvas de precisão.

O cálculo da tabela de precisão é semelhante ao cálculo de uma curva ROC. Uma curva ROC armazena taxas positivas verdadeiras e taxas de falsos positivos em muitos limites de probabilidade diferentes. A tabela de precisão armazena o número bruto de verdadeiros positivos, falsos positivos, verdadeiros negativos e falsos negativos em muitos limites de probabilidade.

Há dois métodos usados para selecionar limites: "probabilidade" e "percentil". Eles diferem em como eles são amostrados do espaço das probabilidades previstas.

Os limites de probabilidade são limites espaçados uniformemente entre 0 e 1. Se NUM_POINTS for 5, os limites de probabilidade seriam [0,0, 0,25, 0,5, 0,75, 1,0].

Os limites de percentil são espaçados de acordo com a distribuição de probabilidades previstas. Cada limite corresponde ao percentual dos dados em um limite de probabilidade. Por exemplo, se NUM_POINTS for 5, o primeiro limite seria no 0º percentil, o segundo no 25º percentil, o terceiro no 50 º e assim por diante.

As tabelas de probabilidade e as tabelas de percentil são listas 3D nas quais a primeira dimensão representa o rótulo de classe, a segunda dimensão representa o exemplo em um limite (escala com NUM_POINTS) e a terceira dimensão sempre tem quatro valores: TP, FP, TN, FN e sempre nessa ordem.

Os valores de confusão (TP, FP, TN, FN) são calculados com a estratégia um vs. REST. Consulte o link a seguir para obter mais detalhes: https://en.wikipedia.org/wiki/Multiclass_classification

N = n º de amostras no conjunto de espaço de validação (200 em exemplo) M = # Thresholds = # Samples extraídos do espaço de probabilidade (5 no exemplo) C = # classes no conjunto de espaço completo (3 no exemplo)

Algumas invariáveis da tabela de precisão:

  • TP + FP + TN + FN = N para todos os limites de todas as classes
  • TP + FN é o mesmo em todos os limites de qualquer classe
  • TN + FP é o mesmo em todos os limites de qualquer classe
  • Tabelas de probabilidade e tabelas percentil têm Shape [C, M, 4]

Observação: M pode ser qualquer valor e controla a resolução dos gráficos que isso é independente do conjunto de um, é definido ao calcular as métricas e compensa o espaço de armazenamento, o tempo de cálculo e a resolução.

Os rótulos de classe devem ser cadeias de caracteres, os valores de confusão devem ser inteiros e os limites devem ser flutuantes.

log_confusion_matrix

Registre uma matriz de confusão no armazenamento de artefatos.

Isso registra um wrapper em torno da matriz de confusão sklearn. Os dados de métrica contêm os rótulos de classe e uma lista 2D para a matriz em si. Confira o link a seguir para obter mais detalhes sobre como a métrica é computada: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_image

Registre em log uma métrica de imagem para o registro de execução.

log_list

Registre uma lista de valores de métrica na executar com o nome determinado.

log_predictions

Registrar previsões no armazenamento de artefatos.

Isso registra uma pontuação de métrica que pode ser usada para comparar as distribuições de valores de destino verdadeiros com a distribuição de valores previstos para uma tarefa de regressão.

As previsões são compartimentalizados e os desvios padrão são calculados para barras de erro em um gráfico de linhas.

log_residuals

Registrar resíduos no repositório de artefatos.

Isso registra os dados necessários para exibir um histograma de resíduos para uma tarefa de regressão. Os resíduos são previstos-reais.

Deve haver mais uma borda do que o número de contagens. Consulte a documentação do histograma numpy para obter exemplos de como usar contagens e bordas para representar um histograma. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_row

Registra em log uma métrica de linha para a execução com o nome fornecido.

log_table

Registrar em log uma métrica de tabela para a execução com o nome fornecido.

register_model

Registrar um modelo para operacionalização.

remove_tags

Exclua a lista de marcas mutáveis nesta executar.

restore_snapshot

Restaurar um instantâneo como um arquivo ZIP. Retorna o caminho para o ZIP.

set_tags

Adicione ou modifique um conjunto de marcas na execução. As marcas não passadas no dicionário são deixadas inalteradas.

Você também pode adicionar marcas de cadeia de caracteres simples. Quando essas marcas aparecem no dicionário de marcas como chaves, elas têm um valor de nenhum. Para obter mais informações, consulte marcar e localizar execuções.

start

Marque a execução como iniciada.

Normalmente, isso é usado em cenários avançados quando a execução é criada por outro ator.

submit_child

Envie um experimento e retorne a execução do filho ativo.

tag

Marque a execução com uma chave de cadeia de caracteres e um valor de cadeia de caracteres opcional.

take_snapshot

Salve um instantâneo do arquivo ou pasta de entrada.

upload_file

Carregar um arquivo para o registro de execução.

upload_files

Carregar arquivos para o registro de execução.

upload_folder

Carregue a pasta especificada para o nome de prefixo fornecido.

wait_for_completion

Aguarde a conclusão desta execução. Retorna o objeto de status após a espera.

add_properties

Adicione Propriedades imutáveis à execução.

Marcas e Propriedades (dictname [Str, Str]) diferem em sua imutabilidade. As propriedades são imutáveis e, portanto, criam um registro permanente para fins de auditoria. As marcas são mutáveis. Para obter mais informações sobre como trabalhar com marcas e propriedades, consulte Marcar e encontrar executa.

add_properties(properties)

Parâmetros

properties
<xref:dict>

As propriedades ocultas armazenadas no objeto run.

add_type_provider

Gancho de extensibilidade para tipos de run personalizados armazenados no Histórico de Executar.

add_type_provider(runtype, run_factory)

Parâmetros

runtype
<xref:str>

O valor de Run.type para o qual a fábrica será invocada. Os exemplos incluem 'hyperdrive' ou 'azureml.scriptrun', mas podem ser estendidos com tipos personalizados.

run_factory
<xref:function>

Uma função com assinatura (Experimento, RunDto) -> Executar para ser invocada ao listar é executado.

cancel

Marque a executar como cancelada.

Se houver um trabalho associado a um campo de cancel_uri, encente esse trabalho também.

cancel()

child_run

Criar uma run filho.

child_run(name=None, run_id=None, outputs=None)

Parâmetros

name
<xref:str>
valor padrão: None

Um nome opcional para a executar filho, normalmente especificado para uma "parte".

run_id
<xref:str>
valor padrão: None

Uma ID de executar opcional para o filho, caso contrário, ela será gerada automaticamente. Normalmente, esse parâmetro não está definido.

outputs
<xref:str>
valor padrão: None

Diretório de saídas opcionais para acompanhar o filho.

Retornos

A executar filho.

Tipo de retorno

Run

Comentários

Isso é usado para isolar parte de uma corrida em uma subseção. Isso pode ser feito para identificar "partes" de uma corrida interessantes para separar ou capturar métricas independentes em uma interação de um subprocesso.

Se um diretório de saída for definido para a executar filho, o conteúdo desse diretório será carregado para o registro de run filho quando o filho for concluído.

clean

Remova os arquivos correspondentes à execução atual no destino especificado na configuração de execução.

clean()

Retornos

Uma lista de arquivos excluídos.

Tipo de retorno

complete

Aguarde até que a fila de tarefas seja processada.

Em seguida, executar é marcado como concluído. Isso normalmente é usado em cenários de bloco de anotações interativo.

complete(_set_status=True)

Parâmetros

_set_status
<xref:bool>
valor padrão: True

Indica se o evento de status deve ser enviado para rastreamento.

create_children

Crie uma ou várias execuções filhas.

create_children(count=None, tag_key=None, tag_values=None)

Parâmetros

count
<xref:int>
valor padrão: None

Um número opcional de filhos a serem criados.

tag_key
<xref:str>
valor padrão: None

Uma chave opcional para popular a entrada de marcas em todos os filhos criados.

tag_Values
valor padrão: None

Uma lista opcional de valores que serão mapeados nas marcas [tag_key] para a lista de execuções criadas.

Retornos

A lista de execuções filhas.

Tipo de retorno

Comentários

O parâmetro count ou os parâmetros tag_key e tag_values devem ser especificados.

download_file

Baixe um arquivo associado do armazenamento.

download_file(name, output_file_path=None, _validate_checksum=False)

Parâmetros

name
<xref:str>

O nome do artefato a ser baixado.

output_file_path
<xref:str>

O caminho local onde armazenar o artefato.

download_files

Baixar arquivos de um determinado prefixo de armazenamento (nome da pasta) ou do contêiner inteiro se o prefixo não for especificado.

download_files(prefix=None, output_directory=None, output_paths=None, batch_size=100, append_prefix=True)

Parâmetros

prefix
<xref:str>

O prefixo FilePath dentro do contêiner do qual baixar todos os artefatos.

output_directory
<xref:str>

Um diretório opcional que todos os caminhos de artefato usam como um prefixo.

output_paths
[<xref:str>]

Os caminhos de fileopcionais nos quais armazenar os artefatos baixados. Deve ser exclusivo e corresponder ao comprimento dos caminhos.

batch_size
<xref:int>

O número de arquivos a serem baixados por lote. O padrão é 100 arquivos.

append_prefix
<xref:bool>

Um sinalizador opcional se deve ser acrescentado o prefixo especificado do caminho do arquivo de saída final. Se for false, o prefixo será removido do caminho do arquivo de saída.

fail

Marque a executar como com falha.

Opcionalmente, de definir a propriedade Error da executar com uma mensagem ou exceção passada para error_details .

fail(error_details=None, error_code=None, _set_status=True)

Parâmetros

error_details
<xref:str> ou <xref:BaseException>
valor padrão: None

Detalhes opcionais do erro.

error_code
<xref:str>
valor padrão: None

Código de erro opcional do erro para a classificação de erro.

_set_status
<xref:bool>
valor padrão: True

Indica se o evento de status deve ser enviado para acompanhamento.

flush

Aguarde até que a fila de tarefas seja processada.

flush(timeout_seconds=300)

Parâmetros

timeout_seconds
<xref:int>
valor padrão: 300

Quanto tempo aguardar (em segundos) para que a fila de tarefas seja processada.

get

Obter a executar para este workspace com sua ID de executar.

get(workspace, run_id)

Parâmetros

workspace
Workspace

O workspace que contém.

run_id
string

A ID de executar.

Retornos

A executar enviada.

Tipo de retorno

Run

get_all_logs

Baixe todos os logs para a executar em um diretório.

get_all_logs(destination=None)

Parâmetros

destination
<xref:str>
valor padrão: None

O caminho de destino para armazenar logs. Se não for especificado, um diretório chamado como a ID de executar será criado no diretório do projeto.

Retornos

Uma lista de nomes de logs baixados.

Tipo de retorno

get_children

Obter todos os filhos para a versão atual selecionada por filtros especificados.

get_children(recursive=False, tags=None, properties=None, type=None, status=None, _rehydrate_runs=True)

Parâmetros

recursive
<xref:bool>
valor padrão: False

Indica se é preciso se recursar por meio de todos os descendentes.

tags
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna as executações correspondentes a "tag" ou {"tag": "value"}.

properties
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna as executações correspondentes à "propriedade" ou {"property": "value"}.

type
<xref:str>
valor padrão: None

Se especificado, retorna as executações correspondentes a esse tipo.

status
<xref:str>
valor padrão: None

Se especificado, retorna a execução com o status "status" especificado.

_rehydrate_runs
<xref:bool>
valor padrão: True

Indica se deve-se criar uma instância de uma execução do tipo original ou da execução base.

Retornos

Uma lista de objetos Run.

Tipo de retorno

get_context

Retornar o contexto de serviço atual.

Use este método para recuperar o contexto de serviço atual para métricas de log e carregamento de arquivos. Se allow_offline for true (o padrão), as ações em relação ao objeto de execução serão impressas para padrão.

get_context(allow_offline=True, used_for_context_manager=False, **kwargs)

Parâmetros

cls

Indica o método de classe.

allow_offline
<xref:bool>
valor padrão: True

Permita que o contexto de serviço volte ao modo offline para que o script de treinamento possa ser testado localmente sem enviar um trabalho com o SDK. True por padrão.

kwargs
<xref:dict>
valor padrão: False

Um dicionário de parâmetros adicionais.

Retornos

A execução enviada.

Tipo de retorno

Run

Comentários

Essa função é normalmente usada para recuperar o objeto de execução autenticado dentro de um script a ser enviado para execução por meio de experimento. Submit (). Esse objeto de execução é um contexto autenticado para se comunicar com os serviços Azure Machine Learning e um contêiner conceitual dentro do qual métricas, arquivos (artefatos) e modelos estão contidos.


   run = Run.get_context() # allow_offline=True by default, so can be run locally as well
   ...
   run.log("Accuracy", 0.98)
   run.log_row("Performance", epoch=e, error=err)

get_detailed_status

Busque o status mais recente da execução. Se o status da execução for "enfileirado", ele mostrará os detalhes.

get_detailed_status()

Retornos

O status e os detalhes mais recentes

Tipo de retorno

<xref:dict>[<xref:str>, <xref:str>]

Comentários

  • status: o status atual da execução. Mesmo valor que o retornado de get_Status ().

  • detalhes: as informações detalhadas para o status atual.


   run = experiment.submit(config)
   details = run.get_detailed_status()
   # details = {
   #     'status': 'Queued',
   #     'details': 'Run requested 1 node(s). Run is in pending status.',
   # }

get_details

Obtenha a definição, as informações de status, os arquivos de log atuais e outros detalhes da execução.

get_details()

Retornos

Retornar os detalhes da execução

Tipo de retorno

<xref:dict>[<xref:str>, <xref:str>]

Comentários

O dicionário retornado contém os seguintes pares de chave-valor:

  • runId: ID dessa executar.

  • destino

  • status: o status atual da executar. Mesmo valor retornado de get_status().

  • startTimeUtc: hora UTC de quando essa execução foi iniciada, em ISO8601.

  • endTimeUtc: hora UTC de quando essa execução foi concluída (concluída ou com falha), em ISO8601.

    Essa chave não existirá se a executar ainda estiver em andamento.

  • propriedades: pares chave-valor imutáveis associados à run. As propriedades padrão incluem a ID de instantâneo da run e informações sobre o repositório git do qual a executar foi criada (se for o caso). Propriedades adicionais podem ser adicionadas a uma executar usando add_properties .

  • inputDatasets: conjuntos de dados de entrada associados à executar.

  • outputDatasets: conjuntos de dados de saída associados à executar.

  • Logfiles

  • submittedBy


   run = experiment.start_logging()

   details = run.get_details()
   # details = {
   #     'runId': '5c24aa28-6e4a-4572-96a0-fb522d26fe2d',
   #     'target': 'sdk',
   #     'status': 'Running',
   #     'startTimeUtc': '2019-01-01T13:08:01.713777Z',
   #     'endTimeUtc': '2019-01-01T17:15:65.986253Z',
   #     'properties': {
   #         'azureml.git.repository_uri': 'https://example.com/my/git/repo',
   #         'azureml.git.branch': 'master',
   #         'azureml.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'azureml.git.dirty': 'True',
   #         'mlflow.source.git.repoURL': 'https://example.com/my/git/repo',
   #         'mlflow.source.git.branch': 'master',
   #         'mlflow.source.git.commit': '7dc972657c2168927a02c3bc2b161e0f370365d7',
   #         'ContentSnapshotId': 'b4689489-ce2f-4db5-b6d7-6ad11e77079c'
   #     },
   #     'inputDatasets': [{
   #         'dataset': {'id': 'cdebf245-701d-4a68-8055-41f9cf44f298'},
   #         'consumptionDetails': {
   #             'type': 'RunInput',
   #             'inputName': 'training-data',
   #             'mechanism': 'Mount',
   #             'pathOnCompute': '/mnt/datasets/train'
   #         }
   #     }],
   #     'outputDatasets': [{
   #         'dataset': {'id': 'd04e8a19-1caa-4b1f-b318-4cbff9af9615'},
   #         'outputType': 'RunOutput',
   #         'outputDetails': {
   #             'outputName': 'training-result'
   #         }
   #     }],
   #     'runDefinition': {},
   #     'logFiles': {},
   #     'submittedBy': 'Alan Turing'
   # }

get_details_with_logs

Retornar status de executar, incluindo o conteúdo do arquivo de log.

get_details_with_logs()

Retornos

Retorna o status da executar com o conteúdo do arquivo de log.

Tipo de retorno

<xref:dict>

get_environment

Obter a definição de ambiente que foi usada por esta executar.

get_environment()

Retornos

Retornar o objeto de ambiente.

Tipo de retorno

get_file_names

Liste os arquivos armazenados em associação com a executar.

get_file_names()

Retornos

A lista de caminhos para artefatos existentes

Tipo de retorno

list[<xref:str>]

get_metrics

Recupere as métricas registradas na operação.

Se recursive for true (false por padrão), busque métricas para execuções na subárvore da execução especificada.

get_metrics(name=None, recursive=False, run_type=None, populate=False)

Parâmetros

name
<xref:str>
valor padrão: None

O nome da métrica.

recursive
<xref:bool>
valor padrão: False

Indica se deve ser recursiva por todos os descendentes.

run_type
<xref:str>
valor padrão: None
populate
<xref:bool>
valor padrão: False

Indica se é para buscar o conteúdo de dados externos vinculados à métrica.

Retornos

Um dicionário que contém as métricas dos usuários.

Tipo de retorno

<xref:dict>

Comentários


   run = experiment.start_logging() # run id: 123
   run.log("A", 1)
   with run.child_run() as child: # run id: 456
       child.log("A", 2)

   metrics = run.get_metrics()
   # metrics = { 'A': 1 }

   metrics = run.get_metrics(recursive=True)
   # metrics = { '123': { 'A': 1 }, '456': { 'A': 2 } } note key is runId

get_properties

Busque as propriedades mais recentes da execução do serviço.

get_properties()

Retornos

As propriedades da execução.

Tipo de retorno

<xref:dict>

Comentários

As propriedades são informações imutáveis geradas pelo sistema, como duração, data de execução, usuário e propriedades personalizadas adicionadas com o add_properties método. Para obter mais informações, consulte marcar e localizar execuções.

Ao enviar um trabalho para Azure Machine Learning, se os arquivos de origem forem armazenados em um repositório git local, as informações sobre o repositório serão armazenadas como propriedades. Essas propriedades git são adicionadas ao criar uma execução ou chamar experimento. Submit. Para obter mais informações sobre as propriedades do git, consulte integração do git para Azure Machine Learning.

get_secret

Obter o valor secreto do contexto de uma execução.

Obtenha o valor secreto para o nome fornecido. O nome do segredo faz referência a um valor armazenado em Azure Key Vault associado ao seu espaço de trabalho. Para obter um exemplo de como trabalhar com segredos, consulte usar segredos em execuções de treinamento.

get_secret(name)

Parâmetros

name
<xref:str>

O nome do segredo para o qual retornar um segredo.

Retornos

O valor do segredo.

Tipo de retorno

<xref:str>

get_secrets

Obtenha os valores secretos de uma determinada lista de nomes de segredo.

Obtenha um dicionário de segredos encontrados e não encontrados para a lista de nomes fornecidos. Cada nome secreto faz referência a um valor armazenado em Azure Key Vault associado ao seu espaço de trabalho. Para ver um exemplo de como trabalhar com segredos, consulte Usar segredos em executações de treinamento.

get_secrets(secrets)

Parâmetros

secrets
list[<xref:str>]

Uma lista de nomes secretos para os quais retornar valores secretos.

Retornos

Retorna um dicionário de segredos encontrados e não encontrados.

Tipo de retorno

<xref:dict>[<xref:str: str>]

get_snapshot_id

Obter a ID de instantâneo mais recente.

get_snapshot_id()

Retornos

A ID de instantâneo mais recente.

Tipo de retorno

<xref:str>

get_status

Busque o status mais recente da executar.

Os valores comuns retornados incluem "Running", "Completed" e "Failed".

get_status()

Retornos

O status mais recente.

Tipo de retorno

<xref:str>

Comentários

  • NotStarted – esse é um estado temporário em que os objetos Run do lado do cliente estão antes do envio na nuvem.

  • Iniciando – a run começou a ser processada na nuvem. O chamador tem uma ID de executar neste ponto.

  • Provisionamento – retornado quando a computação sob demanda está sendo criada para um determinado envio de trabalho.

  • Preparação – o ambiente de run está sendo preparado:

    • build de imagem do docker

    • Configuração do ambiente conda

  • Na fila – o trabalho está na fila no destino de computação. Por exemplo, em BatchAI, o trabalho está no estado de en ensuado

    enquanto aguarda que todos os nós solicitados sejam prontos.

  • Em execução – o trabalho começou a ser executado no destino de computação.

  • Finalizando – o código do usuário foi concluído e a operação está em estágios de pós-processamento.

  • CancelRequested-o cancelamento foi solicitado para o trabalho.

  • Concluído-a execução foi concluída com êxito. Isso inclui o código do usuário e a execução

    estágios de pós-processamento.

  • Falha-a execução falhou. Normalmente, a Propriedade Error em uma execução fornecerá detalhes sobre o porquê.

  • Cancelado-segue uma solicitação de cancelamento e indica que a execução agora foi cancelada com êxito.

  • Não respondendo-para execuções que têm pulsações habilitadas, nenhuma pulsação foi enviada recentemente.


   run = experiment.submit(config)
   while run.get_status() not in ['Completed', 'Failed']: # For example purposes only, not exhaustive
       print('Run {} not in terminal state'.format(run.id))
       time.sleep(10)

get_submitted_run

Preterido. Use get_context.

Obtenha a execução enviada para este experimento.

get_submitted_run(**kwargs)

Parâmetros

cls

Retornos

A execução enviada.

Tipo de retorno

Run

get_tags

Busque o conjunto mais recente de marcas mutáveis na execução do serviço.

get_tags()

Retornos

As marcas armazenadas no objeto de execução.

Tipo de retorno

<xref:dict>

list

Obtenha uma lista de execuções em um experimento especificado por filtros opcionais.

list(experiment, type=None, tags=None, properties=None, status=None, include_children=False, _rehydrate_runs=True)

Parâmetros

experiment
Experiment

O experimento que o contém.

type
<xref:str>
valor padrão: None

Se especificado, retorna a execução de tipo especificado correspondente.

tags
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna a execução correspondente "tag" ou {"tag": "value"}.

properties
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna execuções correspondentes especificadas "Property" ou {"Property": "value"}.

status
<xref:str>
valor padrão: None

Se especificado, retorna a execução com o status "status" especificado.

include_children
<xref:bool>
valor padrão: False

Se definido como true, busque todas as execuções, não apenas as de nível superior.

_rehydrate_runs
<xref:bool>
valor padrão: True

Se definido como True (por padrão), o usará o provedor registrado para reinstantir um objeto para esse tipo em vez da base Executar.

Retornos

Uma lista de executações.

Tipo de retorno

Comentários

O exemplo de código a seguir mostra alguns usos do list método .


   favorite_completed_runs = Run.list(experiment, status='Completed', tags='favorite')

   all_distinct_runs = Run.list(experiment)
   and_their_children = Run.list(experiment, include_children=True)

   only_script_runs = Run.list(experiment, type=ScriptRun.RUN_TYPE)

list_by_compute

Obter uma lista de executações em uma computação especificada por filtros opcionais.

list_by_compute(compute, type=None, tags=None, properties=None, status=None)

Parâmetros

compute
ComputeTarget

O que contém a computação.

type
<xref:str>
valor padrão: None

Se especificado, retorna as executações correspondentes ao tipo especificado.

tags
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna as executações correspondentes a "tag" ou {"tag": "value"}.

properties
<xref:str> ou <xref:dict>
valor padrão: None

Se especificado, retorna as executações correspondentes à "propriedade" ou {"property": "value"}.

status
<xref:str>
valor padrão: None

Se especificado, retorna as executações com o status "status" especificado. Somente os valores permitidos são "Em execução" e "Na fila".

Retornos

um gerador de ~_restclient.models.RunDto

Tipo de retorno

<xref:builtin.generator>

log

Registre em log um valor de métrica para a execução com o nome fornecido.

log(name, value, description='')

Parâmetros

name
<xref:str>

O nome da métrica.

value

O valor a ser postado no serviço.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Registrar uma métrica em log para uma execução faz essa métrica ser armazenada no registro de execução no experimento. Você pode registrar em log a mesma métrica várias vezes dentro de uma execução, sendo o resultado considerado um vetor dessa métrica.

log_accuracy_table

Registre uma tabela de precisão no armazenamento de artefatos.

A métrica de tabela de precisão é uma métrica não escalar e multiuso que pode ser usada para produzir vários tipos de gráficos de linhas que variam continuamente sobre o espaço de probabilidades previstas. Exemplos desses gráficos são ROC, recall de precisão e curvas de precisão.

O cálculo da tabela de precisão é semelhante ao cálculo de uma curva ROC. Uma curva ROC armazena taxas positivas verdadeiras e taxas de falsos positivos em muitos limites de probabilidade diferentes. A tabela de precisão armazena o número bruto de verdadeiros positivos, falsos positivos, verdadeiros negativos e falsos negativos em muitos limites de probabilidade.

Há dois métodos usados para selecionar limites: "probabilidade" e "percentil". Eles diferem em como eles são amostrados do espaço das probabilidades previstas.

Os limites de probabilidade são limites espaçados uniformemente entre 0 e 1. Se NUM_POINTS for 5, os limites de probabilidade seriam [0,0, 0,25, 0,5, 0,75, 1,0].

Os limites de percentil são espaçados de acordo com a distribuição de probabilidades previstas. Cada limite corresponde ao percentual dos dados em um limite de probabilidade. Por exemplo, se NUM_POINTS for 5, o primeiro limite seria no 0º percentil, o segundo no 25º percentil, o terceiro no 50 º e assim por diante.

As tabelas de probabilidade e as tabelas de percentil são listas 3D nas quais a primeira dimensão representa o rótulo de classe, a segunda dimensão representa o exemplo em um limite (escala com NUM_POINTS) e a terceira dimensão sempre tem quatro valores: TP, FP, TN, FN e sempre nessa ordem.

Os valores de confusão (TP, FP, TN, FN) são calculados com a estratégia um vs. REST. Consulte o link a seguir para obter mais detalhes: https://en.wikipedia.org/wiki/Multiclass_classification

N = n º de amostras no conjunto de espaço de validação (200 em exemplo) M = # Thresholds = # Samples extraídos do espaço de probabilidade (5 no exemplo) C = # classes no conjunto de espaço completo (3 no exemplo)

Algumas invariáveis da tabela de precisão:

  • TP + FP + TN + FN = N para todos os limites de todas as classes
  • TP + FN é o mesmo em todos os limites de qualquer classe
  • TN + FP é o mesmo em todos os limites de qualquer classe
  • Tabelas de probabilidade e tabelas percentil têm Shape [C, M, 4]

Observação: M pode ser qualquer valor e controla a resolução dos gráficos que isso é independente do conjunto de um, é definido ao calcular as métricas e compensa o espaço de armazenamento, o tempo de cálculo e a resolução.

Os rótulos de classe devem ser cadeias de caracteres, os valores de confusão devem ser inteiros e os limites devem ser flutuantes.

log_accuracy_table(name, value, description='')

Parâmetros

name
<xref:str>

O nome da tabela de precisão.

value
<xref:str> ou <xref:dict>

JSON contendo nome, versão e propriedades de dados.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Exemplo de um valor JSON válido:


   {
       "schema_type": "accuracy_table",
       "schema_version": "1.0.1",
       "data": {
           "probability_tables": [
               [
                   [82, 118, 0, 0],
                   [75, 31, 87, 7],
                   [66, 9, 109, 16],
                   [46, 2, 116, 36],
                   [0, 0, 118, 82]
               ],
               [
                   [60, 140, 0, 0],
                   [56, 20, 120, 4],
                   [47, 4, 136, 13],
                   [28, 0, 140, 32],
                   [0, 0, 140, 60]
               ],
               [
                   [58, 142, 0, 0],
                   [53, 29, 113, 5],
                   [40, 10, 132, 18],
                   [24, 1, 141, 34],
                   [0, 0, 142, 58]
               ]
           ],
           "percentile_tables": [
               [
                   [82, 118, 0, 0],
                   [82, 67, 51, 0],
                   [75, 26, 92, 7],
                   [48, 3, 115, 34],
                   [3, 0, 118, 79]
               ],
               [
                   [60, 140, 0, 0],
                   [60, 89, 51, 0],
                   [60, 41, 99, 0],
                   [46, 5, 135, 14],
                   [3, 0, 140, 57]
               ],
               [
                   [58, 142, 0, 0],
                   [56, 93, 49, 2],
                   [54, 47, 95, 4],
                   [41, 10, 132, 17],
                   [3, 0, 142, 55]
               ]
           ],
           "probability_thresholds": [0.0, 0.25, 0.5, 0.75, 1.0],
           "percentile_thresholds": [0.0, 0.01, 0.24, 0.98, 1.0],
           "class_labels": ["0", "1", "2"]
       }
   }

log_confusion_matrix

Registre uma matriz de confusão no armazenamento de artefatos.

Isso registra um wrapper em torno da matriz de confusão sklearn. Os dados de métrica contêm os rótulos de classe e uma lista 2D para a matriz em si. Confira o link a seguir para obter mais detalhes sobre como a métrica é computada: https://scikit-learn.org/stable/modules/generated/sklearn.metrics.confusion_matrix.html

log_confusion_matrix(name, value, description='')

Parâmetros

name
<xref:str>

O nome da matriz de confusão.

value
<xref:str> ou <xref:dict>

JSON que contém propriedades de nome, versão e dados.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Exemplo de um valor JSON válido:


   {
       "schema_type": "confusion_matrix",
       "schema_version": "1.0.0",
       "data": {
           "class_labels": ["0", "1", "2", "3"],
           "matrix": [
               [3, 0, 1, 0],
               [0, 1, 0, 1],
               [0, 0, 1, 0],
               [0, 0, 0, 1]
           ]
       }
   }

log_image

Registre em log uma métrica de imagem para o registro de execução.

log_image(name, path=None, plot=None, description='')

Parâmetros

name
<xref:str>

O nome da métrica.

path
<xref:str>

O caminho ou fluxo da imagem.

plot
<xref:matplotlib.pyplot>

O gráfico a ser log como uma imagem.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Use esse método para registrar um arquivo de imagem ou um gráfico matplotlib para a executar. Essas imagens serão visíveis e comparáveis no registro de execução.

log_list

Registre uma lista de valores de métrica na executar com o nome determinado.

log_list(name, value, description='')

Parâmetros

name
<xref:str>

O nome da métrica.

value
list

Os valores da métrica.

description
<xref:str>

Uma descrição de métrica opcional.

log_predictions

Registrar previsões no armazenamento de artefatos.

Isso registra uma pontuação de métrica que pode ser usada para comparar as distribuições de valores de destino verdadeiros com a distribuição de valores previstos para uma tarefa de regressão.

As previsões são compartimentalizados e os desvios padrão são calculados para barras de erro em um gráfico de linhas.

log_predictions(name, value, description='')

Parâmetros

name
<xref:str>

O nome das previsões.

value
<xref:str> ou <xref:dict>

JSON contendo nome, versão e propriedades de dados.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Exemplo de um valor JSON válido:


   {
       "schema_type": "predictions",
       "schema_version": "1.0.0",
       "data": {
           "bin_averages": [0.25, 0.75],
           "bin_errors": [0.013, 0.042],
           "bin_counts": [56, 34],
           "bin_edges": [0.0, 0.5, 1.0]
       }
   }

log_residuals

Registrar resíduos no repositório de artefatos.

Isso registra os dados necessários para exibir um histograma de resíduos para uma tarefa de regressão. Os resíduos são previstos-reais.

Deve haver mais uma borda do que o número de contagens. Consulte a documentação do histograma numpy para obter exemplos de como usar contagens e bordas para representar um histograma. https://docs.scipy.org/doc/numpy/reference/generated/numpy.histogram.html

log_residuals(name, value, description='')

Parâmetros

name
<xref:str>

O nome dos resíduos.

value
<xref:str> ou <xref:dict>

JSON contendo nome, versão e propriedades de dados.

description
<xref:str>

Uma descrição de métrica opcional.

Comentários

Exemplo de um valor JSON válido:


   {
       "schema_type": "residuals",
       "schema_version": "1.0.0",
       "data": {
           "bin_edges": [50, 100, 200, 300, 350],
           "bin_counts": [0.88, 20, 30, 50.99]
       }
   }

log_row

Registra em log uma métrica de linha para a execução com o nome fornecido.

log_row(name, description=None, **kwargs)

Parâmetros

name
<xref:str>

O nome da métrica.

description
<xref:str>
valor padrão: None

Uma descrição de métrica opcional.

kwargs
<xref:dict>

Um dicionário de parâmetros adicionais. Nesse caso, as colunas da métrica.

Comentários

log_rowO uso de cria uma métrica de tabela com colunas, conforme descrito em kwargs. Cada parâmetro nomeado gera uma coluna com o valor especificado. log_row pode ser chamado uma vez para registrar uma tupla arbitrária ou várias vezes em um loop para gerar uma tabela completa.


   citrus = ['orange', 'lemon', 'lime']
   sizes = [ 10, 7, 3]
   for index in range(len(citrus)):
       run.log_row("citrus", fruit = citrus[index], size=sizes[index])

log_table

Registrar em log uma métrica de tabela para a execução com o nome fornecido.

log_table(name, value, description='')

Parâmetros

name
<xref:str>

O nome da métrica.

value
<xref:dict>

O valor da tabela da métrica, um dicionário em que as chaves são colunas a serem postadas no serviço.

description
<xref:str>

Uma descrição de métrica opcional.

register_model

Registrar um modelo para operacionalização.

register_model(model_name, model_path=None, tags=None, properties=None, model_framework=None, model_framework_version=None, description=None, datasets=None, sample_input_dataset=None, sample_output_dataset=None, resource_configuration=None, **kwargs)

Parâmetros

model_name
<xref:str>

O nome do modelo.

model_path
<xref:str>
valor padrão: None

O caminho de nuvem relativo para o modelo, por exemplo, "outputs/modelname". Quando não especificado (Nenhum), model_name é usado como o caminho.

tags
<xref:dict>[<xref:str>, <xref:str>]
valor padrão: None

Um dicionário de marcas de valor de chave a ser atribuído ao modelo.

properties
<xref:dict>[<xref:str>, <xref:str>]
valor padrão: None

Um dicionário de propriedades de valor de chave a ser atribuído ao modelo. Essas propriedades não podem ser alteradas após a criação do modelo, no entanto, novos pares de valores de chave podem ser adicionados.

model_framework
<xref:str>
valor padrão: None

A estrutura do modelo a ser registrado. Estruturas atualmente com suporte: TensorFlow, ScikitLearn, Onnx, Custom, Multi

model_framework_version
<xref:str>
valor padrão: None

A versão da estrutura do modelo registrado.

description
<xref:str>
valor padrão: None

Uma descrição opcional do modelo.

datasets
list[(<xref:str>, AbstractDataset)]
valor padrão: None

Uma lista de tuplas em que o primeiro elemento descreve a relação dataset-model e o segundo elemento é o conjuntos de dados.

sample_input_dataset
AbstractDataset
valor padrão: None

Opcional. Exemplo de conjuntos de dados de entrada para o modelo registrado

sample_output_dataset
AbstractDataset
valor padrão: None

Opcional. Exemplo de conjuntos de dados de saída para o modelo registrado

resource_configuration
ResourceConfiguration
valor padrão: None

Opcional. Configuração de recursos para executar o modelo registrado

kwargs
<xref:dict>

Parâmetros opcionais.

Retornos

O modelo registrado.

Tipo de retorno

Comentários


   model = best_run.register_model(model_name = 'best_model', model_path = 'outputs/model.pkl')

remove_tags

Exclua a lista de marcas mutáveis nesta executar.

remove_tags(tags)

Parâmetros

tags
list

Uma lista de marcas a serem removidas.

Retornos

As marcas armazenadas no objeto de execução

restore_snapshot

Restaurar um instantâneo como um arquivo ZIP. Retorna o caminho para o ZIP.

restore_snapshot(snapshot_id=None, path=None)

Parâmetros

snapshot_id
<xref:str>
valor padrão: None

A ID de instantâneo a ser restaurada. O mais recente será usado se não for especificado.

path
<xref:str>
valor padrão: None

O caminho em que o ZIP baixado foi salvo.

Retornos

O caminho.

Tipo de retorno

<xref:str>

set_tags

Adicione ou modifique um conjunto de marcas na execução. As marcas não passadas no dicionário são deixadas inalteradas.

Você também pode adicionar marcas de cadeia de caracteres simples. Quando essas marcas aparecem no dicionário de marcas como chaves, elas têm um valor de nenhum. Para obter mais informações, consulte marcar e localizar execuções.

set_tags(tags)

Parâmetros

tags
<xref:dict>[<xref:str>] ou <xref:str>

As marcas armazenadas no objeto de execução.

start

Marque a execução como iniciada.

Normalmente, isso é usado em cenários avançados quando a execução é criada por outro ator.

start()

submit_child

Envie um experimento e retorne a execução do filho ativo.

submit_child(config, tags=None, **kwargs)

Parâmetros

config
<xref:object>

A configuração a ser enviada.

tags
<xref:dict>
valor padrão: None

Marcas a serem adicionadas à execução enviada, por exemplo, {"tag": "value"}.

kwargs
<xref:dict>

Parâmetros adicionais usados na função de envio para configurações.

Retornos

Um objeto de execução.

Tipo de retorno

Run

Comentários

Submit é uma chamada assíncrona para a plataforma Azure Machine Learning para executar uma avaliação em hardware local ou remoto. Dependendo da configuração, o envio preparará automaticamente seus ambientes de execução, executará seu código e capturará o código-fonte e os resultados no histórico de execução do experimento.

Para enviar um experimento, primeiro você precisa criar um objeto de configuração que descreve como o experimento deve ser executado. A configuração depende do tipo de avaliação necessária.

Um exemplo de como enviar um experimento filho de seu computador local ScriptRunConfig usando é o seguinte:


   from azureml.core import ScriptRunConfig

   # run a trial from the train.py code in your current directory
   config = ScriptRunConfig(source_directory='.', script='train.py',
       run_config=RunConfiguration())
   run = parent_run.submit_child(config)

   # get the url to view the progress of the experiment and then wait
   # until the trial is complete
   print(run.get_portal_url())
   run.wait_for_completion()

Para obter detalhes sobre como configurar uma executar, consulte submit .

tag

Marque a execução com uma chave de cadeia de caracteres e um valor de cadeia de caracteres opcional.

tag(key, value=None)

Parâmetros

key
<xref:str>

A chave de marca

value
<xref:str>
valor padrão: None

Um valor opcional para a marca

Comentários

Marcas e propriedades em uma sequência são ambos dicionários de cadeia de caracteres -> cadeia de caracteres. A diferença entre eles é a mutabilidade: as marcas podem ser definidas, atualizadas e excluídas, enquanto Propriedades só podem ser adicionadas. Isso torna as Propriedades mais apropriadas para gatilhos de comportamento relacionados ao sistema/fluxo de trabalho, enquanto as Marcas geralmente são voltadas para o usuário e significativas para os consumidores do experimento.


   run = experiment.start_logging()
   run.tag('DeploymentCandidate')
   run.tag('modifiedBy', 'Master CI')
   run.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable

   run.add_properties({'BuildId': os.environ.get('VSTS_BUILD_ID')}) # Properties are not

   tags = run.get_tags()
   # tags = { 'DeploymentCandidate': None, 'modifiedBy': 'release pipeline' }

take_snapshot

Salve um instantâneo do arquivo ou pasta de entrada.

take_snapshot(file_or_folder_path)

Parâmetros

file_or_folder_path
<xref:str>

O arquivo ou pasta que contém o código-fonte de executar.

Retornos

Retorna a ID do instantâneo.

Tipo de retorno

<xref:str>

Comentários

Os instantâneos devem ser o código-fonte usado para executar a execução do experimento. Eles são armazenados com a executar para que a avaliação de executar possa ser replicada no futuro.

Observação

Instantâneos são tirados automaticamente quando submit é chamado. Normalmente, esse método take_snapshot é necessário apenas para as executações interativas (notebook).

upload_file

Carregar um arquivo para o registro de execução.

upload_file(name, path_or_stream, datastore_name=None)

Parâmetros

name
<xref:str>

O nome do arquivo a ser carregado.

path_or_stream
<xref:str>

O caminho local relativo ou o fluxo para o arquivo a ser carregado.

datastore_name
<xref:str>

Nome do repositório de armazenamento opcional

Tipo de retorno

Comentários


   run = experiment.start_logging()
   run.upload_file(name='important_file', path_or_stream="path/on/disk/file.txt")

Observação

Execuções de capturam automaticamente os arquivos no diretório de saída especificado, cujo padrão é ". /outputs" para a maioria dos tipos de execução. Use upload_file somente quando arquivos adicionais precisarem ser carregados ou um diretório de saída não for especificado.

upload_files

Carregar arquivos para o registro de execução.

upload_files(names, paths, return_artifacts=False, timeout_seconds=None, datastore_name=None)

Parâmetros

names
list

Os nomes dos arquivos a serem carregados. Se definido, os caminhos também devem ser definidos.

paths
list

Os caminhos locais relativos para os arquivos a serem carregados. Se definido, os nomes serão necessários.

return_artifacts
<xref:bool>

Indica que um objeto de artefato deve ser retornado para cada arquivo carregado.

timeout_seconds
<xref:int>

O tempo limite para carregar arquivos.

datastore_name
<xref:str>

Nome do repositório de armazenamento opcional

Comentários

upload_files tem o mesmo efeito que upload_file em arquivos separados, no entanto, há benefícios de utilização de desempenho e de recursos ao usar o upload_files .


   import os

   run = experiment.start_logging()
   file_name_1 = 'important_file_1'
   file_name_2 = 'important_file_2'
   run.upload_files(names=[file_name_1, file_name_2],
                       paths=['path/on/disk/file_1.txt', 'other/path/on/disk/file_2.txt'])

   run.download_file(file_name_1, 'file_1.txt')

   os.mkdir("path")  # The path must exist
   run.download_file(file_name_2, 'path/file_2.txt')

Observação

Executa a captura automática de arquivos no diretório de saída especificado, cujo padrão é "./Outputs" para a maioria dos tipos de execução. Use upload_files somente quando arquivos adicionais precisarem ser carregados ou se um diretório de saída não for especificado.

upload_folder

Carregue a pasta especificada para o nome de prefixo fornecido.

upload_folder(name, path, datastore_name=None)

Parâmetros

name
<xref:str>

O nome da pasta de arquivos a ser carregada.

folder
<xref:str>

O caminho local relativo para a pasta a ser carregada.

datastore_name
<xref:str>

Nome do repositório de armazenamento opcional

Comentários


   run = experiment.start_logging()
   run.upload_folder(name='important_files', path='path/on/disk')

   run.download_file('important_files/existing_file.txt', 'local_file.txt')

Observação

Executa a captura automática de arquivos no diretório de saída especificado, cujo padrão é "./Outputs" para a maioria dos tipos de execução. Use upload_folder somente quando arquivos adicionais precisarem ser carregados ou se um diretório de saída não for especificado.

wait_for_completion

Aguarde a conclusão desta execução. Retorna o objeto de status após a espera.

wait_for_completion(show_output=False, wait_post_processing=False, raise_on_error=True)

Parâmetros

show_output
<xref:bool>
valor padrão: False

Indica se a saída de executar em sys.stdout deve ser mostrada.

wait_post_processing
<xref:bool>
valor padrão: False

Indica se é preciso aguardar a conclusão do pós-processamento após a conclusão da operação.

raise_on_error
<xref:bool>
valor padrão: True

Indica se um Erro é gerado quando a Run está em um estado de falha.

Retornos

O objeto de status.

Tipo de retorno

<xref:dict>

Atributos

experiment

Obter experimento que contém a executar.

Retornos

Recupera o experimento correspondente à executar.

Tipo de retorno

id

Obter a ID de executar.

A ID da executar é um identificador exclusivo em todo o experimento que o contém.

Retornos

A ID de executar.

Tipo de retorno

<xref:str>

name

Retornar o nome da executar.

O nome opcional da sequência é uma cadeia de caracteres especificada pelo usuário útil para identificação posterior da sequência.

Retornos

A ID de executar.

Tipo de retorno

<xref:str>

number

Obter o número de executar.

Um número que aumenta de forma monotônica que representa a ordem das executações dentro de um experimento.

Retornos

O número de run.

Tipo de retorno

<xref:int>

parent

Busque a executar pai para esta executar do serviço.

As executações podem ter um pai opcional, resultando em uma possível hierarquia de árvore de executações. Para registrar métricas em uma run pai, use log o método do objeto pai, por exemplo, run.parent.log() .

Retornos

A executar pai ou Nenhum se um não estiver definido.

Tipo de retorno

Run

properties

Retornar as propriedades imutáveis dessa executar.

Retornos

As propriedades armazenadas em cache localmente da execução.

Tipo de retorno

<xref:dict>[<xref:str>],
<xref:str>

Comentários

As propriedades incluem informações imutáveis geradas pelo sistema, como duração, data de execução, usuário, etc.

status

Retornar o status do objeto de execução.

tags

Retornar o conjunto de marcas mutáveis nesta execução.

Retornos

As marcas armazenadas no objeto de execução.

Tipo de retorno

<xref:dict>

type

Obter tipo de execução.

Indica como a execução foi criada ou configurada.

Retornos

O tipo de execução.

Tipo de retorno

<xref:str>