Job - Create
Envoie un travail au compte Data Lake Analytics spécifié.
PUT https://{accountName}.{adlaJobDnsSuffix}/Jobs/{jobIdentity}?api-version=2016-11-01
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
account
|
path | True |
string |
Compte Azure Data Lake Analytics sur lequel exécuter des opérations de travail. |
adla
|
path | True |
string |
Obtient le suffixe DNS utilisé comme base pour toutes les demandes de service Azure Data Lake Analytics Job. |
job
|
path | True |
string uuid |
Identificateur du travail. Identifie de manière unique le travail pour tous les travaux soumis au service. |
api-version
|
query | True |
string |
Version de l’API cliente. |
Corps de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
name | True |
string |
nom convivial du travail à soumettre. |
properties | True | CreateJobProperties: |
propriétés spécifiques au travail. |
type | True |
type de travail du travail actuel (Hive ou USql). |
|
degreeOfParallelism |
integer |
degré de parallélisme utilisé pour ce travail. Au maximum un des degrésOfParallelism et degreeOfParallelismPercent doit être spécifié. Si aucun, une valeur par défaut de 1 est utilisée. |
|
degreeOfParallelismPercent |
number |
degré de parallélisme en pourcentage utilisé pour ce travail. Au maximum un des degrésOfParallelism et degreeOfParallelismPercent doit être spécifié. Si aucun, une valeur par défaut de 1 est utilisée pour degreeOfParallelism. |
|
logFilePatterns |
string[] |
liste des modèles de nom de fichier journal à trouver dans logFolder. '' est le seul caractère correspondant autorisé. Exemple de format : jobExecution.log ou mylog.txt |
|
priority |
integer |
valeur de priorité à utiliser pour le travail en cours. Les nombres inférieurs ont une priorité plus élevée. Par défaut, une tâche affiche une priorité de 1 000. La valeur doit être supérieure à 0. |
|
related |
les propriétés d’informations sur les relations de travail périodiques. |
Réponses
Nom | Type | Description |
---|---|---|
200 OK |
Le travail a été envoyé avec succès. |
Exemples
Submits a job to the specified Data Lake Analytics account
Sample Request
PUT https://account123.contosopipelineservice.com/Jobs/076713da-9018-41ae-a3bd-9eab14e54d09?api-version=2016-11-01
{
"type": "USql",
"properties": {
"runtimeVersion": "test_runtime_version",
"script": "test_script",
"type": "USql"
},
"name": "test_name",
"degreeOfParallelism": 1,
"priority": 1,
"logFilePatterns": [
"test_log_file_pattern_1",
"test_log_file_pattern_2"
],
"related": {
"pipelineId": "076713da-9018-41ae-a3bd-9eab14e54d09",
"pipelineName": "test_pipeline_name",
"pipelineUri": "https://account123.contosopipelineservice.com/076713da-9018-41ae-a3bd-9eab14e54d09",
"runId": "67034c12-b250-468e-992d-39fb978bde2c",
"recurrenceId": "67034c12-b250-468e-992d-39fb978bde2d",
"recurrenceName": "test_recurrence_name"
}
}
Sample Response
{
"jobId": "076713da-9018-41ae-a3bd-9eab14e54d09",
"name": "test_name",
"type": "USql",
"submitter": "test_submitter",
"degreeOfParallelism": 1,
"priority": 1,
"submitTime": "2017-04-18T11:16:49.0748958-07:00",
"startTime": "2017-04-18T11:16:49.0748958-07:00",
"endTime": "2017-04-18T11:16:49.0748958-07:00",
"state": "Accepted",
"result": "Succeeded",
"logFolder": "adl://contosoadla.azuredatalakestore.net/system/jobservice/jobs/Usql/2016/03/13/17/18/5fe51957-93bc-4de0-8ddc-c5a4753b068b/logs/",
"logFilePatterns": [
"test_log_file_pattern_1",
"test_log_file_pattern_2"
],
"related": {
"pipelineId": "076713da-9018-41ae-a3bd-9eab14e54d09",
"pipelineName": "test_pipeline_name",
"pipelineUri": "https://account123.contosopipelineservice.com/076713da-9018-41ae-a3bd-9eab14e54d09",
"runId": "67034c12-b250-468e-992d-39fb978bde2c",
"recurrenceId": "67034c12-b250-468e-992d-39fb978bde2d",
"recurrenceName": "test_recurrence_name"
},
"errorMessage": [
{
"description": "test_description",
"details": "test_details",
"endOffset": 1,
"errorId": "test_error_id",
"filePath": "adl://contosoadla.azuredatalakestore.net/system/jobservice/jobs/Usql/2016/03/13/17/18/5fe51957-93bc-4de0-8ddc-c5a4753b068b/test_file.txt",
"helpLink": "https://azure.microsoft.com/en-us/blog/introducing-azure-data-lake/",
"internalDiagnostics": "test_internal_diagnostics",
"lineNumber": 1,
"message": "test_message",
"resolution": "test_resolution",
"innerError": {
"diagnosticCode": 1,
"severity": "Warning",
"details": "test_details",
"component": "test_component",
"errorId": "test_error_id",
"helpLink": "https://azure.microsoft.com/en-us/blog/introducing-azure-data-lake/",
"internalDiagnostics": "test_internal_diagnostics",
"message": "test_message",
"resolution": "test_resolution",
"source": "SYSTEM",
"description": "test_description"
},
"severity": "Warning",
"source": "SYSTEM",
"startOffset": 1
}
],
"stateAuditRecords": [
{
"newState": "test_new_state",
"timeStamp": "2017-04-18T11:16:49.0748958-07:00",
"requestedByUser": "test_requested_by_user",
"details": "test_details"
}
],
"properties": {
"runtimeVersion": "test_runtime_version",
"script": "test_script",
"type": "USql"
}
}
Définitions
Nom | Description |
---|---|
Compile |
mode de compilation spécifique pour le travail utilisé pendant l’exécution. Si ce n’est pas spécifié lors de la soumission, le serveur détermine le mode de compilation optimal. |
Create |
Paramètres utilisés pour envoyer un nouveau travail Data Lake Analytics. |
Create |
Propriétés des travaux U-SQL utilisées lors de l’envoi de travaux U-SQL. |
Diagnostics |
Informations de diagnostic d’erreur pour les travaux ayant échoué. |
Hive |
Propriétés de travail Hive utilisées lors de la récupération de travaux Hive. |
Job |
Élément de chemin d’accès aux données de travail Data Lake Analytics. |
Job |
Détails de l’erreur du travail Data Lake Analytics. |
Job |
Propriétés d’informations de travail Data Lake Analytics étendues retournées lors de la récupération d’un travail spécifique. |
Job |
Détails de l’erreur du travail Data Lake Analytics. |
Job |
Propriétés d’informations sur la relation de travail, y compris les informations de pipeline, les informations de corrélation, etc. |
Job |
Ressources de travail Data Lake Analytics. |
Job |
type de ressource de travail. |
Job |
le résultat de l’exécution du travail ou le résultat actuel du travail en cours d’exécution. |
Job |
état du travail. Lorsque le travail est à l’état Terminé, reportez-vous à Result et ErrorMessage pour plus d’informations. |
Job |
Le Data Lake Analytics enregistrements d’audit de l’état du travail pour le suivi du cycle de vie d’un travail. |
Job |
Statistiques d’exécution de travaux Data Lake Analytics. |
Job |
Le Data Lake Analytics informations sur l’étape de vertex des statistiques de travail. |
Job |
type de travail du travail actuel (Hive ou USql). |
Severity |
gravité de l’erreur. |
USql |
Propriétés de travail U-SQL utilisées lors de la récupération de travaux U-SQL. |
CompileMode
mode de compilation spécifique pour le travail utilisé pendant l’exécution. Si ce n’est pas spécifié lors de la soumission, le serveur détermine le mode de compilation optimal.
Nom | Type | Description |
---|---|---|
Full |
string |
|
Semantic |
string |
|
SingleBox |
string |
CreateJobParameters
Paramètres utilisés pour envoyer un nouveau travail Data Lake Analytics.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
degreeOfParallelism |
integer |
1 |
degré de parallélisme utilisé pour ce travail. Au maximum un des degrésOfParallelism et degreeOfParallelismPercent doit être spécifié. Si aucun, une valeur par défaut de 1 est utilisée. |
degreeOfParallelismPercent |
number |
degré de parallélisme en pourcentage utilisé pour ce travail. Au maximum un des degrésOfParallelism et degreeOfParallelismPercent doit être spécifié. Si aucun, une valeur par défaut de 1 est utilisée pour degreeOfParallelism. |
|
logFilePatterns |
string[] |
liste des modèles de nom de fichier journal à trouver dans logFolder. '' est le seul caractère correspondant autorisé. Exemple de format : jobExecution.log ou mylog.txt |
|
name |
string |
nom convivial du travail à soumettre. |
|
priority |
integer |
valeur de priorité à utiliser pour le travail en cours. Les nombres inférieurs ont une priorité plus élevée. Par défaut, une tâche affiche une priorité de 1 000. La valeur doit être supérieure à 0. |
|
properties | CreateJobProperties: |
propriétés spécifiques au travail. |
|
related |
les propriétés d’informations sur les relations de travail périodiques. |
||
type |
type de travail du travail actuel (Hive ou USql). |
CreateUSqlJobProperties
Propriétés des travaux U-SQL utilisées lors de l’envoi de travaux U-SQL.
Nom | Type | Description |
---|---|---|
compileMode |
mode de compilation spécifique pour le travail utilisé pendant l’exécution. Si ce n’est pas spécifié lors de la soumission, le serveur détermine le mode de compilation optimal. |
|
runtimeVersion |
string |
version runtime du moteur Data Lake Analytics à utiliser pour le type spécifique de travail en cours d’exécution. |
script |
string |
script à exécuter. Notez que la taille maximale du script est de 3 Mo. |
type |
string:
USql |
type de travail du travail en cours (c’est-à-dire USql). |
Diagnostics
Informations de diagnostic d’erreur pour les travaux ayant échoué.
Nom | Type | Description |
---|---|---|
columnNumber |
integer |
colonne dans laquelle l’erreur s’est produite. |
end |
integer |
index de fin de l’erreur. |
lineNumber |
integer |
numéro de ligne sur lequel l’erreur s’est produite. |
message |
string |
le message d’erreur. |
severity |
gravité de l’erreur. |
|
start |
integer |
l’index de démarrage de l’erreur. |
HiveJobProperties
Propriétés de travail Hive utilisées lors de la récupération de travaux Hive.
Nom | Type | Description |
---|---|---|
executedStatementCount |
integer |
nombre d’instructions qui ont été exécutées en fonction du script |
logsLocation |
string |
emplacement des journaux Hive |
outputLocation |
string |
l’emplacement des fichiers de sortie de travail Hive (à la fois la sortie d’exécution et les résultats) |
runtimeVersion |
string |
version runtime du moteur Data Lake Analytics à utiliser pour le type spécifique de travail en cours d’exécution. |
script |
string |
script à exécuter. Notez que la taille maximale du script est de 3 Mo. |
statementCount |
integer |
nombre d’instructions qui seront exécutées en fonction du script |
type |
string:
Hive |
type de travail du travail actuel (par exemple, Hive ou USql). |
JobDataPath
Élément de chemin d’accès aux données de travail Data Lake Analytics.
Nom | Type | Description |
---|---|---|
command |
string |
commande à laquelle ces données de travail sont liées. |
jobId |
string |
id du travail pour lequel ces données sont destinées. |
paths |
string[] |
liste des chemins d’accès à toutes les données de travail. |
JobErrorDetails
Détails de l’erreur du travail Data Lake Analytics.
Nom | Type | Description |
---|---|---|
description |
string |
description du message d’erreur |
details |
string |
détails du message d’erreur. |
endOffset |
integer |
décalage de fin dans le travail où l’erreur a été trouvée. |
errorId |
string |
identificateur spécifique du type d’erreur rencontré dans le travail. |
filePath |
string |
chemin d’accès à tous les fichiers d’erreur supplémentaires, le cas échéant. |
helpLink |
string |
le lien vers MSDN ou l’aide Azure pour ce type d’erreur, le cas échéant. |
innerError |
l’erreur interne de ce message d’erreur de travail spécifique, le cas échéant. |
|
internalDiagnostics |
string |
la trace de la pile de diagnostics interne si l’utilisateur qui demande les détails de l’erreur du travail dispose d’autorisations suffisantes, il sera récupéré, sinon, il sera vide. |
lineNumber |
integer |
numéro de ligne spécifique dans le travail où l’erreur s’est produite. |
message |
string |
message d’erreur convivial pour l’échec. |
resolution |
string |
résolution recommandée pour l’échec, le cas échéant. |
severity |
niveau de gravité de la défaillance. |
|
source |
string |
la source ultime de l’échec (généralement SYSTEM ou USER). |
startOffset |
integer |
décalage de début dans le travail où l’erreur a été trouvée |
JobInformation
Propriétés d’informations de travail Data Lake Analytics étendues retournées lors de la récupération d’un travail spécifique.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
degreeOfParallelism |
integer |
1 |
degré de parallélisme utilisé pour ce travail. |
degreeOfParallelismPercent |
number |
degré de parallélisme en pourcentage utilisé pour ce travail. |
|
endTime |
string |
heure d’achèvement du travail. |
|
errorMessage |
les détails du message d’erreur pour le travail, si le travail a échoué. |
||
hierarchyQueueNode |
string |
nom du nœud de file d’attente de hiérarchie auquel ce travail est affecté, null si le travail n’a pas encore été attribué ou si le compte n’a pas de file d’attente hiérarchique. |
|
jobId |
string |
l’identificateur unique du travail (un GUID). |
|
logFilePatterns |
string[] |
liste des modèles de nom de fichier journal à trouver dans logFolder. '' est le seul caractère correspondant autorisé. Exemple de format : jobExecution.log ou mylog.txt |
|
logFolder |
string |
chemin du dossier journal à utiliser au format suivant : adl ://.azuredatalakestore.net/system/jobservice/jobs/Usql/2016/03/13/17/18/5fe51957-93bc-4de0-8ddc-c5a4753b068b/logs/. |
|
name |
string |
nom convivial du travail. |
|
priority |
integer |
valeur de priorité pour le travail en cours. Les nombres inférieurs ont une priorité plus élevée. Par défaut, une tâche affiche une priorité de 1 000. La valeur doit être supérieure à 0. |
|
properties | JobProperties: |
propriétés spécifiques au travail. |
|
related |
les propriétés d’informations sur les relations de travail périodiques. |
||
result |
le résultat de l’exécution du travail ou le résultat actuel du travail en cours d’exécution. |
||
startTime |
string |
heure de début du travail. |
|
state |
état du travail. Lorsque le travail est à l’état Terminé, reportez-vous à Result et ErrorMessage pour plus d’informations. |
||
stateAuditRecords |
les enregistrements d’audit de l’état du travail, indiquant quand diverses opérations ont été effectuées sur ce travail. |
||
submitTime |
string |
heure à laquelle le travail a été soumis au service. |
|
submitter |
string |
l’utilisateur ou le compte qui a envoyé le travail. |
|
type |
type de travail du travail actuel (Hive ou USql). |
JobInnerError
Détails de l’erreur du travail Data Lake Analytics.
Nom | Type | Description |
---|---|---|
component |
string |
composant qui a échoué. |
description |
string |
description du message d’erreur |
details |
string |
détails du message d’erreur. |
diagnosticCode |
integer |
code d’erreur de diagnostic. |
errorId |
string |
identificateur spécifique du type d’erreur rencontré dans le travail. |
helpLink |
string |
le lien vers MSDN ou l’aide Azure pour ce type d’erreur, le cas échéant. |
innerError |
l’erreur interne de ce message d’erreur de travail spécifique, le cas échéant. |
|
internalDiagnostics |
string |
la trace de la pile de diagnostics interne si l’utilisateur qui demande les détails de l’erreur du travail dispose d’autorisations suffisantes, il sera récupéré, sinon, il sera vide. |
message |
string |
message d’erreur convivial pour l’échec. |
resolution |
string |
résolution recommandée pour l’échec, le cas échéant. |
severity |
niveau de gravité de la défaillance. |
|
source |
string |
la source ultime de l’échec (généralement SYSTEM ou USER). |
JobRelationshipProperties
Propriétés d’informations sur la relation de travail, y compris les informations de pipeline, les informations de corrélation, etc.
Nom | Type | Description |
---|---|---|
pipelineId |
string |
l’identificateur de pipeline de relation de travail (un GUID). |
pipelineName |
string |
nom convivial du pipeline de relation de travail, qui n’a pas besoin d’être unique. |
pipelineUri |
string |
l’URI de pipeline, unique, est lié au service d’origine de ce pipeline. |
recurrenceId |
string |
identificateur de périodicité (GUID), unique par activité/script, quelles que soient les itérations. Il s’agit d’un élément permettant de lier différentes occurrences d’un même travail. |
recurrenceName |
string |
nom de périodicité, nom convivial pour la corrélation entre les travaux. |
runId |
string |
l’identificateur d’exécution (GUID), identificateur unique de l’itération de ce pipeline. |
JobResource
Ressources de travail Data Lake Analytics.
Nom | Type | Description |
---|---|---|
name |
string |
nom de la ressource. |
resourcePath |
string |
chemin d’accès à la ressource. |
type |
type de ressource de travail. |
JobResourceType
type de ressource de travail.
Nom | Type | Description |
---|---|---|
JobManagerResource |
string |
|
JobManagerResourceInUserFolder |
string |
|
StatisticsResource |
string |
|
StatisticsResourceInUserFolder |
string |
|
VertexResource |
string |
|
VertexResourceInUserFolder |
string |
JobResult
le résultat de l’exécution du travail ou le résultat actuel du travail en cours d’exécution.
Nom | Type | Description |
---|---|---|
Cancelled |
string |
|
Failed |
string |
|
None |
string |
|
Succeeded |
string |
JobState
état du travail. Lorsque le travail est à l’état Terminé, reportez-vous à Result et ErrorMessage pour plus d’informations.
Nom | Type | Description |
---|---|---|
Accepted |
string |
|
Compiling |
string |
|
Ended |
string |
|
New |
string |
|
Paused |
string |
|
Queued |
string |
|
Running |
string |
|
Scheduling |
string |
|
Starting |
string |
|
WaitingForCapacity |
string |
JobStateAuditRecord
Le Data Lake Analytics enregistrements d’audit de l’état du travail pour le suivi du cycle de vie d’un travail.
Nom | Type | Description |
---|---|---|
details |
string |
les détails du journal d’audit. |
newState |
string |
le nouvel état dans lequel se trouve le travail. |
requestedByUser |
string |
l’utilisateur qui demande la modification. |
timeStamp |
string |
l’horodatage indiquant que le changement d’état a eu lieu. |
JobStatistics
Statistiques d’exécution de travaux Data Lake Analytics.
Nom | Type | Description |
---|---|---|
finalizingTimeUtc |
string |
heure de début de finalisation du travail. |
lastUpdateTimeUtc |
string |
heure de la dernière mise à jour des statistiques. |
stages |
liste des étapes du travail. |
JobStatisticsVertexStage
Le Data Lake Analytics informations sur l’étape de vertex des statistiques de travail.
Nom | Type | Description |
---|---|---|
dataRead |
integer |
quantité de données lues, en octets. |
dataReadCrossPod |
integer |
quantité de données lues sur plusieurs pods, en octets. |
dataReadIntraPod |
integer |
quantité de données lues dans un pod, en octets. |
dataToRead |
integer |
quantité de données restant à lire, en octets. |
dataWritten |
integer |
quantité de données écrites, en octets. |
duplicateDiscardCount |
integer |
nombre de doublons qui ont été ignorés. |
failedCount |
integer |
nombre d’échecs qui se sont produits à cette étape. |
maxVertexDataRead |
integer |
quantité maximale de données lues dans un sommet unique, en octets. |
minVertexDataRead |
integer |
quantité minimale de données lues dans un sommet unique, en octets. |
readFailureCount |
integer |
nombre d’échecs de lecture au cours de cette étape. |
revocationCount |
integer |
nombre de sommets révoqués au cours de cette étape. |
runningCount |
integer |
nombre de sommets en cours d’exécution dans cette étape. |
scheduledCount |
integer |
nombre de sommets actuellement planifiés à cette étape |
stageName |
string |
nom de cette étape dans l’exécution du travail. |
succeededCount |
integer |
nombre de sommets ayant réussi à cette étape. |
tempDataWritten |
integer |
quantité de données temporaires écrites, en octets. |
totalCount |
integer |
nombre total de sommets pour cette étape. |
totalFailedTime |
string |
la durée de l’échec des sommets a pris à cette étape. |
totalProgress |
integer |
la progression actuelle de cette étape, sous forme de pourcentage. |
totalSucceededTime |
string |
le temps que tous les sommets réussis ont pris dans cette étape. |
JobType
type de travail du travail actuel (Hive ou USql).
Nom | Type | Description |
---|---|---|
Hive |
string |
|
USql |
string |
SeverityTypes
gravité de l’erreur.
Nom | Type | Description |
---|---|---|
Deprecated |
string |
|
Error |
string |
|
Info |
string |
|
SevereWarning |
string |
|
UserWarning |
string |
|
Warning |
string |
USqlJobProperties
Propriétés de travail U-SQL utilisées lors de la récupération de travaux U-SQL.
Nom | Type | Description |
---|---|---|
algebraFilePath |
string |
chemin du fichier algèbre une fois le travail terminé |
compileMode |
mode de compilation spécifique pour le travail utilisé pendant l’exécution. Si ce n’est pas spécifié lors de la soumission, le serveur détermine le mode de compilation optimal. |
|
debugData |
emplacements de données de débogage spécifiques au travail. |
|
diagnostics |
diagnostics pour le travail. |
|
resources |
liste des ressources requises par le travail |
|
rootProcessNodeId |
string |
ID utilisé pour identifier le gestionnaire de travaux coordonnant l’exécution du travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
runtimeVersion |
string |
version runtime du moteur Data Lake Analytics à utiliser pour le type spécifique de travail en cours d’exécution. |
script |
string |
script à exécuter. Notez que la taille maximale du script est de 3 Mo. |
statistics |
statistiques spécifiques au travail. |
|
totalCompilationTime |
string |
durée totale de compilation de ce travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
totalPauseTime |
string |
durée totale de pause de ce travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
totalQueuedTime |
string |
durée totale passée par ce travail en file d’attente. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
totalRunningTime |
string |
durée totale d’exécution de ce travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
type |
string:
USql |
type de travail du travail actuel (par exemple, Hive ou USql). |
yarnApplicationId |
string |
ID utilisé pour identifier l’application yarn qui exécute le travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |
yarnApplicationTimeStamp |
integer |
timestamp (en ticks) pour l’application yarn qui exécute le travail. Cette valeur ne doit pas être définie par l’utilisateur et sera ignorée si elle l’est. |