[ジョブ]Jobs

ジョブとは、すぐに、またはスケジュールに従って notebook または JAR を実行する方法です。A job is a way of running a notebook or JAR either immediately or on a scheduled basis. ノートブックを実行するもう1つの方法は、 NOTEBOOK UIで対話的に実行することです。The other way to run a notebook is interactively in the notebook UI.

ジョブは、UI、CLI、およびジョブ API を呼び出すことによって作成および実行できます。You can create and run jobs using the UI, the CLI, and by invoking the Jobs API. タスクの実行結果は、UI で、CLI を使用して、API を照会することによって、および電子メール通知を使用して監視できます。You can monitor job run results in the UI, using the CLI, by querying the API, and through email alerts. このトピックでは、UI を使用してジョブタスクを実行する方法について説明します。This topic focuses on performing job tasks using the UI. その他の方法については、「ジョブ CLIジョブ API」を参照してください。For the other methods, see Jobs CLI and Jobs API.

重要

  • ジョブの数は1000に制限されています。The number of jobs is limited to 1000.
  • 1時間に1つのワークスペースで作成できるジョブの数は、1000 ("今すぐ実行" を含む) に制限されます。The number of jobs a workspace can create in an hour is limited to 1000 (includes “run now”). この制限は、REST API および notebook ワークフローによって作成された "ジョブ" にも影響します。This limit also affects “jobs” created by the REST API and notebook workflows.
  • ワークスペースで作成できるアクティブな同時実行の数は、150に制限されています。The number of actively concurrent runs a workspace can create is limited to 150.

ジョブを表示するView jobs

[ジョブ] アイコンをクリックします。Click the Jobs icon [ジョブ] メニューアイコン 」を参考にしてください。in the sidebar. [ジョブ] の一覧が表示されます。The Jobs list displays. [ジョブ] ページには、定義されているすべてのジョブ、クラスター定義、スケジュール (存在する場合)、および前回の実行結果が一覧表示されます。The Jobs page lists all defined jobs, the cluster definition, the schedule if any, and the result of the last run.

[ジョブ] 一覧で、ジョブをフィルター処理できます。In the Jobs list, you can filter jobs:

  • キーワードを使用します。Using key words.
  • 自分が所有しているジョブまたは自分がアクセスできるジョブのみを選択します。Selecting only jobs you own or jobs you have access to. このフィルターへのアクセスは、有効になっているジョブ Access Controlによって異なります。Access to this filter depends on Jobs Access Control being enabled.

また、任意の列ヘッダーをクリックして、その列によってジョブの一覧を並べ替えることもできます (降順または昇順)。You can also click any column header to sort the list of jobs (either descending or ascending) by that column. 既定では、このページはジョブ名の昇順で並べ替えられます。By default, the page is sorted on job names in ascending order.

no-alternative-textno-alternative-text

ジョブを作成する Create a job

  1. [+ ジョブの作成] をクリックします。Click + Create Job. ジョブの詳細ページが表示されます。The job detail page displays.

    no-alternative-textno-alternative-text

  2. [テキスト] フィールドに、Untitled というプレースホルダーテキストを含む名前を入力します。Enter a name in the text field with the placeholder text Untitled.

  3. ジョブのプロパティを指定します。Specify the job properties:

    • タスク: [Notebook の選択][JAR の設定] 、または [spark 送信の構成] をクリックします。Task: Click Select Notebook, Set JAR, or Configure spark-submit.

      Notebook ジョブと JAR ジョブの実行の違いの詳細については、「 jar ジョブのヒント」を参照してください。To learn more about the differences between running notebook and JAR jobs, see JAR job tips. Spark の送信の詳細については、 Apache Spark のドキュメントを参照してください。To learn more about spark-submit, see the Apache Spark documentation.

      注意

      • クラスターの自動スケールは、spark submit ジョブでは使用できません。Cluster autoscaling is not available for spark-submit jobs. 自動スケールの詳細については、「クラスターの自動スケール」を参照してください。To learn more about autoscaling, see Cluster autoscaling.
      • Databricks ユーティリティは、spark submit ジョブでは使用できません。Databricks Utilities is not available in spark-submit jobs. Databricks ユーティリティを使用する場合は、代わりに JAR ジョブを使用します。If you want to use Databricks Utilities, use JAR jobs instead.

      [パラメーター] フィールドと [依存ライブラリ] フィールドが表示されます。The Parameters and Dependent Libraries fields display. 例えば次が挙げられます。For example:

      no-alternative-textno-alternative-text

      • パラメーター: [編集] をクリックします。Parameters: Click Edit. パラメーターの型は、タスクの種類によって異なります。The type of the parameters depends on the task type:

        • Notebook: キーと値のペア、またはキーと値のペアを表す JSON 文字列。Notebook: Key-value pairs or a JSON string representing key-value pairs. このようなパラメーターは、ウィジェットの値を設定します。Such parameters set the value of widgets.

        • JAR ジョブ: メインクラスと引数。JAR job: Main class and arguments.

        • spark-submit: Main クラス、library JAR へのパス、および引数。spark-submit: Main class, path to the library JAR, and arguments. 例えば次が挙げられます。For example:

          no-alternative-textno-alternative-text

      • 依存ライブラリ: 必要に応じて、 [追加] をクリックします。Dependent Libraries: Optionally click Add. 依存ライブラリは、起動時にクラスターに自動的にアタッチされます。The dependent libraries are automatically attached to the cluster on launch. 依存関係を指定するためのライブラリの依存関係に関する推奨事項に従ってください。Follow the recommendations in Library dependencies for specifying dependencies.

    • クラスター: [編集] をクリックします。Cluster: Click Edit. a。a. クラスターの種類 ドロップダウンで、新規 自動クラスター または 既存の対話型クラスター を選択します。In the Cluster Type drop-down, choose New Automated Cluster or Existing Interactive Cluster.

      重要

      新しい自動クラスターNew Automated Cluster

      • 運用レベルのジョブまたはジョブを完了するには、新しいクラスターでを実行することをお勧めします。We recommend that you run on a new cluster for production-level jobs or jobs that are important to complete.
      • Spark submit ジョブは、新しいクラスターでのみ実行できます。You can run spark-submit jobs only on new clusters.
      • 新しいクラスターでジョブを実行すると、自動ワークロードの価格に従って、ジョブは Data Engineering (自動化された) ワークロードとして扱われます。When you run a job on a new cluster, the job is treated as a data engineering (aka automated) workload subject to the automated workload pricing.

      既存の対話型クラスターExisting Interactive Cluster

      • 既存のクラスターでジョブを実行すると、対話的なワークロード価格に従って、そのジョブは Data Analytics (対話型) ワークロードとして扱われます。When you run a job on an existing cluster, the job is treated as a data analytics (aka interactive) workload subject to interactive workload pricing.
      • 終了済みの既存のクラスターを選択し、ジョブの所有者が再起動できる場合は、ジョブの実行がスケジュールされているときに、Azure Databricksによってクラスターが開始されます。If you select a terminated existing cluster and the job owner has Can Restart permission, Azure Databricks starts the cluster when the job is scheduled to run.
      • 既存のクラスターは、一定の間隔でダッシュボードを更新するなどのタスクに最適です。Existing clusters work best for tasks such as updating dashboards at regular intervals.

      b.b. クラスター仕様を完了します。Complete the cluster specification.

      • 新しい自動クラスター -クラスター構成を完了します。New Automated Cluster - complete the cluster configuration.

        クラスター構成で、ランタイムのバージョンを選択します。In the cluster configuration, select a runtime version. ランタイムバージョンを選択する方法については、「 Databricks RuntimeDatabricks Light」を参照してください。For help with selecting a runtime version, see Databricks Runtime and Databricks Light.

        新しいクラスターの開始時刻を減らすには、クラスター構成でプールを選択します。To decrease new cluster start time, select a pool in the cluster configuration.

      • 既存の対話型クラスター -[クラスターの選択] ドロップダウンでクラスターを選択します。Existing Interactive Cluster - select the cluster in the Select Cluster drop-down.

ジョブの詳細 の表示 View job details

[ジョブ] ページで、[名前] 列のジョブ名をクリックします。On the Jobs page, click a job name in the Name column. [ジョブの詳細] ページには、構成パラメーター、アクティブな実行、および完了した実行が表示されます。The job details page shows configuration parameters, active runs, and completed runs.

no-alternative-textno-alternative-text

Databricks は、最大60日間、ジョブの実行履歴を保持します。Databricks maintains a history of your job runs for up to 60 days. ジョブの実行を保持する必要がある場合は、ジョブの実行結果を期限切れにする前にエクスポートすることをお勧めします。If you need to preserve job runs, we recommend that you export job run results before they expire. 詳細については、「ジョブ実行結果のエクスポート」を参照してください。For more information, see Export job run results.

ジョブの実行 ページで、Spark 列の ログ リンクをクリックすると、ジョブ実行の標準エラー、標準出力、log4j 出力を表示できます。In the job runs page, you can view the standard error, standard output, log4j output for a job run by clicking the Logs link in the Spark column.

ジョブの実行Run a job

ジョブは、スケジュールに基づいて、または直ちに実行できます。You can run a job on a schedule or immediately.

ジョブのスケジュールを定義するには、次のようにします。To define a schedule for the job:

  1. [スケジュール] の横にある [編集] をクリックします。Click Edit next to Schedule.

    no-alternative-textno-alternative-text

    [ジョブのスケジュール] ダイアログボックスが表示されます。The Schedule Job dialog displays.

    no-alternative-textno-alternative-text

  2. スケジュールの粒度、開始時刻、およびタイムゾーンを指定します。Specify the schedule granularity, starting time, and time zone.

  3. [Confirm](確認) をクリックします。Click Confirm.

注意

  • 夏時間または UTC 時刻を監視するタイムゾーンを選択できます。You can choose a time zone that observes daylight saving time or a UTC time. 夏時間を監視するゾーンを選択すると、時間単位のジョブがスキップされるか、または夏時間の開始時または終了時に 1 ~ 2 回発生しないように見えます。If you select a zone that observes daylight saving time, an hourly job will be skipped or may appear to not fire for an hour or two when daylight saving time begins or ends. 1時間ごと (絶対時刻) にジョブを実行する場合は、UTC 時刻を選択します。If you want jobs to run at every hour (absolute time), choose a UTC time.
  • ジョブスケジューラは、Spark batch インターフェイスと同様に、待機時間の短いジョブを想定していません。The job scheduler, like the Spark batch interface, is not intended for low latency jobs. ネットワークまたはクラウドの問題により、ジョブの実行が数分まで遅れることがあります。Due to network or cloud issues, job runs may occasionally be delayed up to several minutes. このような場合は、サービスの可用性に応じて、スケジュールされたジョブが直ちに実行されます。In these situations, scheduled jobs will run immediately upon service availability.

ジョブをすぐに実行するには、 [アクティブな実行] テーブルで [今すぐ実行] をクリックします。To run the job immediately, in the Active runs table click Run Now.

no-alternative-textno-alternative-text

ヒント

ジョブの構成が完了したら、 [今すぐ実行] をクリックして、notebook または JAR のテストを実行します。Click Run Now to do a test run of your notebook or JAR when you’ve finished configuring your job. ノートブックに障害が発生した場合は、編集できます。ジョブによって新しいバージョンの notebook が自動的に実行されます。If your notebook fails, you can edit it and the job will automatically run the new version of the notebook.

異なるパラメーターを使用してジョブを実行する Run a job with different parameters

別のパラメーターを指定して Run Nowを使用すると、既存のパラメーターに異なるパラメーターまたは異なる値を指定してジョブを再実行できます。You can use Run Now with Different Parameters to re-run a job specifying different parameters or different values for existing parameters.

  1. [アクティブな実行] テーブルで、 [別のパラメーターを使用してすぐに実行] する をクリックします。In the Active runs table, click Run Now with Different Parameters. このダイアログは、notebook ジョブを実行しているか、spark submit ジョブを実行しているかによって異なります。The dialog varies depending on whether you are running a notebook job or a spark-submit job.

    • Notebook -キーと値のペアまたは JSON オブジェクトの表示を設定できる UI です。Notebook - A UI that lets you set key-value pairs or a JSON object displays. このダイアログボックスを使用すると、ウィジェットの値を設定できます。You can use this dialog to set the values of widgets:

      no-alternative-textno-alternative-text

    • [spark-submit] -パラメーターの一覧を含むダイアログボックスが表示されます。spark-submit - A dialog containing the list of parameters displays. たとえば、「既定の10パーティションではなく、100を使用してジョブを作成するFor example, you could run the SparkPi estimator described in Create a job with 100 instead of the default 10 partitions:

      no-alternative-textno-alternative-text

  2. パラメーターを指定します。Specify the parameters. 指定されたパラメーターは、トリガーされた実行の既定のパラメーターにマージされます。The provided parameters are merged with the default parameters for the triggered run. キーを削除すると、既定のパラメーターが使用されます。If you delete keys, the default parameters are used.

  3. [実行] をクリックします。Click Run.

Notebook のジョブ のヒント Notebook job tips

ノートブックセルの合計出力 (すべてのノートブックセルの結合された出力) には、20 MB のサイズ制限が適用されます。Total notebook cell output (the combined output of all notebook cells) is subject to a 20MB size limit. さらに、個々のセルの出力は、サイズが 8 MB に制限されます。Additionally, individual cell output is subject to an 8MB size limit. セル全体の出力が 20 MB を超える場合、または個々のセルの出力が 8 MB を超える場合は、実行が取り消され、失敗とマークされます。If total cell output exceeds 20MB in size, or if the output of an individual cell is larger than 8MB, the run will be canceled and marked as failed. 上限に近づいているか超えているセルの検索について支援が必要な場合は、対話型クラスターに対して notebook を実行し、このノートブックの自動保存の手法を使用します。If you need help finding cells that are near or beyond the limit, run the notebook against an interactive cluster and use this notebook autosave technique.

JAR ジョブのヒント JAR job tips

JAR ジョブを実行するときに注意する必要がある注意事項がいくつかあります。There are some caveats you need to be aware of when you run a JAR job.

出力サイズの制限 Output size limits

ジョブ出力 (stdout に出力されるログ出力など) には、20 MB のサイズ制限が適用されます。Job output, such as log output emitted to stdout, is subject to a 20MB size limit. 出力の合計サイズが大きい場合は、実行が取り消され、失敗としてマークされます。If the total output has a larger size, the run will be canceled and marked as failed.

共有 SparkContext 使用する Use the shared SparkContext

Databricks は管理されたサービスであるため、Apache Spark ジョブが正しく実行されるようにコードを変更することが必要になる場合があります。Because Databricks is a managed service, some code changes may be necessary to ensure that your Apache Spark jobs run correctly. JAR ジョブプログラムは、共有 SparkContext API を使用して SparkContext を取得する必要があります。JAR job programs must use the shared SparkContext API to get the SparkContext. Databricks は SparkContext を初期化するので、new SparkContext() を呼び出すプログラムは失敗します。Because Databricks initializes the SparkContext, programs that invoke new SparkContext() will fail. SparkContextを取得するには、Databricks によって作成された共有 SparkContext のみを使用します。To get the SparkContext, use only the shared SparkContext created by Databricks:

val goodSparkContext = SparkContext.getOrCreate()
val goodSparkSession = SparkSession.builder().getOrCreate()

警告

共有 SparkContext を使用する場合は、いくつかの方法を避ける必要があります。There are several methods you must avoid when using the shared SparkContext.

  • コンストラクターを使用して手動で SparkContext を作成しないでください。Do not manually create a SparkContext using the constructor:

    import org.apache.spark.SparkConf
    val badSparkContext = new SparkContext(new SparkConf().setAppName("My Spark Job").setMaster("local"))
    
  • JAR 内の SparkContext を停止しないでください。Do not stop SparkContext inside your JAR:

    val dontStopTheSparkContext = SparkContext.getOrCreate()
    dontStopTheSparkContext.stop()
    
  • Main プログラムの最後で System.exit(0) または sc.stop() を呼び出さないでください。Do not call System.exit(0) or sc.stop() at the end of your Main program. これにより、未定義の動作が発生する可能性があります。This can cause undefined behavior.

JAR ジョブパラメーターの構成Configure JAR job parameters

JAR ジョブは、文字列の配列を使用してパラメーター化されます。JAR jobs are parameterized with an array of strings. UI では、POSIX シェル解析規則を適用することで配列に分割される [引数] テキストボックスにパラメーターを入力します。In the UI, you input the parameters in the Arguments text box which are split into an array by applying POSIX shell parsing rules. 詳細については、 shlex のドキュメントを参照してください。For more information, reference the shlex documentation. API では、標準の JSON 配列としてパラメーターを入力します。In the API, you input the parameters as a standard JSON array. 詳細については、「 SparkJarTask」を参照してください。For more information, reference SparkJarTask. これらのパラメーターにアクセスするには、main 関数に渡された String 配列を調べます。To access these parameters, inspect the String array passed into your main function.

ジョブ実行の詳細の表示 View job run details

[ジョブ実行の詳細] ページには、ジョブの出力とログへのリンクが含まれています。A job run details page contains job output and links to logs:

no-alternative-textno-alternative-text

ジョブの実行の詳細を表示するには、[ジョブ] ページと [クラスター] ページを使用します。You can view job run details from the Jobs page and the Clusters page.

  • ジョブのアイコン [ジョブ] メニューアイコン をクリックします。Click the Jobs icon Jobs Menu Icon. 過去60日間の完了 テーブルの 実行 列で、実行番号 リンクをクリックします。In the Run column of the Completed in past 60 days table, click the run number link.

    no-alternative-textno-alternative-text

  • クラスターアイコン クラスター メニューアイコンをクリックします。Click the Clusters icon Clusters Menu Icon. 自動クラスターテーブルのジョブ行で、 [ジョブの実行] リンクをクリックします。In a job row in the Automated Clusters table, click the Job Run link.

    no-alternative-textno-alternative-text

ジョブ実行結果 のエクスポート Export job run results

すべての種類のジョブについて、ノートブックの実行結果とジョブ実行ログをエクスポートできます。You can export notebook run results and job run logs for all job types.

ノートブックの実行結果のエクスポートExport notebook run results

ジョブの実行を保持するには、結果をエクスポートします。You can persist job runs by exporting their results. Notebook ジョブを実行する場合は、レンダリングされたノートブックをエクスポートして、後で Databricks ワークスペースにインポートすることができます。For notebook job runs, you can export a rendered notebook which can be later be imported into your Databricks workspace.

  1. [ジョブの詳細] ページで、[実行] 列にあるジョブの実行名をクリックします。In the job detail page, click a job run name in the Run column.

    no-alternative-textno-alternative-text

  2. [ HTML にエクスポート] をクリックします。Click Export to HTML.

    no-alternative-textno-alternative-text

エクスポートジョブの実行ログExport job run logs

ジョブ実行のログをエクスポートすることもできます。You can also export the logs for your job run. このプロセスを自動化するには、ジョブ API を使用して DBFS にログを自動的に配信するようにジョブを設定します。To automate this process, you can set up your job so that it automatically delivers logs to DBFS through the Job API. 詳細については、ジョブ作成API 呼び出しのNewclusterフィールドとclusterlogconfフィールドを参照してください。For more information, see the NewCluster and ClusterLogConf fields in the Job Create API call.

ジョブの編集Edit a job

ジョブを編集するには、[ジョブ] 一覧の [ジョブ名] リンクをクリックします。To edit a job, click the job name link in the Jobs list.

ジョブを削除するDelete a job

ジョブを削除するには、ジョブ 一覧の アクション 列にある x をクリックします。To delete a job, click the x in the Action column in the Jobs list.

ライブラリの依存関係Library dependencies

Databricks の Spark ドライバーには、オーバーライドできない特定のライブラリの依存関係があります。The Spark driver for Databricks has certain library dependencies that cannot be overridden. これらのライブラリは、競合するライブラリよりも優先されます。These libraries will take priority over any of your own libraries that conflict with them.

ドライバーライブラリの依存関係の完全な一覧を取得するには、同じ Spark バージョン (または、確認するドライバーのあるクラスター) のクラスターに接続されているノートブック内で、次のコマンドを実行します。To get the full list of the driver library dependencies, run the following command inside a notebook attached to a cluster of the same Spark version (or the cluster with the driver you want to examine).

%sh ls /databricks/jars

ライブラリの依存関係の管理Manage library dependencies

ジョブの Jar を作成するときにライブラリの依存関係を扱う場合は、Spark と Hadoop を provided 依存関係として一覧表示することをお勧めします。A good rule of thumb when dealing with library dependencies while creating JARs for jobs is to list Spark and Hadoop as provided dependencies. Maven では、次に示すように、指定された依存関係として Spark または Hadoop を追加します。On Maven, add Spark and/or Hadoop as provided dependencies as shown below.

<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-core_2.11</artifactId>
  <version>2.3.0</version>
  <scope>provided</scope>
</dependency>
<dependency>
  <groupId>org.apache.hadoop</groupId>
  <artifactId>hadoop-core</artifactId>
  <version>1.2.1</version>
  <scope>provided</scope>
</dependency>

sbtで、次に示すように、指定された依存関係として Spark と Hadoop を追加します。In sbt, add Spark and Hadoop as provided dependencies as shown below.

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.3.0" % "provided"
libraryDependencies += "org.apache.hadoop" %% "hadoop-core" % "1.2.1" % "provided"

ヒント

実行しているバージョンに応じて、依存関係に適したバージョンを指定します。Specify the correct Scala version for your dependencies based on the version you are running.

ジョブオプションJob options

ジョブに指定できるその他のオプションは次のとおりです。The other options that you can specify for a job include:

アラートAlerts

ジョブの失敗、成功、またはタイムアウトが発生した場合に送信される電子メール通知。Email alerts sent in case of job failure, success, or timeout. ジョブのアラートを参照してください。See Job alerts.

タイムアウトTimeout

ジョブの最大完了時間。The maximum completion time for a job. この時間内にジョブが完了しなかった場合、Databricks はその状態を "タイムアウト" に設定します。If the job does not complete in this time, Databricks sets its status to “Timed Out”.

再試行Retries

実行に失敗した回数と回数を決定するポリシーが再試行されます。Policy that determines when and how many times failed runs are retried.

no-alternative-textno-alternative-text

注意

タイムアウト再試行の両方を構成した場合は、再試行ごとにタイムアウトが適用されます。If you configure both Timeout and Retries, the timeout applies to each retry.

同時実行の最大数Maximum concurrent runs

並列で実行できる実行の最大数。The maximum number of runs that can be run in parallel. 新しい実行を開始すると、ジョブがアクティブな実行の最大数に既に達している場合、Databricks は実行をスキップします。On starting a new run, Databricks skips the run if the job has already reached its maximum number of active runs. 同じジョブの複数の実行を同時に実行できるようにする場合は、この値を既定値の1より大きい値に設定します。Set this value higher than the default of 1 if you want to be able to perform multiple runs of the same job concurrently. これは、たとえば、頻繁に実行されるスケジュールでジョブをトリガーし、連続した実行を互いにオーバーラップさせたい場合や、入力パラメーターが異なる複数の実行をトリガーする場合などに便利です。This is useful for example if you trigger your job on a frequent schedule and want to allow consecutive runs to overlap with each other, or if you want to trigger multiple runs that differ by their input parameters.

ジョブのアラートJob alerts

ジョブの実行に関する電子メールアラートを設定できます。You can set up email alerts for job runs. ジョブの詳細 ページで、詳細設定 をクリックし、アラート の横にある 編集 をクリックします。On the job detail page, click Advanced and click Edit next to Alerts. ジョブの開始、ジョブの成功、ジョブの失敗 (スキップされたジョブを含む) をアラートに送信して、各アラートの種類に対してコンマで区切られた複数の電子メールアドレスを提供できます。You can send alerts up job start, job success, and job failure (including skipped jobs), providing multiple comma-separated email addresses for each alert type. スキップされたジョブの実行に関するアラートをオプトアウトすることもできます。You can also opt out of alerts for skipped job runs.

no-alternative-textno-alternative-text

これらの電子メールアラートを、以下を含むお気に入りの通知ツールと統合します。Integrate these email alerts with your favorite notification tools, including:

ジョブへのアクセスを制御する Control access to jobs

ジョブのアクセス制御を有効にすると、ジョブの所有者と管理者はジョブに対してきめ細かい権限を与えることができます。Job access control enable job owners and administrators to grant fine grained permissions on their jobs. ジョブの所有者は、ジョブのアクセス制御を使用して、ジョブの結果を表示できる他のユーザーまたはグループを選択できます。With job access controls, job owners can choose which other users or groups can view results of the job. 所有者は、ジョブの実行を管理できるユーザーを選択することもできます (つまり、[今すぐ実行] と [キャンセル] を呼び出します)。Owners can also choose who can manage runs of their job (that is, invoke Run Now and Cancel.)

詳細については、「ジョブ Access Control 」を参照してください。See Jobs Access Control for details.