Schedule Klass
Definierar ett schema som en pipeline ska skickas till.
När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.
Initiera schema.
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Det arbetsyteobjekt som det här schemat kommer att tillhöra. |
|
id
Obligatorisk
|
ID för schemat. |
|
name
Obligatorisk
|
Namnet på schemat. |
|
description
Obligatorisk
|
Beskrivningen av schemat. |
|
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat skickar. |
|
status
Obligatorisk
|
Status för schemat, antingen "Aktiv" eller "Inaktiverad". |
|
recurrence
Obligatorisk
|
Schemarecidiv för pipelinen. |
|
datastore_name
Obligatorisk
|
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel". |
|
polling_interval
Obligatorisk
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. |
|
data_path_parameter_name
Obligatorisk
|
Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. |
|
continue_on_step_failure
Obligatorisk
|
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. |
|
path_on_datastore
Obligatorisk
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. |
|
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören. Standardvärde: None
|
|
workspace
Obligatorisk
|
Det arbetsyteobjekt som det här schemat kommer att tillhöra. |
|
id
Obligatorisk
|
ID för schemat. |
|
name
Obligatorisk
|
Namnet på schemat. |
|
description
Obligatorisk
|
Beskrivningen av schemat. |
|
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat skickar. |
|
status
Obligatorisk
|
Status för schemat, antingen "Aktiv" eller "Inaktiverad". |
|
recurrence
Obligatorisk
|
Schemarecidiv av pipelinen. |
|
datastore_name
Obligatorisk
|
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. |
|
polling_interval
Obligatorisk
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. |
|
data_path_parameter_name
Obligatorisk
|
Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. |
|
continue_on_step_failure
Obligatorisk
|
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. |
|
path_on_datastore
Obligatorisk
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. |
|
_schedule_provider
Obligatorisk
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören. |
|
pipeline_endpoint_id
|
ID:t för pipelineslutpunkten som schemat skickar. Standardvärde: None
|
Kommentarer
Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.
Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.
En ScheduleRecurrence används när du skapar ett schema för en pipeline enligt följande:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Det här schemat skickar den angivna var PublishedPipeline 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".
Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska sökas efter ändringar och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller Datastore-containern (om ingen path_on_datastore har angetts) identifieras inte.
Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva en steginmatning använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.
I följande exempel, när Schemat utlöser PipelineRun, anges värdet för pipelineparametern "input_data" som filen som ändrades/lades till:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Mer information om scheman finns i: https://aka.ms/pl-schedule.
Metoder
| create |
Skapa ett schema för en pipeline. Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
| create_for_pipeline_endpoint |
Skapa ett schema för en pipelineslutpunkt. Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
| disable |
Ange schemat till "Inaktiverat" och otillgängligt för körning. |
| enable |
Ange schemat till "Aktiv" och tillgängligt att köra. |
| get |
Hämta schemat med det angivna ID:t. |
| get_all |
Hämta alla scheman i den aktuella arbetsytan. INAKTUELL: Den här metoden är inaktuell till förmån för list metoden. |
| get_last_pipeline_run |
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats. |
| get_pipeline_runs |
Hämta pipelinekörningarna som genererades från schemat. |
| get_schedules_for_pipeline_endpoint_id |
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t. |
| get_schedules_for_pipeline_id |
Hämta alla scheman för det angivna pipeline-ID:t. |
| list |
Hämta alla scheman i den aktuella arbetsytan. |
| load_yaml |
Läs in och läs YAML-filen för att hämta schemaparametrar. YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema. |
| update |
Uppdatera schemat. |
create
Skapa ett schema för en pipeline.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Det arbetsyteobjekt som det här schemat kommer att tillhöra. |
|
name
Obligatorisk
|
Namnet på schemat. |
|
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat skickar. |
|
experiment_name
Obligatorisk
|
Namnet på experimentet som schemat skickar körs på. |
|
recurrence
|
Schemarecidiv av pipelinen. Standardvärde: None
|
|
description
|
Beskrivningen av schemat. Standardvärde: None
|
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None
|
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600
|
|
datastore
|
Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None
|
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5
|
|
data_path_parameter_name
|
Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None
|
|
continue_on_step_failure
|
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
Det skapade schemat. |
create_for_pipeline_endpoint
Skapa ett schema för en pipelineslutpunkt.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Det arbetsyteobjekt som det här schemat kommer att tillhöra. |
|
name
Obligatorisk
|
Namnet på schemat. |
|
pipeline_endpoint_id
Obligatorisk
|
ID:t för pipelineslutpunkten som schemat skickar. |
|
experiment_name
Obligatorisk
|
Namnet på experimentet som schemat skickar körs på. |
|
recurrence
|
Schemarecidiv av pipelinen. Standardvärde: None
|
|
description
|
Beskrivningen av schemat. Standardvärde: None
|
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None
|
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600
|
|
datastore
|
Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None
|
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5
|
|
data_path_parameter_name
|
Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None
|
|
continue_on_step_failure
|
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
Det skapade schemat. |
disable
Ange schemat till "Inaktiverat" och otillgängligt för körning.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
| Name | Description |
|---|---|
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen är slut. Standardvärde: 3600
|
enable
Ange schemat till "Aktiv" och tillgängligt att köra.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
| Name | Description |
|---|---|
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen är slut. Standardvärde: 3600
|
get
Hämta schemat med det angivna ID:t.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan som schemat skapades på. |
|
id
Obligatorisk
|
ID för schemat. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
Schemalägg objekt |
get_all
Hämta alla scheman i den aktuella arbetsytan.
INAKTUELL: Den här metoden är inaktuell till förmån för list metoden.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan. |
|
active_only
|
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True
|
|
pipeline_id
|
Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None
|
|
pipeline_endpoint_id
|
Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
En lista över Schedule. |
get_last_pipeline_run
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.
get_last_pipeline_run()
Returer
| Typ | Description |
|---|---|
|
Den senaste pipelinekörningen. |
get_pipeline_runs
Hämta pipelinekörningarna som genererades från schemat.
get_pipeline_runs()
Returer
| Typ | Description |
|---|---|
|
En lista över PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan. |
|
pipeline_endpoint_id
Obligatorisk
|
Pipelinens slutpunkts-ID. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
En lista över Schedule. |
get_schedules_for_pipeline_id
Hämta alla scheman för det angivna pipeline-ID:t.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan. |
|
pipeline_id
Obligatorisk
|
Pipeline-ID:t. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
En lista över Schedule. |
list
Hämta alla scheman i den aktuella arbetsytan.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan. |
|
active_only
|
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True
|
|
pipeline_id
|
Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None
|
|
pipeline_endpoint_id
|
Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
En lista över Schedule. |
load_yaml
Läs in och läs YAML-filen för att hämta schemaparametrar.
YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametrar
| Name | Description |
|---|---|
|
workspace
Obligatorisk
|
Arbetsytan. |
|
filename
Obligatorisk
|
YAML-filnamnet med plats. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
| Typ | Description |
|---|---|
|
En ordlista med Schedule parametrar och värden. |
Kommentarer
Två typer av YAML stöds för Scheman. Den första läser in och läser in återkommande information för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.
Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Exempel på YAML-fil test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Uppdatera schemat.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametrar
| Name | Description |
|---|---|
|
name
|
Det nya namnet på schemat. Standardvärde: None
|
|
recurrence
|
Det nya schemat återkommer för pipelinen. Standardvärde: None
|
|
description
|
Den nya beskrivningen av schemat. Standardvärde: None
|
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value}. Standardvärde: None
|
|
status
|
Schemats nya status: "Aktiv" eller "Inaktiverad". Standardvärde: None
|
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600
|
|
datastore
|
Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Standardvärde: None
|
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Standardvärde: None
|
|
data_path_parameter_name
|
Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Standardvärde: None
|
|
continue_on_step_failure
|
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
Attribut
continue_on_step_failure
Hämta värdet för inställningen continue_on_step_failure .
Returer
| Typ | Description |
|---|---|
|
Värdet för inställningen |
data_path_parameter_name
Hämta namnet på pipelineparametern för datasökväg som ska anges med den ändrade blobsökvägen.
Returer
| Typ | Description |
|---|---|
|
Parameternamnet för datasökvägen. |
datastore_name
description
id
name
path_on_datastore
Hämta sökvägen till det datalager som schemat övervakar.
Returer
| Typ | Description |
|---|---|
|
Sökvägen till datalager. |
pipeline_endpoint_id
pipeline_id
polling_interval
Få hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
Returer
| Typ | Description |
|---|---|
|
Avsökningsintervallet. |