Dela via


Schedule Klass

Definierar ett schema som en pipeline ska skickas till.

När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.

Initiera schema.

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametrar

Name Description
workspace
Obligatorisk

Det arbetsyteobjekt som det här schemat kommer att tillhöra.

id
Obligatorisk
str

ID för schemat.

name
Obligatorisk
str

Namnet på schemat.

description
Obligatorisk
str

Beskrivningen av schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat skickar.

status
Obligatorisk
str

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
Obligatorisk

Schemarecidiv för pipelinen.

datastore_name
Obligatorisk
str

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel".

polling_interval
Obligatorisk
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
Obligatorisk
str

Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
Obligatorisk

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
Obligatorisk
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Schemaleverantören.

Standardvärde: None
workspace
Obligatorisk

Det arbetsyteobjekt som det här schemat kommer att tillhöra.

id
Obligatorisk
str

ID för schemat.

name
Obligatorisk
str

Namnet på schemat.

description
Obligatorisk
str

Beskrivningen av schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat skickar.

status
Obligatorisk
str

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
Obligatorisk

Schemarecidiv av pipelinen.

datastore_name
Obligatorisk
str

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

polling_interval
Obligatorisk
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
Obligatorisk
str

Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
Obligatorisk

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
Obligatorisk
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
Obligatorisk
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Schemaleverantören.

pipeline_endpoint_id
str

ID:t för pipelineslutpunkten som schemat skickar.

Standardvärde: None

Kommentarer

Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.

Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.

En ScheduleRecurrence används när du skapar ett schema för en pipeline enligt följande:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Det här schemat skickar den angivna var PublishedPipeline 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".

Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska sökas efter ändringar och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller Datastore-containern (om ingen path_on_datastore har angetts) identifieras inte.

Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva en steginmatning använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.

I följande exempel, när Schemat utlöser PipelineRun, anges värdet för pipelineparametern "input_data" som filen som ändrades/lades till:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Mer information om scheman finns i: https://aka.ms/pl-schedule.

Metoder

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

disable

Ange schemat till "Inaktiverat" och otillgängligt för körning.

enable

Ange schemat till "Aktiv" och tillgängligt att köra.

get

Hämta schemat med det angivna ID:t.

get_all

Hämta alla scheman i den aktuella arbetsytan.

INAKTUELL: Den här metoden är inaktuell till förmån för list metoden.

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

list

Hämta alla scheman i den aktuella arbetsytan.

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

update

Uppdatera schemat.

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Det arbetsyteobjekt som det här schemat kommer att tillhöra.

name
Obligatorisk
str

Namnet på schemat.

pipeline_id
Obligatorisk
str

ID:t för pipelinen som schemat skickar.

experiment_name
Obligatorisk
str

Namnet på experimentet som schemat skickar körs på.

recurrence

Schemarecidiv av pipelinen.

Standardvärde: None
description
str

Beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är ute.

Standardvärde: 3600
datastore

Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

Standardvärde: 5
data_path_parameter_name
str

Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Det skapade schemat.

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Det arbetsyteobjekt som det här schemat kommer att tillhöra.

name
Obligatorisk
str

Namnet på schemat.

pipeline_endpoint_id
Obligatorisk
str

ID:t för pipelineslutpunkten som schemat skickar.

experiment_name
Obligatorisk
str

Namnet på experimentet som schemat skickar körs på.

recurrence

Schemarecidiv av pipelinen.

Standardvärde: None
description
str

Beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är ute.

Standardvärde: 3600
datastore

Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

Standardvärde: 5
data_path_parameter_name
str

Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Det skapade schemat.

disable

Ange schemat till "Inaktiverat" och otillgängligt för körning.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

Name Description
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är slut.

Standardvärde: 3600

enable

Ange schemat till "Aktiv" och tillgängligt att köra.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

Name Description
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är slut.

Standardvärde: 3600

get

Hämta schemat med det angivna ID:t.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan som schemat skapades på.

id
Obligatorisk
str

ID för schemat.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

Schemalägg objekt

get_all

Hämta alla scheman i den aktuella arbetsytan.

INAKTUELL: Den här metoden är inaktuell till förmån för list metoden.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

active_only

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

Standardvärde: True
pipeline_id
str

Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t.

Standardvärde: None
pipeline_endpoint_id
str

Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_last_pipeline_run()

Returer

Typ Description

Den senaste pipelinekörningen.

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_pipeline_runs()

Returer

Typ Description

En lista över PipelineRun.

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

pipeline_endpoint_id
Obligatorisk
str

Pipelinens slutpunkts-ID.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

pipeline_id
Obligatorisk
str

Pipeline-ID:t.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

list

Hämta alla scheman i den aktuella arbetsytan.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

active_only

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

Standardvärde: True
pipeline_id
str

Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t.

Standardvärde: None
pipeline_endpoint_id
str

Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

Standardvärde: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En lista över Schedule.

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametrar

Name Description
workspace
Obligatorisk

Arbetsytan.

filename
Obligatorisk
str

YAML-filnamnet med plats.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Arbetsflödesprovidern.

Standardvärde: None
_service_endpoint
str

Tjänstslutpunkten.

Standardvärde: None

Returer

Typ Description

En ordlista med Schedule parametrar och värden.

Kommentarer

Två typer av YAML stöds för Scheman. Den första läser in och läser in återkommande information för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.

Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Exempel på YAML-fil test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Uppdatera schemat.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametrar

Name Description
name
str

Det nya namnet på schemat.

Standardvärde: None
recurrence

Det nya schemat återkommer för pipelinen.

Standardvärde: None
description
str

Den nya beskrivningen av schemat.

Standardvärde: None
pipeline_parameters

En ordlista med parametrar för att tilldela nya värden {param name, param value}.

Standardvärde: None
status
str

Schemats nya status: "Aktiv" eller "Inaktiverad".

Standardvärde: None
wait_for_provisioning

Om du vill vänta tills schemat har etablerats.

Standardvärde: False
wait_timeout
int

Antal sekunder att vänta innan tidsgränsen är ute.

Standardvärde: 3600
datastore

Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

Standardvärde: None
polling_interval
int

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter.

Standardvärde: None
data_path_parameter_name
str

Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen.

Standardvärde: None
continue_on_step_failure

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

Standardvärde: None
path_on_datastore
str

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Standardvärde: None

Attribut

continue_on_step_failure

Hämta värdet för inställningen continue_on_step_failure .

Returer

Typ Description

Värdet för inställningen continue_on_step_failure

data_path_parameter_name

Hämta namnet på pipelineparametern för datasökväg som ska anges med den ändrade blobsökvägen.

Returer

Typ Description
str

Parameternamnet för datasökvägen.

datastore_name

Hämta namnet på dataarkivet som används för schemat.

Returer

Typ Description
str

Datalagernamnet.

description

Hämta beskrivningen av schemat.

Returer

Typ Description
str

Beskrivningen av schemat.

id

Hämta ID:t för schemat.

Returer

Typ Description
str

ID:t.

name

Hämta namnet på schemat.

Returer

Typ Description
str

Namnet.

path_on_datastore

Hämta sökvägen till det datalager som schemat övervakar.

Returer

Typ Description
str

Sökvägen till datalager.

pipeline_endpoint_id

Hämta ID:t för pipelineslutpunkten som schemat skickar.

Returer

Typ Description
str

ID:t.

pipeline_id

Hämta ID:t för pipelinen som schemat skickar.

Returer

Typ Description
str

ID:t.

polling_interval

Få hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

Returer

Typ Description
int

Avsökningsintervallet.

recurrence

Hämta schemats upprepning.

Returer

Typ Description

Schemats upprepning.

status

Hämta status för schemat.

Returer

Typ Description
str

Status för schemat.