Schedule Klass
Definierar ett schema som en pipeline ska skickas till.
När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.
Initiera schema.
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Det arbetsyteobjekt som det här schemat kommer att tillhöra.  | 
| 
		 id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID för schemat.  | 
| 
		 name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på schemat.  | 
| 
		 description 
			
				Obligatorisk
			 
	 | 
	
		
		 Beskrivningen av schemat.  | 
| 
		 pipeline_id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID:t för pipelinen som schemat skickar.  | 
| 
		 status 
			
				Obligatorisk
			 
	 | 
	
		
		 Status för schemat, antingen "Aktiv" eller "Inaktiverad".  | 
| 
		 recurrence 
			
				Obligatorisk
			 
	 | 
	
		
		 Schemarecidiv för pipelinen.  | 
| 
		 datastore_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel".  | 
| 
		 polling_interval 
			
				Obligatorisk
			 
	 | 
	
		
		 Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.  | 
| 
		 data_path_parameter_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen.  | 
| 
		 continue_on_step_failure 
			
				Obligatorisk
			 
	 | 
	
		
		 Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.  | 
| 
		 path_on_datastore 
			
				Obligatorisk
			 
	 | 
	
		
		 Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.  | 
| 
		 _schedule_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
		 
		Schemaleverantören. Standardvärde: None 
			 | 
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Det arbetsyteobjekt som det här schemat kommer att tillhöra.  | 
| 
		 id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID för schemat.  | 
| 
		 name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på schemat.  | 
| 
		 description 
			
				Obligatorisk
			 
	 | 
	
		
		 Beskrivningen av schemat.  | 
| 
		 pipeline_id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID:t för pipelinen som schemat skickar.  | 
| 
		 status 
			
				Obligatorisk
			 
	 | 
	
		
		 Status för schemat, antingen "Aktiv" eller "Inaktiverad".  | 
| 
		 recurrence 
			
				Obligatorisk
			 
	 | 
	
		
		 Schemarecidiv av pipelinen.  | 
| 
		 datastore_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.  | 
| 
		 polling_interval 
			
				Obligatorisk
			 
	 | 
	
		
		 Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.  | 
| 
		 data_path_parameter_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen.  | 
| 
		 continue_on_step_failure 
			
				Obligatorisk
			 
	 | 
	
		
		 Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.  | 
| 
		 path_on_datastore 
			
				Obligatorisk
			 
	 | 
	
		
		 Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.  | 
| 
		 _schedule_provider 
			
				Obligatorisk
			 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
		 
		Schemaleverantören.  | 
| 
		 pipeline_endpoint_id 
	 | 
	
		
		 ID:t för pipelineslutpunkten som schemat skickar. Standardvärde: None 
			 | 
Kommentarer
Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.
Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.
En ScheduleRecurrence används när du skapar ett schema för en pipeline enligt följande:
   from azureml.pipeline.core import Schedule, ScheduleRecurrence
   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)
Det här schemat skickar den angivna var PublishedPipeline 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".
Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.
   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore
   datastore = Datastore(workspace=ws, name="workspaceblobstore")
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")
Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska sökas efter ändringar och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller Datastore-containern (om ingen path_on_datastore har angetts) identifieras inte.
Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva en steginmatning använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.
I följande exempel, när Schemat utlöser PipelineRun, anges värdet för pipelineparametern "input_data" som filen som ändrades/lades till:
   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore
   datastore = Datastore(workspace=ws, name="workspaceblobstore")
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")
Mer information om scheman finns i: https://aka.ms/pl-schedule.
Metoder
| create | 
					 Skapa ett schema för en pipeline. Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.  | 
			
| create_for_pipeline_endpoint | 
					 Skapa ett schema för en pipelineslutpunkt. Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.  | 
			
| disable | 
					 Ange schemat till "Inaktiverat" och otillgängligt för körning.  | 
			
| enable | 
					 Ange schemat till "Aktiv" och tillgängligt att köra.  | 
			
| get | 
					 Hämta schemat med det angivna ID:t.  | 
			
| get_all | 
					 Hämta alla scheman i den aktuella arbetsytan. INAKTUELL: Den här metoden är inaktuell till förmån för list metoden.  | 
			
| get_last_pipeline_run | 
					 Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.  | 
			
| get_pipeline_runs | 
					 Hämta pipelinekörningarna som genererades från schemat.  | 
			
| get_schedules_for_pipeline_endpoint_id | 
					 Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.  | 
			
| get_schedules_for_pipeline_id | 
					 Hämta alla scheman för det angivna pipeline-ID:t.  | 
			
| list | 
					 Hämta alla scheman i den aktuella arbetsytan.  | 
			
| load_yaml | 
					 Läs in och läs YAML-filen för att hämta schemaparametrar. YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.  | 
			
| update | 
					 Uppdatera schemat.  | 
			
create
Skapa ett schema för en pipeline.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Det arbetsyteobjekt som det här schemat kommer att tillhöra.  | 
| 
		 name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på schemat.  | 
| 
		 pipeline_id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID:t för pipelinen som schemat skickar.  | 
| 
		 experiment_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på experimentet som schemat skickar körs på.  | 
| 
		 recurrence 
	 | 
	
		
		 Schemarecidiv av pipelinen. Standardvärde: None 
			 | 
| 
		 description 
	 | 
	
		
		 Beskrivningen av schemat. Standardvärde: None 
			 | 
| 
		 pipeline_parameters 
	 | 
	
		
		 En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None 
			 | 
| 
		 wait_for_provisioning 
	 | 
	
		
		 Om du vill vänta tills schemat har etablerats. Standardvärde: False 
			 | 
| 
		 wait_timeout 
	 | 
	
		
		 Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600 
			 | 
| 
		 datastore 
	 | 
	
		
		 Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None 
			 | 
| 
		 polling_interval 
	 | 
	
		
		 Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5 
			 | 
| 
		 data_path_parameter_name 
	 | 
	
		
		 Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None 
			 | 
| 
		 continue_on_step_failure 
	 | 
	
		
		 Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None 
			 | 
| 
		 path_on_datastore 
	 | 
	
		
		 Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None 
			 | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 Det skapade schemat.  | 
		
create_for_pipeline_endpoint
Skapa ett schema för en pipelineslutpunkt.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager, (valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Det arbetsyteobjekt som det här schemat kommer att tillhöra.  | 
| 
		 name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på schemat.  | 
| 
		 pipeline_endpoint_id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID:t för pipelineslutpunkten som schemat skickar.  | 
| 
		 experiment_name 
			
				Obligatorisk
			 
	 | 
	
		
		 Namnet på experimentet som schemat skickar körs på.  | 
| 
		 recurrence 
	 | 
	
		
		 Schemarecidiv av pipelinen. Standardvärde: None 
			 | 
| 
		 description 
	 | 
	
		
		 Beskrivningen av schemat. Standardvärde: None 
			 | 
| 
		 pipeline_parameters 
	 | 
	
		
		 En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None 
			 | 
| 
		 wait_for_provisioning 
	 | 
	
		
		 Om du vill vänta tills schemat har etablerats. Standardvärde: False 
			 | 
| 
		 wait_timeout 
	 | 
	
		
		 Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600 
			 | 
| 
		 datastore 
	 | 
	
		
		 Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None 
			 | 
| 
		 polling_interval 
	 | 
	
		
		 Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5 
			 | 
| 
		 data_path_parameter_name 
	 | 
	
		
		 Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None 
			 | 
| 
		 continue_on_step_failure 
	 | 
	
		
		 Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None 
			 | 
| 
		 path_on_datastore 
	 | 
	
		
		 Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None 
			 | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 Det skapade schemat.  | 
		
disable
Ange schemat till "Inaktiverat" och otillgängligt för körning.
disable(wait_for_provisioning=False, wait_timeout=3600)
		Parametrar
| Name | Description | 
|---|---|
| 
		 wait_for_provisioning 
	 | 
	
		
		 Om du vill vänta tills schemat har etablerats. Standardvärde: False 
			 | 
| 
		 wait_timeout 
	 | 
	
		
		 Antal sekunder att vänta innan tidsgränsen är slut. Standardvärde: 3600 
			 | 
enable
Ange schemat till "Aktiv" och tillgängligt att köra.
enable(wait_for_provisioning=False, wait_timeout=3600)
		Parametrar
| Name | Description | 
|---|---|
| 
		 wait_for_provisioning 
	 | 
	
		
		 Om du vill vänta tills schemat har etablerats. Standardvärde: False 
			 | 
| 
		 wait_timeout 
	 | 
	
		
		 Antal sekunder att vänta innan tidsgränsen är slut. Standardvärde: 3600 
			 | 
get
Hämta schemat med det angivna ID:t.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan som schemat skapades på.  | 
| 
		 id 
			
				Obligatorisk
			 
	 | 
	
		
		 ID för schemat.  | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 Schemalägg objekt  | 
		
get_all
Hämta alla scheman i den aktuella arbetsytan.
INAKTUELL: Den här metoden är inaktuell till förmån för list metoden.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan.  | 
| 
		 active_only 
	 | 
	
		
		 Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True 
			 | 
| 
		 pipeline_id 
	 | 
	
		
		 Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None 
			 | 
| 
		 pipeline_endpoint_id 
	 | 
	
		
		 Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None 
			 | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 En lista över Schedule.  | 
		
get_last_pipeline_run
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.
get_last_pipeline_run()
Returer
| Typ | Description | 
|---|---|
| 
					 Den senaste pipelinekörningen.  | 
		
get_pipeline_runs
Hämta pipelinekörningarna som genererades från schemat.
get_pipeline_runs()
Returer
| Typ | Description | 
|---|---|
| 
					 En lista över PipelineRun.  | 
		
get_schedules_for_pipeline_endpoint_id
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan.  | 
| 
		 pipeline_endpoint_id 
			
				Obligatorisk
			 
	 | 
	
		
		 Pipelinens slutpunkts-ID.  | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 En lista över Schedule.  | 
		
get_schedules_for_pipeline_id
Hämta alla scheman för det angivna pipeline-ID:t.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan.  | 
| 
		 pipeline_id 
			
				Obligatorisk
			 
	 | 
	
		
		 Pipeline-ID:t.  | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 En lista över Schedule.  | 
		
list
Hämta alla scheman i den aktuella arbetsytan.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan.  | 
| 
		 active_only 
	 | 
	
		
		 Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True 
			 | 
| 
		 pipeline_id 
	 | 
	
		
		 Om det tillhandahålls returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None 
			 | 
| 
		 pipeline_endpoint_id 
	 | 
	
		
		 Om det tillhandahålls returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None 
			 | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 En lista över Schedule.  | 
		
load_yaml
Läs in och läs YAML-filen för att hämta schemaparametrar.
YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 workspace 
			
				Obligatorisk
			 
	 | 
	
		
		 Arbetsytan.  | 
| 
		 filename 
			
				Obligatorisk
			 
	 | 
	
		
		 YAML-filnamnet med plats.  | 
| 
		 _workflow_provider 
	 | 
	
		 
				<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
		 
		Arbetsflödesprovidern. Standardvärde: None 
			 | 
| 
		 _service_endpoint 
	 | 
	
		
		 Tjänstslutpunkten. Standardvärde: None 
			 | 
Returer
| Typ | Description | 
|---|---|
| 
					 En ordlista med Schedule parametrar och värden.  | 
		
Kommentarer
Två typer av YAML stöds för Scheman. Den första läser in och läser in återkommande information för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.
Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:
   from azureml.pipeline.core import Schedule
   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))
Exempel på YAML-fil test_schedule_with_recurrence.yaml:
   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~
Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:
   from azureml.pipeline.core import Schedule
   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))
update
Uppdatera schemat.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
		Parametrar
| Name | Description | 
|---|---|
| 
		 name 
	 | 
	
		
		 Det nya namnet på schemat. Standardvärde: None 
			 | 
| 
		 recurrence 
	 | 
	
		
		 Det nya schemat återkommer för pipelinen. Standardvärde: None 
			 | 
| 
		 description 
	 | 
	
		
		 Den nya beskrivningen av schemat. Standardvärde: None 
			 | 
| 
		 pipeline_parameters 
	 | 
	
		
		 En ordlista med parametrar för att tilldela nya värden {param name, param value}. Standardvärde: None 
			 | 
| 
		 status 
	 | 
	
		
		 Schemats nya status: "Aktiv" eller "Inaktiverad". Standardvärde: None 
			 | 
| 
		 wait_for_provisioning 
	 | 
	
		
		 Om du vill vänta tills schemat har etablerats. Standardvärde: False 
			 | 
| 
		 wait_timeout 
	 | 
	
		
		 Antal sekunder att vänta innan tidsgränsen är ute. Standardvärde: 3600 
			 | 
| 
		 datastore 
	 | 
	
		
		 Datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Standardvärde: None 
			 | 
| 
		 polling_interval 
	 | 
	
		
		 Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Standardvärde: None 
			 | 
| 
		 data_path_parameter_name 
	 | 
	
		
		 Namnet på den pipelineparameter för datasökväg som ska anges med den ändrade blobsökvägen. Standardvärde: None 
			 | 
| 
		 continue_on_step_failure 
	 | 
	
		
		 Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None 
			 | 
| 
		 path_on_datastore 
	 | 
	
		
		 Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om ingen, övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None 
			 | 
Attribut
continue_on_step_failure
Hämta värdet för inställningen continue_on_step_failure .
Returer
| Typ | Description | 
|---|---|
| 
					 Värdet för inställningen   | 
		
data_path_parameter_name
Hämta namnet på pipelineparametern för datasökväg som ska anges med den ändrade blobsökvägen.
Returer
| Typ | Description | 
|---|---|
| 
					 Parameternamnet för datasökvägen.  | 
		
datastore_name
description
id
name
path_on_datastore
Hämta sökvägen till det datalager som schemat övervakar.
Returer
| Typ | Description | 
|---|---|
| 
					 Sökvägen till datalager.  | 
		
pipeline_endpoint_id
pipeline_id
polling_interval
Få hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
Returer
| Typ | Description | 
|---|---|
| 
					 Avsökningsintervallet.  |