Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln innehåller referensinformation för att konfigurera Kubernetes med Azure Machine Learning.
Kubernetes-version och region som stöds
- Kubernetes-kluster som installerar Azure Machine Learning-tillägget har ett versionsstödfönster med "N-2", som är i linje med azure Kubernetes Service-versionssupportprincipen (AKS), där "N" är den senaste ga-delversionen av Azure Kubernetes Service. - Om AKS till exempel introducerar 1.20.a idag stöds version 1.20.a, 1.20.b, 1.19.c, 1.19.d, 1.18.e och 1.18.f. 
- Om kunderna kör en Kubernetes-version som inte stöds uppmanas de att uppgradera när de begär support för klustret. Kluster som kör Kubernetes-versioner som inte stöds omfattas inte av supportprinciperna för Azure Machine Learning-tillägget. 
 
- Tillgänglighet för Azure Machine Learning-tilläggsregionen: - Azure Machine Learning-tillägget kan distribueras till AKS- eller Azure Arc-aktiverade Kubernetes i regioner som stöds som anges i Stöd för Azure Arc-aktiverade Kubernetes-regioner.
 
Rekommenderad resursplanering
När du distribuerar Azure Machine Learning-tillägget distribueras vissa relaterade tjänster till ditt Kubernetes-kluster för Azure Machine Learning. I följande tabell visas relaterade tjänster och deras resursanvändning i klustret:
| Distribuera/daemonset | Replik # | Utbildning | Slutsatsdragning | CPU-begäran(m) | CPU-gräns(m) | Minnesbegäran(Mi) | Minnesgräns(Mi) | 
|---|---|---|---|---|---|---|---|
| metrics-controller-manager | 1 | ✓ | ✓ | 10 | 100 | 20 | 300 | 
| prometheus-operator | 1 | ✓ | ✓ | 100 | 400 | 128 | 512 | 
| Prometheus | 1 | ✓ | ✓ | 100 | 1 000 | 512 | 4096 | 
| kube-state-metrics | 1 | ✓ | ✓ | 10 | 100 | 32 | 256 | 
| portingång | 1 | ✓ | ✓ | 50 | 500 | 256 | 2048 | 
| fluent-bit | 1 per nod | ✓ | ✓ | 10 | 200 | 100 | 300 | 
| inference-operator-controller-manager | 1 | ✓ | Ej tillämpligt | 100 | 1 000 | 128 | 1024 | 
| amlarc-identity-controller | 1 | ✓ | Ej tillämpligt | 200 | 1 000 | 200 | 1024 | 
| amlarc-identity-proxy | 1 | ✓ | Ej tillämpligt | 200 | 1 000 | 200 | 1024 | 
| azureml-ingress-nginx-controller | 1 | ✓ | Ej tillämpligt | 100 | 1 000 | 64 | 512 | 
| azureml-fe-v2 | 1 (för testsyfte) eller 3 (för produktionsändamål) | ✓ | Ej tillämpligt | 900 | 2000 | 800 | 1200 | 
| onlinedistribution | 1 per distribution | Användarskapad | Ej tillämpligt | <användardefiniering> | <användardefiniering> | <användardefiniering> | <användardefiniering> | 
| online-distribution/identitets-sidovagn | 1 per distribution | ✓ | Ej tillämpligt | 10 | 50 | 100 | 100 | 
| aml-operator | 1 | Ej tillämpligt | ✓ | 20 | 1020 | 124 | 2168 | 
| vulkan-antagning | 1 | Ej tillämpligt | ✓ | 10 | 100 | 64 | 256 | 
| vulkankontrollant | 1 | Ej tillämpligt | ✓ | 50 | 500 | 128 | 512 | 
| volcano-schedular | 1 | Ej tillämpligt | ✓ | 50 | 500 | 128 | 512 | 
Förutom dina egna distributioner/poddar är de totala minimikraven för systemresurser följande:
| Scenarium | Aktiverad slutsatsdragning | Aktiverad utbildning | CPU-begäran(m) | CPU-gräns(m) | Minnesbegäran(Mi) | Minnesgräns(Mi) | Nodantal | Rekommenderad minsta vm-storlek | Motsvarande AKS VM SKU | 
|---|---|---|---|---|---|---|---|---|---|
| För test | ✓ | Ej tillämpligt | 1780 | 8300 | 2440 | 12296 | 1 nod | 2 vCPU, 7 GiB-minne, 6400 IOPS, 1 500 Mbps BW | DS2v2 | 
| För test | Ej tillämpligt | ✓ | 410 | 4420 | 1492 | 10960 | 1 nod | 2 vCPU, 7 GiB-minne, 6400 IOPS, 1 500 Mbps BW | DS2v2 | 
| För test | ✓ | ✓ | 1910 | 10420 | 2884 | 15744 | 1 nod | 4 vCPU, 14 GiB-minne, 12800 IOPS, 1500 Mbps BW | DS3v2 | 
| För produktion | ✓ | Ej tillämpligt | 3600 | 12700 | 4240 | 15296 | 3 noder | 4 vCPU, 14 GiB-minne, 12800 IOPS, 1500 Mbps BW | DS3v2 | 
| För produktion | Ej tillämpligt | ✓ | 410 | 4420 | 1492 | 10960 | 1 noder | 8 vCPU, 28GiB Memroy, 25600 IOPS, 6000Mbps BW | DS4v2 | 
| För produktion | ✓ | ✓ | 3730 | 14820 | 4684 | 18744 | 3 noder | 4 vCPU, 14 GiB-minne, 12800 IOPS, 1500 Mbps BW | DS4v2 | 
Kommentar
- I testsyfte bör du referera till resursbegäran.
- I produktionssyfte bör du referera till resursgränsen.
Viktigt!
Här följer några andra överväganden som referens:
- För högre nätverksbandbredd och bättre disk-I/O-prestanda rekommenderar vi en större SKU.
- Ta DV2/DSv2 som exempel, med hjälp av den stora SKU:n kan du minska tiden för att hämta avbildningen för bättre nätverks-/lagringsprestanda.
- Mer information om AKS-reservation finns i AKS-reservationen.
 
- Om du använder AKS-kluster kan du behöva tänka på storleksgränsen för en containeravbildning i AKS. Mer information finns i storleksgränsen för AKS-containeravbildningar.
Förutsättningar för ARO- eller OCP-kluster
Inaktivera Security Enhanced Linux (SELinux)
              Azure Machine Learning-datauppsättning (en SDK v1-funktion som används i Azure Machine Learning-träningsjobb) stöds inte på datorer med SELinux aktiverat. Därför måste du inaktivera selinux för alla arbetare för att kunna använda Azure Machine Learning-datauppsättningen.
Privilegierad installation för ARO och OCP
För distribution av Azure Machine Learning-tillägg i ARO- eller OCP-kluster beviljar du privilegierad åtkomst till Azure Machine Learning-tjänstkonton, kör oc edit scc privileged kommandot och lägger till följande tjänstkonton under "användare:":
- system:serviceaccount:azure-arc:azure-arc-kube-aad-proxy-sa
- system:serviceaccount:azureml:{EXTENSION-NAME}-kube-state-metrics
- system:serviceaccount:azureml:prom-admission
- system:serviceaccount:azureml:default
- system:serviceaccount:azureml:prom-operator
- system:serviceaccount:azureml:load-amlarc-selinux-policy-sa
- system:serviceaccount:azureml:azureml-fe-v2
- system:serviceaccount:azureml:prom-prometheus
- system:serviceaccount:{KUBERNETES-COMPUTE-NAMESPACE}:default
- system:serviceaccount:azureml:azureml-ingress-nginx
- system:serviceaccount:azureml:azureml-ingress-nginx-admission
Kommentar
- 
              {EXTENSION-NAME}: är det tilläggsnamn som angetts med CLI-kommandotaz k8s-extension create --name.
- 
              {KUBERNETES-COMPUTE-NAMESPACE}: är namnområdet för Kubernetes-beräkningen som anges när beräkningen kopplas till Azure Machine Learning-arbetsytan. Hoppa över attsystem:serviceaccount:{KUBERNETES-COMPUTE-NAMESPACE}:defaultkonfigurera omKUBERNETES-COMPUTE-NAMESPACEärdefault.
Insamlad logginformation
Vissa loggar om Azure Machine Learning-arbetsbelastningar i klustret samlas in via tilläggskomponenter, till exempel status, mått, livscykel osv. I följande lista visas all logginformation som samlats in, inklusive vilken typ av loggar som samlats in och var de skickades till eller lagrades.
| Podd | Beskrivning av resurser | Information om detaljerad loggning | 
|---|---|---|
| amlarc-identity-controller | Begära och förnya Azure Blob/Azure Container Registry-token via hanterad identitet. | Används endast när enableInference=trueanges när tillägget installeras. Den har spårningsloggar för status för att hämta identitet för slutpunkter som ska autentiseras med Azure Machine Learning-tjänsten. | 
| amlarc-identity-proxy | Begära och förnya Azure Blob/Azure Container Registry-token via hanterad identitet. | Används endast när enableInference=trueanges när tillägget installeras. Den har spårningsloggar för status för att hämta identitet för klustret att autentisera med Azure Machine Learning Service. | 
| aml-operator | Hantera livscykeln för träningsjobb. | Loggarna innehåller status för Azure Machine Learning-träningsjobbspodden i klustret. | 
| azureml-fe-v2 | Klientdelskomponenten som dirigerar inkommande slutsatsdragningsbegäranden till distribuerade tjänster. | Åtkomstloggar på begäransnivå, inklusive begärande-ID, starttid, svarskod, felinformation och varaktigheter för svarstid för begäran. Spårningsloggar för tjänstmetadataändringar, tjänst som kör felfri status osv. i felsökningssyfte. | 
| portingång | Gatewayen används för att kommunicera och skicka data fram och tillbaka. | Spåra loggar på begäranden från Azure Machine Learning-tjänster till klustren. | 
| hälsokontroll | -- | Loggarna innehåller azuremlnamnområdesresursstatus (Azure Machine Learning-tillägg) för att diagnostisera vad som gör att tillägget inte fungerar. | 
| inference-operator-controller-manager | Hantera livscykeln för slutpunkter för slutsatsdragning. | Loggarna innehåller slutpunkten för Azure Machine Learning-slutpunkten och distributionspoddens status i klustret. | 
| metrics-controller-manager | Hantera konfigurationen för Prometheus. | Spårningsloggar för status för uppladdning av träningsjobb och slutsatsdragningsdistributionsmått för CPU-användning och minnesanvändning. | 
| reläserver | relay-servern behövs endast i arc-anslutna kluster och installeras inte i AKS-kluster. | Relay-servern fungerar med Azure Relay för att kommunicera med molntjänsterna. Loggarna innehåller information på begäransnivå från Azure Relay. | 
Azure Machine Learning-jobb ansluter till anpassad datalagring
Beständiga volymer (PV) och beständiga volymanspråk (PVC) är Kubernetes-begrepp, vilket gör det möjligt för användaren att tillhandahålla och använda olika lagringsresurser.
- Skapa PV, ta NFS som exempel,
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfs-pv 
spec:
  capacity:
    storage: 1Gi 
  accessModes:
    - ReadWriteMany 
  persistentVolumeReclaimPolicy: Retain
  storageClassName: ""
  nfs: 
    path: /share/nfs
    server: 20.98.110.84 
    readOnly: false
- Skapa PVC i samma Kubernetes-namnområde med ML-arbetsbelastningar. I metadatamåste du lägga till en etikettml.azure.com/pvc: "true"som ska identifieras av Azure Machine Learning och lägga till anteckningarml.azure.com/mountpath: <mount path>för att ange monteringssökvägen.
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: nfs-pvc  
  namespace: default
  labels:
    ml.azure.com/pvc: "true"
  annotations:
    ml.azure.com/mountpath: "/mnt/nfs"
spec:
  storageClassName: ""
  accessModes:
  - ReadWriteMany      
  resources:
     requests:
       storage: 1Gi
Viktigt!
- Endast kommandojobbet/komponenten, hyperdrive-jobbet/komponenten och batchdistributionen stöder anpassad datalagring från PVC(s). > * Onlineslutpunkten, AutoML-jobbet och PRS-jobbet i realtid stöder inte anpassad datalagring från PVC(s).
- Dessutom monteras endast poddarna i samma Kubernetes-namnområde med PVC:erna volymen. Dataexperten kan komma åt angiven mount pathi PVC-kommentaren i jobbet. AutoML-jobb och Prs-jobb har inte åtkomst till PVC:erna.
Azure Machine Learning-spår och toleranser som stöds
Taint och Toleration är Kubernetes-begrepp som fungerar tillsammans för att säkerställa att poddar inte schemaläggs till olämpliga noder.
Kubernetes-kluster som är integrerade med Azure Machine Learning (inklusive AKS- och Arc Kubernetes-kluster) stöder nu specifika Azure Machine Learning-taints och toleranser, vilket gör det möjligt för användare att lägga till specifika Azure Machine Learning-taints på azure machine learning-dedikerade noder, för att förhindra att icke-Azure Machine Learning-arbetsbelastningar schemaläggs på dessa dedikerade noder.
Vi stöder endast placering av amlarc-specifika taints på dina noder, som definieras på följande sätt:
| Besudla | Tangent | Värde | Effekt | beskrivning | 
|---|---|---|---|---|
| amlarc övergripande | ml.azure.com/amlarc | sann | NoSchedule,NoExecuteellerPreferNoSchedule | Alla Azure Machine Learning-arbetsbelastningar, inklusive tilläggssystemtjänstpoddar och poddar för maskininlärningsarbetsbelastningar, skulle tolerera den här amlarc overallfliken. | 
| amlarc-system | ml.azure.com/amlarc-system | sann | NoSchedule,NoExecuteellerPreferNoSchedule | Endast systemtjänstpoddar för Azure Machine Learning-tillägg skulle tolerera den här amlarc systemfliken. | 
| amlarc-arbetsbelastning | ml.azure.com/amlarc-workload | sann | NoSchedule,NoExecuteellerPreferNoSchedule | Endast maskininlärningsarbetsbelastningspoddar skulle tolerera den här amlarc workloadtainten. | 
| amlarc-resursgrupp | ml.azure.com/resource-group | <resursgruppsnamn> | NoSchedule,NoExecuteellerPreferNoSchedule | Endast maskininlärningsarbetsbelastningspoddar som skapats från den specifika resursgruppen skulle tolerera den här amlarc resource grouptainten. | 
| amlarc-arbetsyta | ml.azure.com/workspace | <arbetsytans namn> | NoSchedule,NoExecuteellerPreferNoSchedule | Endast maskininlärningsarbetsbelastningspoddar som skapats från den specifika arbetsytan skulle tolerera den här amlarc workspacetainten. | 
| amlarc-beräkning | ml.azure.com/compute | <beräkningsnamn> | NoSchedule,NoExecuteellerPreferNoSchedule | Endast maskininlärningsarbetsbelastningspoddar som skapats med det specifika beräkningsmålet skulle tolerera den här amlarc computetainten. | 
Dricks
- För Azure Kubernetes Service (AKS) kan du följa exemplet i Metodtips för avancerade scheduler-funktioner i Azure Kubernetes Service (AKS) för att tillämpa taints på nodpooler.
- För Arc Kubernetes-kluster, till exempel lokala Kubernetes-kluster, kan du använda kubectl taintkommandot för att lägga till taints i noder. Fler exempel finns i Kubernetes-dokumentationen.
Bästa praxis
Enligt dina schemaläggningskrav för de Azure Machine Learning-dedikerade noderna kan du lägga till flera amlarc-specifika taints för att begränsa vad Azure Machine Learning-arbetsbelastningar kan köra på noder. Vi listar metodtips för att använda amlarc taints:
- 
              Om du vill förhindra att icke-Azure Machine Learning-arbetsbelastningar körs på Azure Machine Learning-dedikerade noder/nodpooler kan du bara lägga till taint i aml overalldessa noder.
- 
              För att förhindra att icke-systempoddar körs på Azure Machine Learning-dedikerade noder/nodpooler måste du lägga till följande taints: - 
              amlarc overallbesudla
- 
              amlarc systembesudla
 
- 
              
- 
              För att förhindra att icke-ml-arbetsbelastningar körs på Azure Machine Learning-dedikerade noder/nodpooler måste du lägga till följande taints: - 
              amlarc overallbesudla
- 
              amlarc workloadsbesudla
 
- 
              
- 
              För att förhindra att arbetsbelastningar som inte skapas från arbetsytan X körs på Azure Machine Learning-dedikerade noder/nodpooler måste du lägga till följande taint: - 
              amlarc overallbesudla
- 
              amlarc resource group (has this <workspace X>)besudla
- 
              amlarc <workspace X>besudla
 
- 
              
- 
              Om du vill förhindra att arbetsbelastningar som inte skapas av beräkningsmål X körs på Azure Machine Learning-dedikerade noder/nodpooler måste du lägga till följande taint: - 
              amlarc overallbesudla
- 
              amlarc resource group (has this <workspace X>)besudla
- 
              amlarc workspace (has this <compute X>)besudla
- 
              amlarc <compute X>besudla
 
- 
              
Integrera annan ingresskontrollant med Azure Machine Learning-tillägget via HTTP eller HTTPS
Förutom standardinferensen för Azure Machine Learning-lastbalanseraren azureml-fe kan du även integrera andra lastbalanserare med Azure Machine Learning-tillägget via HTTP eller HTTPS.
Den här självstudien visar hur du integrerar Nginx-ingresskontrollanten eller Azure Application Gateway.
Förutsättningar
- 
              Distribuera Azure Machine Learning-tillägget med inferenceRouterServiceType=ClusterIPochallowInsecureConnections=True, så att Nginx Ingress Controller kan hantera TLS-avslutning på egen hand i stället för att överlämna det till azureml-fe när tjänsten exponeras via HTTPS.
- För att integrera med Nginx Ingress Controller behöver du en Kubernetes-klusterkonfiguration med Nginx Ingress Controller.
- Skapa en grundläggande kontrollant: Om du börjar från början kan du läsa de här anvisningarna.
 
- För att integrera med Azure Application Gateway behöver du en Kubernetes-klusterkonfiguration med Ingresskontrollant för Azure Application Gateway.
- Greenfield-distribution: Om du börjar från början kan du läsa de här anvisningarna.
- Distribution av Brownfield: Om du har ett befintligt AKS-kluster och Application Gateway kan du läsa de här anvisningarna.
 
- Om du vill använda HTTPS i det här programmet behöver du ett x509-certifikat och dess privata nyckel.
Exponera tjänster via HTTP
För att exponera azureml-fe använder vi följande ingressresurs:
# Nginx Ingress Controller example
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: azureml-fe
  namespace: azureml
spec:
  ingressClassName: nginx
  rules:
  - http:
      paths:
      - path: /
        backend:
          service:
            name: azureml-fe
            port:
              number: 80
        pathType: Prefix
Den här ingressen azureml-fe exponerar tjänsten och den valda distributionen som standardserverdel för Nginx-ingresskontrollanten.
# Azure Application Gateway example
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: azureml-fe
  namespace: azureml
spec:
  ingressClassName: azure-application-gateway
  rules:
  - http:
      paths:
      - path: /
        backend:
          service:
            name: azureml-fe
            port:
              number: 80
        pathType: Prefix
Den här ingressen azureml-fe exponerar tjänsten och den valda distributionen som standardserverdel för Application Gateway.
Spara ovanstående ingressresurs som ing-azureml-fe.yaml.
- Distribuera - ing-azureml-fe.yamlgenom att köra:- kubectl apply -f ing-azureml-fe.yaml
- Kontrollera loggen för ingresskontrollanten för distributionsstatus. 
- azureml-feNu ska programmet vara tillgängligt. Du kan kontrollera genom att besöka:- Nginx Ingress Controller: den offentliga LoadBalancer-adressen för Nginx Ingress Controller
- Azure Application Gateway: den offentliga adressen för Application Gateway.
 
- Skapa ett slutsatsdragningsjobb och anropa. - Kommentar - Ersätt ip-adressen i scoring_uri med den offentliga LoadBalancer-adressen för Nginx-ingresskontrollanten innan du anropar. 
Exponera tjänster via HTTPS
- Innan du distribuerar ingress måste du skapa en kubernetes-hemlighet som värd för certifikatet och den privata nyckeln. Du kan skapa en kubernetes-hemlighet genom att köra - kubectl create secret tls <ingress-secret-name> -n azureml --key <path-to-key> --cert <path-to-cert>
- Definiera följande ingress. I ingressen anger du namnet på hemligheten i avsnittet - secretName.- # Nginx Ingress Controller example apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: azureml-fe namespace: azureml spec: ingressClassName: nginx tls: - hosts: - <domain> secretName: <ingress-secret-name> rules: - host: <domain> http: paths: - path: / backend: service: name: azureml-fe port: number: 80 pathType: Prefix- # Azure Application Gateway example apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: azureml-fe namespace: azureml spec: ingressClassName: azure-application-gateway tls: - hosts: - <domain> secretName: <ingress-secret-name> rules: - host: <domain> http: paths: - path: / backend: service: name: azureml-fe port: number: 80 pathType: Prefix- Kommentar - Ersätt - <domain>och- <ingress-secret-name>i ovanstående ingressresurs med domänen som pekar på LoadBalancer för Nginx-ingresskontrollanten /Application Gateway och namnet på din hemlighet. Lagra ovanstående ingressresurs i ett filnamn- ing-azureml-fe-tls.yaml.
- Distribuera ing-azureml-fe-tls.yaml genom att köra - kubectl apply -f ing-azureml-fe-tls.yaml
- Kontrollera loggen för ingresskontrollanten för distributionsstatus. 
- Nu är programmet - azureml-fetillgängligt på HTTPS. Du kan kontrollera detta genom att besöka den offentliga LoadBalancer-adressen för Nginx Ingress Controller.
- Skapa ett slutsatsdragningsjobb och anropa. - Kommentar - Ersätt protokollet och IP-adressen i scoring_uri med https och domän som pekar på LoadBalancer för Nginx-ingresskontrollanten eller Application Gateway innan du anropar. 
Använda en ARM-mall till att distribuera tillägg
Tillägg i hanterat kluster kan distribueras med ARM-mall. Du hittar en exempelmall från deployextension.json med en demoparameterfil deployextension.parameters.json
Om du vill använda exempeldistributionsmallen redigerar du parameterfilen med rätt värde och kör sedan följande kommando:
az deployment group create --name <ARM deployment name> --resource-group <resource group name> --template-file deployextension.json --parameters deployextension.parameters.json
Mer information om hur du använder ARM-mall finns i dokumentet om ARM-mallar
Versionsanteckning för AzuremML-tillägg
Kommentar
Nya funktioner släpps i en kalender varannan vecka.
| Datum | Utgåva | Versionsbeskrivning | 
|---|---|---|
| 6 apr 2025 | 1.1.76 | Åtgärda sårbar bild. Nginx-ingress-controller har uppdaterats till v1.12.1 | 
| den 28 januari 2025 | 1.1.71 | Åtgärda sårbar bild. | 
| den 20 januari 2025 | 1.1.70 | Åtgärda kompatibelt problem med AKS-autoskalning för AKS 1.30. | 
| 26 sep, 2024 | 1.1.64 | Säkerhetsrisker har åtgärdats. | 
| 21 november 2023 | 1.1.39 | Säkerhetsrisker har åtgärdats. Förfinat felmeddelande. Ökad stabilitet för relayserver-API:et. | 
| 1 november 2023 | 1.1.37 | Uppdatera dataplanets envoy-version. | 
| 11 okt. 2023 | 1.1.35 | Åtgärda sårbar bild. Buggkorrigeringar. | 
| 25 aug. 2023 | 1.1.34 | Åtgärda sårbar bild. Returnera mer detaljerat identitetsfel. Buggkorrigeringar. | 
| 18 juli 2023 | 1.1.29 | Lägg till nya identitetsoperatorfel. Buggkorrigeringar. | 
| Den 4 juni 2023 | 1.1.28 | Förbättra automatisk skalning för att hantera flera nodpooler. Buggkorrigeringar. | 
| 18 apr , 2023 | 1.1.26 | Korrigeringar av buggar och sårbarheter. | 
| 27 mars 2023 | 1.1.25 | Lägg till begränsning av Azure Machine Learning-jobb. Snabbt fel för träningsjobb när SSH-installationen misslyckades. Minska Prometheus-skrapningsintervallet till 30-talet. Förbättra felmeddelanden för slutsatsdragning. Åtgärda sårbar bild. | 
| 7 mar 2023 | 1.1.23 | Ändra standardinstanstyp så att 2Gi-minne används. Uppdatera måttkonfigurationer för scoring-fe som lägger till 15s scrape_interval. Lägg till resursspecifikation för mdc-sidovagn. Åtgärda sårbar bild. Buggkorrigeringar. | 
| 14 feb 2023 | 1.1.21 | Buggkorrigeringar. | 
| 7 feb 2023 | 1.1.19 | Förbättra felmeddelandet för slutsatsdragning. Uppdatera standardinstanstypen för att använda 2Gi-minnesgräns. Kontrollera hälsotillståndet för klustret för poddhälsa, resurskvot, Kubernetes-version och tilläggsversion. Felkorrigeringar | 
| 27 dec 2022 | 1.1.17 | Flytta Fluent-biten från DaemonSet till sidovagnar. Lägg till MDC-stöd. Förfina felmeddelanden. Stöd för klusterlägesjobb (windows, linux). Felkorrigeringar | 
| 29 november 2022 | 1.1.16 | Lägg till validering av instanstyp med ny CRD. Stödtolerans. Förkorta SVC-namn. Workload Core-timme. Flera felkorrigeringar och förbättringar. | 
| 13 sep 2022 | 1.1.10 | Buggkorrigeringar. | 
| 29 aug 2022 | 1.1.9 | Förbättrad logik för hälsokontroll. Buggkorrigeringar. | 
| 23 juni 2022 | 1.1.6 | Buggkorrigeringar. | 
| 15 juni 2022 | 1.1.5 | Utbildning har uppdaterats för att använda ny vanlig körning för att köra jobb. Azure Relay-användningen för AKS-tillägget har tagits bort. Service Bus-användningen har tagits bort från tillägget. Säkerhetskontextanvändningen har uppdaterats. Uppdaterade slutsatsdragningen azureml-fe till v2. Har uppdaterats för att använda Volcano som schemaläggare för träningsjobb. Buggkorrigeringar. | 
| 14 okt 2021 | 1.0.37 | Stöd för PV/PVC-volymmontering i AMLArc-träningsjobb. | 
| 16 september 2021 | 1.0.29 | Nya tillgängliga regioner, WestUS, CentralUS, NorthCentralUS, KoreaCentral. Utökningsbarhet för jobbkö. Se information om jobbköer i Azure Machine Learning Workspace Studio. Policy för automatisk avlivning. Stöd max_run_duration_seconds i ScriptRunConfig. Systemet försöker automatiskt avbryta körningen om det tog längre tid än inställningsvärdet. Prestandaförbättringar för stöd för automatisk skalning av kluster. Distribution av Arc-agent och ML-tillägg från det lokala containerregistret. | 
| den 24 augusti 2021 | 1.0.28 | Beräkningsinstanstypen stöds i jobbet YAML. Tilldela hanterad identitet till AMLArc-beräkning. | 
| den 10 augusti 2021 | 1.0.20 | Nytt Kubernetes-distributionsstöd, K3S – Lightweight Kubernetes. Distribuera Azure Machine Learning-tillägget till ditt AKS-kluster utan att ansluta via Azure Arc. Automatiserad maskininlärning (AutoML) via Python SDK. Använd 2.0 CLI för att koppla Kubernetes-klustret till Azure Machine Learning-arbetsytan. Optimera användningen av PROCESSOR-/minnesresurser för Azure Machine Learning-tilläggskomponenter. | 
| den 2 juli 2021 | 1.0.13 | Nytt Stöd för Kubernetes-distributioner, OpenShift Kubernetes och GKE (Google Kubernetes Engine). Stöd för automatisk skalning. Om det användarhanterade Kubernetes-klustret aktiverar automatisk skalning skalas klustret automatiskt ut eller skalas in enligt volymen av aktiva körningar och distributioner. Prestandaförbättring på jobbstartaren, vilket förkortar jobbkörningstiden till en hel del. |