Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Med Azure Synapse Analytics kan du använda Apache Spark för att köra notebooks, jobb och andra typer av program på dina Apache Spark-pooler i din workspace.
Den här artikeln beskriver hur du övervakar dina Apache Spark-program så att du kan hålla ett öga på den senaste statusen, problemen och förloppet.
Åtkomst till Apache Spark-programlista
Om du vill se listan över Apache Spark-program på din arbetsyta öppnar du först Synapse Studio och väljer din arbetsyta.
              
              
            
När du har öppnat arbetsytan väljer du avsnittet Övervaka till vänster.
              
              
            
Välj Apache Spark-program för att visa listan över Apache Spark-program.
              
              
            
Filtrera dina Apache Spark-applikationer
Du kan filtrera listan över Apache Spark-program till de som du är intresserad av. Med filtren överst på skärmen kan du ange ett fält som du vill filtrera på.
Du kan till exempel filtrera vyn för att endast se De Apache Spark-program som innehåller namnet "sales":
              
              
            
Visa information om ett specifikt Apache Spark-program
Om du vill visa information om ett av dina Apache Spark-program väljer du Apache Spark-programmet och visar informationen. Om Apache Spark-programmet fortfarande körs kan du övervaka förloppet. Läs mer.
Nästa steg
Mer information om hur du övervakar pipelinekörningar finns i artikeln Övervaka pipelinekörningar i Synapse Studio .
Mer information om felsökning av Apache Spark-program finns i artikeln Övervaka Apache Spark-program i Synapse Studio .