ClassificationModels type 
Definieert waarden voor ClassificationModels. 
              KnownClassificationModels kan door elkaar worden gebruikt met ClassificationModels, bevat dit enum de bekende waarden die de service ondersteunt.
Bekende waarden die door de service worden ondersteund
              LogisticRegression: Logistieke regressie is een fundamentele classificatietechniek.
Het behoort tot de groep lineaire classificaties en is enigszins vergelijkbaar met polynomiale en lineaire regressie.
Logistieke regressie is snel en relatief ongecompliceerd en het is handig voor u om de resultaten te interpreteren.
Hoewel het in wezen een methode voor binaire classificatie is, kan het ook worden toegepast op problemen met meerdere klassen. 
              SGD-: SGD: Stochastische gradiëntafname is een optimalisatie-algoritme dat vaak wordt gebruikt in machine learning-toepassingen om de modelparameters te vinden die overeenkomen met de beste pasvorm tussen voorspelde en werkelijke uitvoer. 
              MultinomialNaiveBayes: De multinomiale Naive Bayes-classificatie is geschikt voor classificatie met discrete functies (bijvoorbeeld woorden tellen voor tekstclassificatie).
Voor de multinomiale verdeling zijn normaal gesproken gehele getallen vereist. In de praktijk kunnen fractionele aantallen zoals tf-idf echter ook werken. 
              BernoulliNaiveBayes: Naive Bayes-classificatie voor multivariate Bernoulli-modellen. 
              SVM-: A support vector machine (SVM) is een machine learning-model onder supervisie dat classificatiealgoritmen gebruikt voor classificatieproblemen met twee groepen.
Nadat een SVM-modelsets met gelabelde trainingsgegevens voor elke categorie zijn opgegeven, kunnen ze nieuwe tekst categoriseren. 
              LinearSVM: A support vector machine (SVM) is een machine learning-model onder supervisie dat classificatiealgoritmen gebruikt voor classificatieproblemen met twee groepen.
Nadat een SVM-modelsets met gelabelde trainingsgegevens voor elke categorie zijn opgegeven, kunnen ze nieuwe tekst categoriseren.
Lineaire SVM presteert het beste wanneer invoergegevens lineair zijn, d.w. gegevens kunnen eenvoudig worden geclassificeerd door de rechte lijn tussen geclassificeerde waarden in een getekende grafiek te tekenen. 
              KNN-: K-dichtstbijzijnde buren (KNN)-algoritme maakt gebruik van 'functie-gelijkenis' om de waarden van nieuwe gegevenspunten te voorspellen. Dit betekent verder dat aan het nieuwe gegevenspunt een waarde wordt toegewezen op basis van de mate waarin het overeenkomt met de punten in de trainingsset. 
              DecisionTree: Beslissingsstructuren zijn een niet-parametrische leermethode die wordt gebruikt voor zowel classificatie- als regressietaken.
Het doel is om een model te maken dat de waarde van een doelvariabele voorspelt door eenvoudige beslissingsregels te leren die zijn afgeleid van de gegevensfuncties. 
              RandomForest: random forest is een leeralgoritme onder supervisie.
Het "forest" dat het bouwt, is een ensemble van beslissingsstructuren, meestal getraind met de 'bagging'-methode.
Het algemene idee van de baggingmethode is dat een combinatie van leermodellen het algehele resultaat verhoogt. 
              ExtremeRandomTrees: Extreme Trees is een ensemble machine learning-algoritme dat de voorspellingen van veel beslissingsstructuren combineert. Het is gerelateerd aan het veelgebruikte willekeurige forestalgoritme. 
              LightGBM-: LightGBM is een framework voor gradiëntverhoging dat gebruikmaakt van op structuur gebaseerde leeralgoritmen. 
              GradientBoosting: de techniek van het doorvoeren van weekleerders naar een sterke cursist wordt Boost genoemd. Het proces voor het verhogen van de kleurovergang werkt aan deze uitvoeringstheorie. 
              XGBoostClassifier: XGBoost: Algoritme voor het versterken van extreme gradiënten. Dit algoritme wordt gebruikt voor gestructureerde gegevens, waarbij doelkolomwaarden kunnen worden onderverdeeld in afzonderlijke klassewaarden.
type ClassificationModels = string