Selezione delle caratteristiche (Data mining)Feature Selection (Data Mining)

Si applica a: yesSQL Server Analysis Services alcunAzure Analysis ServicesAPPLIES TO: yesSQL Server Analysis Services noAzure Analysis Services

La selezione delle caratteristiche è una parte importante del Machine Learning.Feature selection is an important part of machine learning. La selezione delle caratteristiche si riferisce al processo di riduzione degli input per l'elaborazione e l'analisi o di individuazione degli input più significativi.Feature selection refers to the process of reducing the inputs for processing and analysis, or of finding the most meaningful inputs. Un termine correlato, progettazione delle caratteristiche (o estrazione delle caratteristiche), si riferisce al processo di estrazione di informazioni o caratteristiche utili dai dati esistenti.A related term, feature engineering (or feature extraction), refers to the process of extracting useful information or features from existing data.

Perché eseguire la selezione delle caratteristiche?Why Do Feature Selection?

La selezione delle caratteristiche è fondamentale per la creazione di un modello funzionale per diversi motivi.Feature selection is critical to building a good model for several reasons. Uno è che la selezione delle caratteristiche implica un certo livello di riduzione della cardinalità, per imporre un limite al numero di attributi che possono essere considerati durante la creazione di un modello.One is that feature selection implies some degree of cardinality reduction, to impose a cutoff on the number of attributes that can be considered when building a model. I dati contengono quasi sempre più informazioni di quelle necessarie per creare il modello oppure il tipo di informazioni sbagliate.Data almost always contains more information than is needed to build the model, or the wrong kind of information. Ad esempio, in un set di dati potrebbero essere contenute 500 colonne in cui vengono descritte le caratteristiche dei clienti. Tuttavia, se i dati di alcune colonne sono di tipo sparse, non sarebbe molto vantaggioso aggiungerli al modello e, se alcune colonne sono duplicate tra loro, l'uso di entrambe le colonne potrebbe influire negativamente sul modello.For example, you might have a dataset with 500 columns that describe the characteristics of customers; however, if the data in some of the columns is very sparse you would gain very little benefit from adding them to the model, and if some of the columns duplicate each other, using both columns could affect the model.

Non solo la selezione delle caratteristiche migliora la qualità del modello, ma rende anche più efficiente il processo di modellazione.Not only does feature selection improve the quality of the model, it also makes the process of modeling more efficient. Se si usano colonne non necessarie durante la creazione del modello, la quantità di CPU e memoria necessaria per il processo di training sarà maggiore, così come lo spazio di archiviazione richiesto per il modello completato.If you use unneeded columns while building a model, more CPU and memory are required during the training process, and more storage space is required for the completed model. Anche nei casi in cui le risorse non rappresentano un problema, è comunque preferibile eseguire la selezione delle caratteristiche e identificare le colonne più appropriate, perché le colonne non necessarie possono peggiorare la qualità del modello in diversi modi:Even if resources were not an issue, you would still want to perform feature selection and identify the best columns, because unneeded columns can degrade the quality of the model in several ways:

  • I dati poco significativi o ridondanti rendono più difficile individuare modelli significativi.Noisy or redundant data makes it more difficult to discover meaningful patterns.

  • Se il set di dati è di dimensioni elevate, la maggior parte degli algoritmi di data mining richiede un set di dati di training di dimensioni molto maggiori.If the data set is high-dimensional, most data mining algorithms require a much larger training data set.

    Durante il processo di selezione delle caratteristiche, l'analista o lo strumento o l'algoritmo di modellazione seleziona o elimina attivamente gli attributi in base alla loro utilità per l'analisi.During the process of feature selection, either the analyst or the modeling tool or algorithm actively selects or discards attributes based on their usefulness for analysis. Gli analisti possono eseguire la progettazione delle caratteristiche per aggiungere caratteristiche e rimuovere o modificare i dati esistenti, mentre l'algoritmo di Machine Learning in genere assegna punteggi alle colonne e convalida la loro utilità nel modello.The analyst might perform feature engineering to add features, and remove or modify existing data, while the machine learning algorithm typically scores columns and validates their usefulness in the model.

    Funzionalità di selezione e processo di progettazioneFeature selection and engineering process

    In breve, la selezione delle caratteristiche consente di risolvere due problemi: la presenza di una quantità eccessiva di dati di scarso valore o di una quantità ridotta di dati di valore elevato.In short, feature selection helps solve two problems: having too much data that is of little value, or having too little data that is of high value. L'obiettivo della selezione delle caratteristiche deve essere identificare il numero minimo di colonne dell'origine dati che sono significative per la creazione di un modello.Your goal in feature selection should be to identify the minimum number of columns from the data source that are significant in building a model.

Funzionamento della selezione delle caratteristiche in Data Mining di SQL ServerHow Feature Selection Works in SQL Server Data Mining

La selezione delle caratteristiche viene sempre eseguita prima del training del modello.Feature selection is always performed before the model is trained. Con alcuni algoritmi, le tecniche di selezione delle caratteristiche sono "predefinite", in modo da escludere le colonne irrilevanti e individuare automaticamente le migliori caratteristiche.With some algorithms, feature selection techniques are "built-in" so that irrelevant columns are excluded and the best features are automatically discovered. Ogni algoritmo dispone di un proprio set di tecniche predefinite per applicare in modo intelligente la riduzione delle caratteristiche.Each algorithm has its own set of default techniques for intelligently applying feature reduction. Tuttavia, è anche possibile impostare manualmente i parametri per influire sul comportamento della selezione delle caratteristiche.However, you can also manually set parameters to influence feature selection behavior.

Durante la selezione automatica delle caratteristiche, viene calcolato un punteggio per ogni attributo e vengono selezionati solo gli attributi con i punteggi migliori per il modello.During automatic feature selection, a score is calculated for each attribute, and only the attributes that have the best scores are selected for the model. Inoltre, è possibile regolare la soglia per i punteggi massimi.You can also adjust the threshold for the top scores. SQL ServerSQL Server In Data Mining di SQL Server sono disponibili più metodi per calcolare questi punteggi e il metodo esatto applicato in qualsiasi modello dipende dai fattori seguenti: Data Mining provides multiple methods for calculating these scores, and the exact method that is applied in any model depends on these factors:

  • Algoritmo utilizzato nel modelloThe algorithm used in your model

  • Tipo di dati dell'attributoThe data type of the attribute

  • Qualsiasi parametro che potrebbe essere stato impostato sul modelloAny parameters that you may have set on your model

    La selezione delle caratteristiche viene applicata agli input, agli attributi stimabili oppure agli stati di una colonna.Feature selection is applied to inputs, predictable attributes, or to states in a column. Quando il calcolo del punteggio per la selezione delle caratteristiche è terminato, nel processo di compilazione del modello vengono inclusi solo gli attributi e gli stati selezionati dall'algoritmo, che possono essere utilizzati per eventuali stime.When scoring for feature selection is complete, only the attributes and states that the algorithm selects are included in the model-building process and can be used for prediction. Se si sceglie un attributo stimabile che non soddisfa la soglia per la selezione delle caratteristiche, l'attributo può comunque essere utilizzato per le stime, tuttavia queste ultime saranno basate unicamente sulle statistiche globali presenti nel modello.If you choose a predictable attribute that does not meet the threshold for feature selection the attribute can still be used for prediction, but the predictions will be based solely on the global statistics that exist in the model.

Nota

La selezione delle caratteristiche influisce solo sulle colonne utilizzate nel modello, mentre non ha effetto sull'archiviazione della struttura di data mining.Feature selection affects only the columns that are used in the model, and has no effect on storage of the mining structure. Le colonne rimosse dal modello di data mining sono ancora disponibili nella struttura e i dati delle colonne della struttura di data mining verranno memorizzati nella cache.The columns that you leave out of the mining model are still available in the structure, and data in the mining structure columns will be cached.

Punteggi per la selezione delle caratteristicheFeature Selection Scores

SQL ServerSQL Server In Data Mining di SQL Server sono disponibili diversi metodi diffusi e consolidati per il punteggio degli attributi. Data Mining supports these popular and well-established methods for scoring attributes. Lo specifico metodo usato in un particolare algoritmo o set di dati dipende dai tipi di dati e dall'uso delle colonne.The specific method used in any particular algorithm or data set depends on the data types, and the column usage.

  • Il punteggio di interesse viene usato per classificare e ordinare gli attributi in colonne che contengono dati numerici continui non binari.The interestingness score is used to rank and sort attributes in columns that contain nonbinary continuous numeric data.

  • L'entropia di Shannon e due punteggi Bayes sono disponibili per le colonne contenenti dati discreti e discretizzati.Shannon's entropy and two Bayesian scores are available for columns that contain discrete and discretized data. Tuttavia, se nel modello sono contenute colonne continue, il punteggio di interesse verrà utilizzato per valutare tutte le colonne di input e assicurare la coerenza.However, if the model contains any continuous columns, the interestingness score will be used to assess all input columns, to ensure consistency.

Punteggio di interesseInterestingness score

Una caratteristica è interessante se indica informazioni utili.A feature is interesting if it tells you some useful piece of information. L' interesse , tuttavia, può essere misurato in diversi modi.However, interestingness can be measured in many ways. L'originalità potrebbe essere utile nell'individuazione degli outlier, mentre la possibilità di discriminare tra elementi strettamente correlati, ovvero il peso discriminante, potrebbe essere più interessante per la classificazione.Novelty might be valuable for outlier detection, but the ability to discriminate between closely related items, or discriminating weight, might be more interesting for classification.

La misura dell'interesse usata in Data Mining di SQL ServerSQL Server è basata sull'entropia, ovvero gli attributi con distribuzioni casuali hanno un'entropia maggiore e un Information Gain minore. Tali attributi pertanto sono meno interessanti.The measure of interestingness that is used in SQL ServerSQL Server Data Mining is entropy-based, meaning that attributes with random distributions have higher entropy and lower information gain; therefore, such attributes are less interesting. L'entropia di un determinato attributo viene confrontata con quella di tutti gli altri attributi, come segue:The entropy for any particular attribute is compared to the entropy of all other attributes, as follows:

Interesse(Attributo) = - (m - Entropia(Attributo)) * (m - Entropia(Attributo))Interestingness(Attribute) = - (m - Entropy(Attribute)) * (m - Entropy(Attribute))

Per entropia centrale o m si intende l'entropia dell'intero set di caratteristiche.Central entropy, or m, means the entropy of the entire feature set. Sottraendo l'entropia dell'attributo di destinazione dall'entropia centrale, è possibile valutare la quantità di informazioni fornita dall'attributo.By subtracting the entropy of the target attribute from the central entropy, you can assess how much information the attribute provides.

Questo punteggio viene utilizzato per impostazione predefinita ogni volta che la colonna contiene dati numerici continui non binari.This score is used by default whenever the column contains nonbinary continuous numeric data.

entropia di ShannonShannon's Entropy

L'entropia di Shannon misura l'incertezza di una variabile casuale per un determinato risultato.Shannon's entropy measures the uncertainty of a random variable for a particular outcome. Ad esempio, l'entropia del lancio di una moneta può essere rappresentata come funzione della probabilità che esca testa.For example, the entropy of a coin toss can be represented as a function of the probability of it coming up heads.

In Analysis Services viene utilizzata la formula seguente per il calcolo dell'entropia di Shannon:Analysis Services uses the following formula to calculate Shannon's entropy:

H(X) = -∑ P(xi) log(P(xi))H(X) = -∑ P(xi) log(P(xi))

Questo metodo di assegnazione dei punteggi è disponibile per gli attributi discreti e discretizzati.This scoring method is available for discrete and discretized attributes.

Bayes con probabilità a priori K2Bayesian with K2 Prior

SQL ServerSQL Server In Data Mining di SQL Server sono disponibili due punteggi per la selezione delle caratteristiche basati su reti Bayes. Data Mining provides two feature selection scores that are based on Bayesian networks. Una rete Bayes è un grafico orientato o aciclico di stati e di transizioni tra stati, ossia alcuni stati sono sempre precedenti allo stato corrente, alcuni sono successivi e il grafico non si ripete.A Bayesian network is a directed or acyclic graph of states and transitions between states, meaning that some states are always prior to the current state, some states are posterior, and the graph does not repeat or loop. Per definizione, le reti Bayes consentono l'utilizzo delle conoscenze precedenti.By definition, Bayesian networks allow the use of prior knowledge. Tuttavia, la domanda in merito a quali stati precedenti utilizzare nel calcolo delle probabilità degli stati successivi è importante per la progettazione, le prestazioni e l'accuratezza dell'algoritmo.However, the question of which prior states to use in calculating probabilities of later states is important for algorithm design, performance, and accuracy.

L'algoritmo K2 per l'apprendimento di una rete Bayes, sviluppato da Cooper e Herskovits, viene utilizzato spesso nel data mining.The K2 algorithm for learning from a Bayesian network was developed by Cooper and Herskovits and is often used in data mining. È scalabile e consente di analizzare più variabili, ma richiede l'ordinamento delle variabili utilizzate come input.It is scalable and can analyze multiple variables, but requires ordering on variables used as input. Per altre informazioni, vedere Learning Bayesian Networks di Chickering, Geiger e Heckerman.For more information, see Learning Bayesian Networks by Chickering, Geiger, and Heckerman.

Questo metodo di assegnazione dei punteggi è disponibile per gli attributi discreti e discretizzati.This scoring method is available for discrete and discretized attributes.

Equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniformeBayesian Dirichlet Equivalent with Uniform Prior

Anche per il punteggio equivalente Bayes Dirichlet (BDE, Bayesian Dirichlet Equivalent) si utilizza l'analisi bayesiana per valutare una rete dato un set di dati.The Bayesian Dirichlet Equivalent (BDE) score also uses Bayesian analysis to evaluate a network given a dataset. Il metodo di assegnazione dei punteggi BDE, sviluppato da Heckerman, è basato sulla metrica BD sviluppata da Cooper e Herskovits.The BDE scoring method was developed by Heckerman and is based on the BD metric developed by Cooper and Herskovits. La distribuzione Dirichlet è una distribuzione multinomiale che descrive la probabilità condizionale di ogni variabile nella rete, oltre a includere molte proprietà utili per l'apprendimento.The Dirichlet distribution is a multinomial distribution that describes the conditional probability of each variable in the network, and has many properties that are useful for learning.

Il metodo equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniforme (BDEU, Bayesian Dirichlet Equivalent with Uniform Prior) presuppone un caso speciale della distribuzione Dirichlet in cui viene utilizzata una costante matematica per creare una distribuzione fissa o uniforme di stati precedenti.The Bayesian Dirichlet Equivalent with Uniform Prior (BDEU) method assumes a special case of the Dirichlet distribution, in which a mathematical constant is used to create a fixed or uniform distribution of prior states. Il punteggio BDE presuppone anche un'equivalenza di probabilità, ossia non è possibile prevedere che i dati discriminino strutture equivalenti.The BDE score also assumes likelihood equivalence, which means that the data cannot be expected to discriminate equivalent structures. In altri termini, se il punteggio di Se A allora B è uguale al punteggio di Se B allora A, non è possibile distinguere le strutture in base ai dati e non è possibile derivare il rapporto di causa ed effetto.In other words, if the score for If A Then B is the same as the score for If B Then A, the structures cannot be distinguished based on the data, and causation cannot be inferred.

Per altre informazioni sulle reti Bayes e sull'implementazione di questi metodi di assegnazione dei punteggi, vedere Learning Bayesian Networks.For more information about Bayesian networks and the implementation of these scoring methods, see Learning Bayesian Networks.

Metodi di selezione delle caratteristiche per algoritmoFeature Selection Methods per Algorithm

Nella tabella seguente sono elencati gli algoritmi che supportano la caratteristica di selezione degli attributi, i metodi utilizzati dall'algoritmo e i parametri impostati per controllare il funzionamento di questa caratteristica:The following table lists the algorithms that support feature selection, the feature selection methods used by the algorithm, and the parameters that you set to control feature selection behavior:

AlgoritmoAlgorithm Metodo di analisiMethod of analysis CommentiComments
Naive BayesNaive Bayes entropia di ShannonShannon's Entropy

Bayes con probabilità a priori K2Bayesian with K2 Prior

Equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniforme (impostazione predefinita)Bayesian Dirichlet with uniform prior (default)
Poiché l'algoritmo Microsoft Naive Bayes accetta solo attributi discreti o discretizzati, non può utilizzare il punteggio di interesse.The Microsoft Naïve Bayes algorithm accepts only discrete or discretized attributes; therefore, it cannot use the interestingness score.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Naive Bayes.For more information about this algorithm, see Microsoft Naive Bayes Algorithm Technical Reference.
Decision TreesDecision trees Punteggio di interesseInterestingness score

Entropia di ShannonShannon's Entropy

Bayes con probabilità a priori K2Bayesian with K2 Prior

Equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniforme (impostazione predefinita)Bayesian Dirichlet with uniform prior (default)
Se esistono colonne contenenti valori continui non binari, viene utilizzato il punteggio di interesse per tutte le colonne, per assicurare coerenza.If any columns contain non-binary continuous values, the interestingness score is used for all columns, to ensure consistency. In caso contrario, viene utilizzato il metodo per implementare la caratteristica di selezione degli attributi predefinito oppure il metodo specificato quando è stato creato il modello.Otherwise, the default feature selection method is used, or the method that you specified when you created the model.

Per altre informazioni su questo algoritmo, vedere Guida di riferimento tecnico per l'algoritmo Microsoft Decision Trees.For more information about this algorithm, see Microsoft Decision Trees Algorithm Technical Reference.
Neural NetworkNeural network Punteggio di interesseInterestingness score

Entropia di ShannonShannon's Entropy

Bayes con probabilità a priori K2Bayesian with K2 Prior

Equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniforme (impostazione predefinita)Bayesian Dirichlet with uniform prior (default)
Nell'algoritmo Microsoft Neural Network possono essere utilizzati sia i metodi Bayes sia quelli basati sull'entropia, purché nei dati siano contenute colonne continue.The Microsoft Neural Networks algorithm can use both Bayesian and entropy-based methods, as long as the data contains continuous columns.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Neural Network.For more information about this algorithm, see Microsoft Neural Network Algorithm Technical Reference.
Logistic RegressionLogistic regression Punteggio di interesseInterestingness score

Entropia di ShannonShannon's Entropy

Bayes con probabilità a priori K2Bayesian with K2 Prior

Equivalente Bayes Dirichlet con probabilità a priori a distribuzione uniforme (impostazione predefinita)Bayesian Dirichlet with uniform prior (default)
Sebbene l'algoritmo Microsoft Logistic Regression sia basato sull'algoritmo Microsoft Neural Network, non è possibile personalizzare modelli di regressione logistica per controllare il comportamento della caratteristica di selezione degli attributi. Di conseguenza tale caratteristica viene impostata automaticamente sempre sul metodo più appropriato per l'attributo.Although the Microsoft Logistic Regression algorithm is based on the Microsoft Neural Network algorithm, you cannot customize logistic regression models to control feature selection behavior; therefore, feature selection always default to the method that is most appropriate for the attribute.

Se tutti gli attributi sono discreti o discretizzati, l'impostazione predefinita è BDEU.If all attributes are discrete or discretized, the default is BDEU.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Logistic Regression.For more information about this algorithm, see Microsoft Logistic Regression Algorithm Technical Reference.
ClusteringClustering Punteggio di interesseInterestingness score L'algoritmo Microsoft Clustering può utilizzare dati discreti o discretizzati.The Microsoft Clustering algorithm can use discrete or discretized data. Tuttavia, perché il punteggio di ogni attributo è calcolato come una distanza e viene rappresentato come un numero continuo, è necessario utilizzare il punteggio di interesse.However, because the score of each attribute is calculated as a distance and is represented as a continuous number, the interestingness score must be used.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Clustering.For more information about this algorithm, see Microsoft Clustering Algorithm Technical Reference.
Linear RegressionLinear regression Punteggio di interesseInterestingness score L'algoritmo Microsoft Linear Regression può utilizzare solo il punteggio di interesse, poiché supporta solo colonne continue.The Microsoft Linear Regression algorithm can only use the interestingness score, because it only supports continuous columns.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Linear Regression.For more information about this algorithm, see Microsoft Linear Regression Algorithm Technical Reference.
Association RulesAssociation rules

Sequence ClusteringSequence clustering
Non usatoNot used La caratteristica di selezione degli attributi non viene richiamata da questi algoritmi.Feature selection is not invoked with these algorithms.

È tuttavia possibile controllare il comportamento dell'algoritmo e ridurre le dimensioni dei dati di input impostando i valori dei parametri MINIMUM_SUPPORT e MINIMUM_PROBABILIITY.However, you can control the behavior of the algorithm and reduce the size of input data if necessary by setting the value of the parameters MINIMUM_SUPPORT and MINIMUM_PROBABILIITY.

Per altre informazioni, vedere Riferimento tecnico per l'algoritmo Microsoft Association Rules e Riferimento tecnico per l'algoritmo Microsoft Sequence Clustering.For more information, see Microsoft Association Algorithm Technical Reference and Microsoft Sequence Clustering Algorithm Technical Reference.
Time SeriesTime series Non usatoNot used La selezione delle caratteristiche non si applica ai modelli Time Series.Feature selection does not apply to time series models.

Per altre informazioni su questo algoritmo, vedere Riferimento tecnico per l'algoritmo Microsoft Time Series.For more information about this algorithm, see Microsoft Time Series Algorithm Technical Reference.

Parametri della selezione delle caratteristicheFeature Selection Parameters

Negli algoritmi che supportano la selezione delle caratteristiche è possibile controllare quando tale selezione è abilitata tramite i parametri riportati di seguito.In algorithms that support feature selection, you can control when feature selection is turned on by using the following parameters. In ogni algoritmo è disponibile un valore predefinito per il numero di input consentiti; tuttavia è possibile eseguire l'override di questo valore predefinito e specificare il numero di attributi.Each algorithm has a default value for the number of inputs that are allowed, but you can override this default and specify the number of attributes. In questa sezione sono elencati i parametri forniti per la gestione della selezione delle caratteristiche.This section lists the parameters that are provided for managing feature selection.

MAXIMUM_INPUT_ATTRIBUTESMAXIMUM_INPUT_ATTRIBUTES

Se in un modello è contenuto un numero di colonne maggiore del numero specificato nel parametro MAXIMUM_INPUT_ATTRIBUTES , vengono ignorate le colonne che in base all'algoritmo non risultano di interesse.If a model contains more columns than the number that is specified in the MAXIMUM_INPUT_ATTRIBUTES parameter, the algorithm ignores any columns that it calculates to be uninteresting.

MAXIMUM_OUTPUT_ATTRIBUTESMAXIMUM_OUTPUT_ATTRIBUTES

In modo analogo, se un modello contiene un numero di colonne stimabili maggiore del numero specificato nel parametro MAXIMUM_OUTPUT_ATTRIBUTES , vengono ignorate le colonne che in base all'algoritmo non risultano di interesse.Similarly, if a model contains more predictable columns than the number that is specified in the MAXIMUM_OUTPUT_ATTRIBUTES parameter, the algorithm ignores any columns that it calculates to be uninteresting.

MAXIMUM_STATESMAXIMUM_STATES

Se un modello contiene un numero di case maggiore del numero specificato nel parametro MAXIMUM_STATES , gli stati usati meno di frequente vengono raggruppati e considerati mancanti.If a model contains more cases than are specified in the MAXIMUM_STATES parameter, the least popular states are grouped together and treated as missing. Se uno di questi parametri è impostato su 0, la selezione delle caratteristiche viene disabilitata con relativo impatto sui tempi di elaborazione e sulle prestazioni.If any one of these parameters is set to 0, feature selection is turned off, affecting processing time and performance.

Oltre a questi metodi per la selezione delle caratteristiche, è possibile migliorare la capacità dell'algoritmo di identificare o promuovere attributi significativi impostando i flag di modellazione sul modello oppure i flag di distribuzione sulla struttura.In addition to these methods for feature selection, you can improve the ability of the algorithm to identify or promote meaningful attributes by setting modeling flags on the model or by setting distribution flags on the structure. Per altre informazioni su questi concetti, vedere Flag di modellazione (Data mining) e Distribuzioni delle colonne (Data mining).For more information about these concepts, see Modeling Flags (Data Mining) and Column Distributions (Data Mining).

Vedere ancheSee Also

Personalizzare struttura e modelli di data miningCustomize Mining Models and Structure