Statistics Toolbox

Regressione e ANOVA

Regressione

Con la regressione, è possibile modellare una variabile di risposta continua in funzione di uno o più predittori. Statistics Toolbox offre una vasta gamma di algoritmi di regressione, tra cui regressione lineare, modelli lineari generalizzati, regressione non lineare e modelli a effetti misti.

Regressione lineare

La regressione lineare è una tecnica di modellazione statistica usata per descrivere una variabile di risposta continua in funzione di una o più variabili del predittore. Può contribuire a capire e a prevedere il comportamento di sistemi complessi, nonché ad analizzare dati sperimentali, finanziari e biologici.

Il toolbox offre vari modelli di regressione lineare e vari metodi di fitting, tra cui:

  • Semplice: modello con un solo predittore.
  • Multiplo: modello con predittori multipli.
  • Multivariato: modello con variabili di risposta multiple.
  • Robusto: modello in presenza di outlier.
  • Graduale: modello con selezione automatica delle variabili.
  • Regolarizzato: modello che può gestire predittori ridondanti e prevenire l’overfitting usando algoritmi di ridge, lasso ed elastic net.

Statistica computazionale: Selezione funzioni, regolarizzazione e shrinkage con MATLAB 36:51
Apprendere come generare precisi fitting in presenza di dati correlati.

Regressione non lineare

La regressione non lineare è una tecnica di modellazione statistica che aiuta a descrivere le relazioni non lineari in dati sperimentali. In genere si presuppone che i modelli di regressione non lineare siano parametrici, con il modello che è descritto come un’equazione non lineare. Per la regressione non lineare non parametrica, vengono tipicamente utilizzati i metodi di apprendimento automatico.

Il toolbox offre inoltre un fitting non lineare di tipo robusto per gestire gli outlier nei dati.

Adattamento con MATLAB: Statistica, ottimizzazione e adattamento della curva 38:37
Applicare algoritmi di regressione con MATLAB.

Modelli lineari generalizzati

I modelli lineari generalizzati sono un tipo speciale di modello non lineare che utilizza metodi lineari. Essi consentono alle variabili di risposta di avere distribuzioni non normali e una funzione di link che descrive come il valore atteso della risposta sia correlato ai predittori lineari.

Statistics Toolbox supporta il fitting di modelli lineari generalizzati con le seguenti distribuzioni di risposta:

  • Normale (regressione probit).
  • Binomiale (regressione logistica).
  • Poisson.
  • Gamma.
  • Gaussiana inversa.
Fitting di dati con modelli lineari generalizzati (esempio)
Come eseguire il fitting e la valutazione di modelli lineari generalizzati usando glmfit e glmval

Modelli a effetti misti

I modelli a effetti misti lineari e non lineari sono generalizzazioni di modelli lineari e non lineari per dati raccolti e sintetizzati in gruppi. Tali modelli descrivono la relazioni fra una variabile di risposta e variabili indipendenti, con coefficienti che possono variare in relazione a una o più variabili di raggruppamento.

Statistics Toolbox supporta il fitting di modelli multilivello o gerarchici con effetti casuali nidificati e/o incrociati, che si possono usare per eseguire svariati studi fra cui:

  • analisi longitudinale/analisi di panel.
  • modellazione delle misure ripetute.
  • modellazione di crescita.
rafico di confronto fra i prodotti interni lordi di tre Stati: a sinistra, il fitting ha usato un modello a effetti misti multilivello; a destra, il fitting ha usato i minimi quadrati. La funzione <code>fitlme</code> di Statistics Toolbox può creare modelli con precisione predittiva crescente quando i dati vengono raccolti e sintetizzati in gruppi.
rafico di confronto fra i prodotti interni lordi di tre Stati: a sinistra, il fitting ha usato un modello a effetti misti multilivello; a destra, il fitting ha usato i minimi quadrati. La funzione fitlme di Statistics Toolbox può creare modelli con precisione predittiva crescente quando i dati vengono raccolti e sintetizzati in gruppi.

Valutazione dei modelli

Statistics Toolbox consente di valutare i modelli per gli algoritmi di regressione usando test di significatività statistica e misure di bontà del fitting, come ad esempio:

  • statistica f e statistica t.
  • R2 e R2 aggiustato.
  • errore quadratico medio a convalida incrociata.
  • criterio di informazione Akaike (AIC) e criterio di informazione Bayesiano (BIC).

È possibile calcolare gli intervalli di confidenza sia per i coefficienti di regressione che per i valori stimati.

Regressione non parametrica

Statistics Toolbox supporta anche tecniche di regressione non parametriche per la generazione di fitting accurati senza specificare un modello che descriva la relazione tra il predittore e la risposta. Le tecniche di regressione non parametrica possono essere fatte rientrare nella più ampia categoria dell’apprendimento automatico con supervisione e includono alberi decisionali, alberi di regressione con boosting e alberi di regressione con bagging.

Fitting non parametrico 4:07
Sviluppare un modello predittivo quando non è possibile specificare una funzione che descriva la relazione tra le variabili.

ANOVA

L’analisi di varianza (ANOVA) consente di assegnare la varianza campione a diverse sorgenti e determinare se la variazione compare all’interno o tra diversi gruppi di popolazione. Statistics Toolbox include i seguenti algoritmi ANOVA e le tecniche correlate:

Avanti: Apprendimento automatico

Prova Statistics Toolbox

Richiedi la versione di prova

Machine Learning with MATLAB

Visualizza webinar