AIC vs BIC
AIC et BIC sont largement utilisés dans les critères de sélection des modèles. AIC signifie Critères d'information d'Akaike et BIC signifie Critères d'information Bayésiens. Bien que ces deux termes concernent le choix du modèle, ils ne sont pas les mêmes. On peut constater une différence entre les deux approches de la sélection du modèle.
Les critères d'information d'Akaike ont été créés en 1973 et les critères d'information bayésiens en 1978. Hirotsugu Akaike a développé les critères d'information d'Akaike alors que Gideon E. Schwarz a développé le critère d'information bayésien.
L'AIC peut être qualifié de mesure de la qualité de l'ajustement de tout modèle statistique estimé. Le BIC est un type de sélection de modèle parmi une classe de modèles paramétriques avec différents nombres de paramètres.
Lorsque l'on compare les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour les paramètres supplémentaires est plus importante dans le BIC que dans le AIC. Contrairement à l'AIC, le BIC pénalise davantage les paramètres libres.
Les critères d’information d’Akaike essaient généralement de trouver un modèle inconnu présentant une réalité de grande dimension. Cela signifie que les modèles ne sont pas de vrais modèles dans AIC. D'autre part, les critères d'information bayésiens ne concernent que les modèles True. On peut également dire que les critères d’information bayésiens sont cohérents, alors que les critères d’information d’Akaike ne le sont pas.
Lorsque les critères d’information d’Akaike présenteront le danger de l’équipement. les critères d’information bayésiens présenteront le risque de sous-dotation. Bien que BIC soit plus tolérant que l'AIC, il montre moins de tolérance pour les nombres plus élevés.
Les critères d'information d'Akaike permettent de rendre asymptotiquement équivalente la validation croisée. Au contraire, les critères d’information bayésiens sont bons pour une estimation cohérente.
Résumé
1. AIC signifie Critères d'information d'Akaike et BIC signifie Critères d'information Bayésiens.
2. Les critères d'information d'Akaike ont été créés en 1973 et les critères d'information bayésiens en 1978..
3. Lors de la comparaison des critères d'information bayésiens et des critères d'information d'Akaike, la pénalité pour des paramètres supplémentaires est plus importante dans BIC que dans AIC.
4. Les critères d'information d'Akaike tentent généralement de trouver un modèle inconnu présentant une réalité dimensionnelle élevée. Par ailleurs, les critères d’information bayésiens ne se rencontrent que dans les modèles True..
5. Les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne le sont pas.
6. Les critères d'information d'Akaike permettent de rendre asymptotiquement équivalente la validation croisée. Au contraire, les critères d’information bayésiens sont bons pour une estimation cohérente.
7. Bien que BIC soit plus tolérant que l'AIC, il montre moins de tolérance pour les nombres plus élevés.
8. Contrairement à l'AIC, le BIC pénalise davantage les paramètres libres.
//