If you need an accessible version of this item please contact JSTOR User Support

Factor Analysis Regression

Alexander Basilevsky
The Canadian Journal of Statistics / La Revue Canadienne de Statistique
Vol. 9, No. 1 (1981), pp. 109-117
Stable URL: http://www.jstor.org/stable/3315301
Page Count: 9
  • Download PDF
  • Cite this Item

You are not currently logged in.

Access your personal account or get JSTOR access through your library or other institution:

login

Log in to your personal account or through your institution.

If you need an accessible version of this item please contact JSTOR User Support
Factor Analysis Regression
Preview not available

Abstract

The paper describes two regression models-principal components and maximum-likelihood factor analysis-which may be used when the stochastic predictor varibles are highly intercorrelated and/or contain measurement error. The two problems can occur jointly, for example in social-survey data where the true (but unobserved) covariance matrix can be singular. Departure from singularity of the sample dispersion matrix is then due to measurement error. We first consider the more elementary principal components regression model, where it is shown that it can be derived as a special case of (i) canonical correlation, and (ii) restricted least squares. The second part consists of the more general maximum-likelihood factor-analysis regression model, which is derived from the generalized inverse of the product of two singular matrices. Also, it is proved that factor-analysis regression can be considered as an instrumental variables estimator and therefore does not depend on whether factors have been "properly" identified in terms of substantive behaviour. Consequently the additional task of rotating factors to "simple structure" does not arise. /// Cet article étudie deux modèles de régression: l'analyse factorielle à l'aide de la méthode du maximum de vraisemblance et le modèle des composantes principales, qui peuvent être utilisés quand les prédicteurs stochastiques sont fortement corrélés et/ou contiennent des observations erronnées; les deux problèmes peuvent se présenter simultanément, par exemple en échantillonnage où la matrice (inconnue) de variances-covariances peut être singulière. Nous considérons d'abord le modèle élémentaire de régression à composantes principales; nous démontrons que ce modèle peut être considéré comme un cas particulier (i) d'un modèle à corrélation canonique et (ii) d'un modèle des moindres carrés restreint. Dans la deuxième partie, nous étudions un modèle de régression et analyse factorielle à l'aide de la méthode du maximum de vraisemblance; le modèle dépend de l'inverse généralisé du produit de deux matrices singulières. On démontre que le modèle à régression et analyse factorielle sert à déterminer les variables effectives et ne dépend donc pas de l'identification préalable des facteurs à des comportements spécifiques. Ainsi il n'est pas nécessaire de faire une rotation des facteurs comme en analyse factorielle classique.

Page Thumbnails

  • Thumbnail: Page 
109
    109
  • Thumbnail: Page 
110
    110
  • Thumbnail: Page 
111
    111
  • Thumbnail: Page 
112
    112
  • Thumbnail: Page 
113
    113
  • Thumbnail: Page 
114
    114
  • Thumbnail: Page 
115
    115
  • Thumbnail: Page 
116
    116
  • Thumbnail: Page 
117
    117