Postagem em destaque

Autoeficácia nas palavras do próprio Albert Bandura

Este artigo traduzido faz parte dos meus estudos de doutorado. Ele fornece um referencial teórico importante para estudantes e professores...

sexta-feira, 21 de janeiro de 2011

Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

Se você não leu o post de introdução à análise fatorial, estará perdendo metade da história. Leia-o aqui.


Abaixo, você pode ver a estatística descritiva com a média e desvio padrão dos itens. Você pode pedir para o SPSS realizar o cálculo da assimetria (skewness) e da curtose. Valores muito diferentes de zero nessas características certamente serão um sinal de não-normalidade da variável. Teste isso com os testes de Kolmogorov-Smirnov e de Shapiro-Wilk - valores de p menores que 0,05 indicarão uma diferença estatisticamente significativa da curva normal esperada.







A matriz de correlação dos itens seguida da significância unicaudal é mostrada parcialmente abaixo, por motivos de espaço.








O valor do determinante foi menor que 0,00001. Isto pode suscitar as hipóteses de que a matriz de correlações apresenta multicolinearidade ou singularidade, ou seja: variáveis excessivamente ou perfeitamente correlacionadas, respectivamente. O exame da matriz não revela variáveis com coeficientes maiores que 0,9. Mesmo assim, é interessante realizar o teste de significância de Haitovsky (não realizado pelo SPSS) para avaliar se o determinante é diferente de zero, ou seja, se a matriz é singular. Se o teste for significante, sabe-se que a matriz de correlação é siginificativamente diferente de uma matriz singular, o que demonstraria não haver multicolinearidade grave.

O teste de Haitovsky é dado pela seguinte fórmula:





Onde p é o número de variáveis, N é o total de participantes da amostra, R é o determinante e ln é o logaritmo natural. O resultado do teste tem distribuição qui-quadrática com p(p – 1)/2 graus de liberdade. Calculando-se para a matriz em análise temos:


Sabendo que os graus de liberdade são dados pela fórmula p(p – 1)/2, então gl = 20(20 – 1)/2 = 20 * 19 / 2 = 380 / 2 = 190. Como os valores críticos do qui-quadrado para p menor que 0,05 com 100 e 200 graus de liberdade são, respectivamente, 124,34 e 233,99. O valor do qui-quadrado encontrado foi bem menor que esses valores, indicando não significância, ou seja, o determinante da matriz não é significativamente diferente de zero, e portanto há uma possibilidade grande de multicolinearidade nesses dados, embora a inspeção da matriz de correlações não tenha mostrado coeficientes com valores elevados. Como a multicolinearidade não é um problema tão grave na análise fatorial quanto é na regressão, vamos conceder o benefício da dúvida e realizar a análise mesmo assim.


Uma opção na análise é utilizar a matriz de covariâncias, a qual poderia levar a um determinante maior que zero, ou mesmo uma estrutura fatorial diferente, por ser mais sensível à variações na dispersão das variáveis, algo que os coeficientes de correlação não consegue detectar, pois, por definição, estes medem apenas o grau de linearidade entre as variáveis, e consequentemente “escondem” a variabilidade na dispersão dos dados.



Em seguida, o SPSS mostra o inverso da matriz de correlações (“inverse of correlation matrix”, R-1), mostrado abaixo, o qual é multiplicado pela matriz de carregamento fatorial (“factor loadings matrix”) para obter a matriz de coeficientes de escore fatorial (“matrix of factor score coefficients”), vista mais adiante.


O KMO, mostrado abaixo, indica a adequação do tamanho da amostra. Valores entre 0,5 e 0,7 são considerados “medíocres”; valores entre 0,7 e 0,8 são “bons”; entre 0,8 e 0,9, “ótimos”; e acima de 0,9, “magníficos”. Essa análise deve ser complementada com a observação da linha diagonal da matriz de correlações de anti-imagem, na qual todas as variáveis devem ter valores acima de 0,5. Se alguma variável tiver valores inferiores a 0,5 na matriz de correlações de anti-imagem, sugere-se realizar a análise excluindo-a e ver a diferença. O restante da matriz de correlações de anti-imagem representa as correlações parciais entre as variáveis. Para uma boa análise fatorial, é desejável que esses valores sejam baixos. Por isso, deve-se inspecionar todos os valores da matriz de correlações de anti-imagem.


O teste de esfericidade de Bartlett testa a hipótese nula de que a matriz de correlação original é uma matriz de identidade. Um teste significativo (p menor que 0,05) nos mostra que a matriz de correlações não é uma matriz de identidade, e que, portanto, há algumas relações entre as variáveis que se espera incluir na análise.


Para esses dados o KMO acima de 0,9 e os valores acima de 0,92 para todas as variáveis na matriz de correlações de anti-imagem indicam tamanho adequado da amostra (procure os valores de adequação amostral para cada variável assinalados com a letra "a" em sobrescrito na matriz de correlações de anti-imagem, não na matriz de covariâncias de anti-imagem). Os valores da matriz de correlações de anti-imagem mostraram baixos coeficientes, indicando baixo nível de correlações parciais. O teste de Bartlett foi altamente significativo [ X2 (190) = 6478,514, p menor que 0,001]; portanto, a realização da análise fatorial é apropriada.




Em seguida o SPSS mostra a tabela de comunalidades.


Para entender o conceito de comunalidade é necessário entender os conceitos de variância comum e variância única (ou específica). A variância total de uma variável em particular terá dois componentes na comparação com as demais variáveis: a variância comum, na qual ela estará dividida com outras variáveis medidas e a variância única, que é específica para essa variável. No entanto, há também variância que é específica a uma variável, mas de forma imprecisa, não-confiável, a qual é chamada de variância aleatória ou erro. Comunalidade é a proporção de variância comum presente numa variável.



Para fazer a redução a dimensões, precisamos saber o quanto de variância dos nossos dados é variância comum. Todavia, a única maneira de sabermos a extensão da variância comum é reduzir as variáveis em dimensões.

Desse modo, na análise dos componentes principais utiliza-se a variância total e assume-se que a comunalidade de cada variável é 1, transpondo os dados originais em componentes lineares constituintes.

Na análise de fatores principais apenas a variância comum é usada e vários métodos de estimação das comunalidades podem ser usados – comumente se utiliza o quadrado da correlação múltipla de cada variável com todas as outras.

Quando os fatores são extraídos, novas comunalidades podem ser calculadas, as quais representam a correlação múltipla entre cada variável e os fatores extraídos. Portanto, pode-se dizer que a comunalidade é uma medida da proporção da variância explicada pelos fatores extraídos.

Em seguida o SPSS mostra a tabela de variância total explicada, com os autovalores ("eigenvalues") correspondentes a cada fator. Para entender melhor o conceito de autovalor você tem que ler o post de introdução à análise fatorial clicando aqui. Nessa tabela os 20 possíveis fatores (o número máximo de variáveis) são apresentados com seus autovalores iniciais, após extração e após rotação. Nas colunas de autovalores iniciais são mostrados os autovalores, o percentual da variância que os fatores são capazes de explicar, e o percentual de variância explicada acumulado em cada fator. Nas três colunas seguintes, os valores dos fatores mantidos na análise após a extração são apenas repetidos e os valores dos fatores excluídos são omitidos. Na última coluna encontram-se os autovalores dos fatores após rotação. A rotação otimiza a estrutura fatorial e, como consequência, a importância relativa dos fatores remanescentes é equalizada.




Caso tenha sido solicitado na análise, o gráfico de scree plot deverá ser mostrado. A explicação para a utilização do gráfico de scree plot está aqui. Mas, para lhe ajudar, fica a dica: veja no gráfico abaixo a existência do ponto de inflexão no fator 3. Pelo critério do scree plot, o número de fatores a ser extraído é o número de fatores à esquerda do ponto de inflexão - neste caso, 2 fatores.






A observação da matriz de componentes permite a visualização dos carregamentos de cada variável para os componentes (fatores) extraídos antes da rotação. Em outras palavras, são os coeficientes de correlação entre as variáveis e os componentes (fatores) não-rotacionados.



A parte superior da tabela de correlações reproduzidas (reproduzida abaixo apenas parcialmente por questão de espaço) contém os coeficientes de correlação entre cada item (questão) baseados no modelo do componente (fator). Os valores diferem da matriz de correlação por que eles são originários do modelo matemático empregado, não dos dados observados. Se os dados observados tivessem um comportamento igual ao do modelo, a matriz de coeficientes de correlações reproduzidas seriam iguais aos da matriz de coeficientes de correlações original. A parte inferior da tabela de correlações reproduzidas traz justamente essa diferença entre os coeficientes observados e o do modelo, os quais são denominados resíduos. Valores de resíduo abaixo de 0,05 são desejáveis e o SPSS contabiliza a quantidade e a porcentagem de resíduos acima de 0,05. Não há regras rígidas para o percentual máximo de resíduos acima de 0,05, embora um percentual acima de 50% deva ser motivo de preocupação. Para os dados estudados, o percentual de 17% de resíduos acima de 0,05 pode ser considerado adequado.



Conforme já dissemos no post de introdução à análise fatorial, quando se compreende que a dimensão (ou fator) é um eixo de classificação no qual as variáveis estão posicionadas, compreende-se a também a importância de se conhecer os métodos de rotação fatorial.

No gráfico a seguir, as variáveis da base de dados analisada são posicionadas de acordo com sua carga fatorial nos dois componentes extraídos após rotação promax.


Na rotação ortogonal, os eixos que representam os componentes (ou fatores), são rotacionados de forma perpendicular entre si (isto é, 90°). Nos métodos de rotação ortogonal, a intenção é que os fatores (componentes) não sejam correlacionados entre si.

Se a rotação oblíqua é escolhida (como o método promax utilizado para estes dados) pretende-se que os fatores (no caso, componentes) obtidos sejam correlacionados entre si. Os eixos que representam os componentes não são mais rotacionados perpendiculares entre si, e sim por um outro ângulo θ qualquer.

Alguns autores argumentam que não existe construto psicológico que não esteja relacionado a outro construto psicológico, e que por isso, dados obtidos em seres humanos jamais deveriam ser submetidos a rotações ortogonais. Portanto, rotações oblíquas como a promax e a oblimin seriam sempre preferíveis.

No SPSS, as rotações ortogonais geram apenas uma matriz fatorial. Quando se escolhe um método de rotação oblíqua, a matriz fatorial é dividida em duas matrizes: a matriz de padrões e a matriz de estrutura.

Em seguida, pode-se verificar a matriz de padrões e a matriz de estrutura. A matriz de padrões contém os carregamentos das variáveis para os fatores rotacionados e é comparável à matriz fatorial observada nas rotações ortogonais.

A matriz de estrutura leva em conta as relações entre os fatores, e é, de fato, um produto da matriz de padrões com a matriz dos coeficientes de correlação entre os fatores. A maioria dos pesquisadores interpreta apenas a matriz de padrões pela simplicidade. Todavia, há situações em que alguns valores na matriz de padrões podem ser suprimidos devido à relação existente entre os componentes. Por isso é aconselhável verificar a matriz de estrutura após a matriz de padrões, bem como incluir as duas matrizes nos resultados.


A matriz de correlação entre os componentes apresentada a seguir evidencia um coeficiente de 0,640 entre os dois componentes (R2 = 0,4096). Uma confirmação de que a rotação oblíqua foi bem escolhida e que dados obtidos por rotações ortogonais não podem ser considerados apropriadamente utilizáveis. Se a correlação entre os componentes fosse baixa e não houvesse relação teórica entre os construtos pretendidos, uma solução por rotação ortogonal seria uma consideração razoável. Todavia, na prática, é mais plausível que fatores pertencentes ao mesmo construto sejam correlacionados, fazendo com que as rotações oblíquas sejam as preferidas nesse caso.



A matriz de coeficiente de escore do componente mostrada abaixo ajuda a entender como cada variável se relaciona aos escores dos componentes calculados para cada participante. É comparável às correlações item-total comumente empregadas na teoria clássica dos testes (correlação item-escore bruto) e na teoria de resposta ao item (correlação item-theta). Correlações item componente maiores que 0,1 são satisfatórias.

A matriz abaixo mostra a covariância entre os escores nos componentes obtidos.


Em seguida, você deve utilizar a ferramenta de análise "Reliability" do SPSS para verificar o alfa de Cronbach dos conjuntos de variáveis correspondentes a cada fator/componente. A análise da confiabilidade pelo método da consistência interna, utilizando-se o coeficiente de alfa de Cronbach indicou que os dois componentes formam duas subescalas precisas (α = 0,947 e 0,952).

Escolha a opção de estatísticas item-total. A tabela de estatísticas item-total mostra a média e a variância da escala se o item fosse excluído, a correlação item-total corrigida, o quadrado da correlação múltipla (usado para o cálculo da comunalidade na análise de fatores principais) e o valor do alfa de Cronbach resultante da exclusão do item. Itens cuja exclusão aumentam o alfa da subescala para valores maiores que o coeficiente resultante (α = 0,952) terão correlação item-total menor que a média e prejudicam a confiabilidade do instrumento. Consequentemente, itens cuja exclusão diminuem o alfa para valores menores que 0,952 terão correlação item total maior que a média. Por esta análise, o item com pior qualidade psicométrica da subescala representada pelo componente 1 foi o item 18. Observe que é também o item com o pior valor do quadrado do coeficiente de correlação múltipla. Portanto o item 18 seria um bom candidato à exclusão caso houvesse uma redução muito grande do alfa ou caso a correlação item-total fosse muito baixa (menor que 0,2), o que não é o caso.




E para finalizar a série sobre análise fatorial, um pequeno epílogo: Como escrever resumidamente e de forma correta os resultados da sua análise fatorial.

Vou melhorar sempre que possível o texto deste post. Aguardo as sugestões de vocês.

Abraços,

Collares

Related Posts Plugin for WordPress, Blogger...