Postagem em destaque

Autoeficácia nas palavras do próprio Albert Bandura

Este artigo traduzido faz parte dos meus estudos de doutorado. Ele fornece um referencial teórico importante para estudantes e professores...

sábado, 29 de janeiro de 2011

O MELHOR LIVRO A SER LIDO

Difícil essa. Não sei. Livros são tão amigos... Os outros podem ficar com ciúmes se eu escolher só um, hehehe...

Mas, neste momento da minha vida, o melhor livro pra mim é o Field, Discovering Statistics Using SPSS, 3e 'and' SPSS CD Version 17.0. O segundo melhor vai para "Item Response Theory for Psychologists" de Embretson e Reise, que não está mais à venda na Amazon; contudo um novo livro sobre Teoria de Resposta ao item escrito pela dupla acabou de ser lançado e deve ser muito bom: Item Response Theory (Multivariate Applications Series).

Se você já tiver um conhecimento razoável de Psicometria, a dica quente é o excelente e gigantesco livro Handbook of Statistics, Volume 26: Psychometrics.

Se você não lê em inglês, minha dica é ler pelo menos o Estatística sem Matemática para Psicologia usando SPSS para Windows.

Livro com enredo? Ah, dificultou. Fico com o "Estação Carandiru", do Dráuzio Varella.

Ask me anything

sábado, 22 de janeiro de 2011

Como descrever os resultados de sua análise fatorial

Se você começou a ler sobre análise fatorial neste blog só agora, sugiro fortemente que leia este e este post para facilitar sua compreensão.

Nas análises fatoriais pode ser difícil equacionar as necessidades de sermos concisos e completos ao mesmo tempo.

Por isso, transcrevo abaixo um modelo para reportar sua análise fatorial de forma completa e resumida. Espero que gostem.


"Uma análise de componentes principais foi conduzida nos 20 itens do instrumento com rotação ortogonal (varimax) em uma amostra de 366 participantes. A medida de Kaiser-Meyer-Olkin verificou a adequação amostral para a análise (KMO = 0,963) e todos os valores de KMO para os itens individualmente foram maiores que 0,92. O teste de esfericidade de Bartlett [qui-quadrado (190) = 6478,514, p menor que 0,001], indicou que as correlações entre os itens são suficientes para a realização da análise. A análise inicial mostrou que dois componentes obedeceram o critério de Kaiser do autovalor (“eigenvalue”) maior que 1 e explicaram 69,70% da variância. O scree plot mostrou que os dois componentes estão posicionados antes da inflexão. Considerando o tamanho da amostra e a convergência entre o scree plot e o critério de Kaiser, este foi o número de componentes mantido na análise final. Os autovalores rotacionados para os componentes foram 9,95 e 9,85. A matriz de padrões e a matriz de estrutura mostraram que os itens positivos, ou seja, que utilizaram escores brutos da escala tipo Likert, tiveram maior carga no componente 1; e que os itens negativos, ou seja, que necessitaram inversão de escores, tiveram maior carga no componente 2. Os coeficientes de alfa de Cronbach dos componentes 1 e 2 foram 0,952 e 0,947, respectivamente, indicando confiabilidade pelo método da consistência interna."

sexta-feira, 21 de janeiro de 2011

Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

Se você não leu o post de introdução à análise fatorial, estará perdendo metade da história. Leia-o aqui.


Abaixo, você pode ver a estatística descritiva com a média e desvio padrão dos itens. Você pode pedir para o SPSS realizar o cálculo da assimetria (skewness) e da curtose. Valores muito diferentes de zero nessas características certamente serão um sinal de não-normalidade da variável. Teste isso com os testes de Kolmogorov-Smirnov e de Shapiro-Wilk - valores de p menores que 0,05 indicarão uma diferença estatisticamente significativa da curva normal esperada.







A matriz de correlação dos itens seguida da significância unicaudal é mostrada parcialmente abaixo, por motivos de espaço.








O valor do determinante foi menor que 0,00001. Isto pode suscitar as hipóteses de que a matriz de correlações apresenta multicolinearidade ou singularidade, ou seja: variáveis excessivamente ou perfeitamente correlacionadas, respectivamente. O exame da matriz não revela variáveis com coeficientes maiores que 0,9. Mesmo assim, é interessante realizar o teste de significância de Haitovsky (não realizado pelo SPSS) para avaliar se o determinante é diferente de zero, ou seja, se a matriz é singular. Se o teste for significante, sabe-se que a matriz de correlação é siginificativamente diferente de uma matriz singular, o que demonstraria não haver multicolinearidade grave.

O teste de Haitovsky é dado pela seguinte fórmula:





Onde p é o número de variáveis, N é o total de participantes da amostra, R é o determinante e ln é o logaritmo natural. O resultado do teste tem distribuição qui-quadrática com p(p – 1)/2 graus de liberdade. Calculando-se para a matriz em análise temos:


Sabendo que os graus de liberdade são dados pela fórmula p(p – 1)/2, então gl = 20(20 – 1)/2 = 20 * 19 / 2 = 380 / 2 = 190. Como os valores críticos do qui-quadrado para p menor que 0,05 com 100 e 200 graus de liberdade são, respectivamente, 124,34 e 233,99. O valor do qui-quadrado encontrado foi bem menor que esses valores, indicando não significância, ou seja, o determinante da matriz não é significativamente diferente de zero, e portanto há uma possibilidade grande de multicolinearidade nesses dados, embora a inspeção da matriz de correlações não tenha mostrado coeficientes com valores elevados. Como a multicolinearidade não é um problema tão grave na análise fatorial quanto é na regressão, vamos conceder o benefício da dúvida e realizar a análise mesmo assim.


Uma opção na análise é utilizar a matriz de covariâncias, a qual poderia levar a um determinante maior que zero, ou mesmo uma estrutura fatorial diferente, por ser mais sensível à variações na dispersão das variáveis, algo que os coeficientes de correlação não consegue detectar, pois, por definição, estes medem apenas o grau de linearidade entre as variáveis, e consequentemente “escondem” a variabilidade na dispersão dos dados.



Em seguida, o SPSS mostra o inverso da matriz de correlações (“inverse of correlation matrix”, R-1), mostrado abaixo, o qual é multiplicado pela matriz de carregamento fatorial (“factor loadings matrix”) para obter a matriz de coeficientes de escore fatorial (“matrix of factor score coefficients”), vista mais adiante.


O KMO, mostrado abaixo, indica a adequação do tamanho da amostra. Valores entre 0,5 e 0,7 são considerados “medíocres”; valores entre 0,7 e 0,8 são “bons”; entre 0,8 e 0,9, “ótimos”; e acima de 0,9, “magníficos”. Essa análise deve ser complementada com a observação da linha diagonal da matriz de correlações de anti-imagem, na qual todas as variáveis devem ter valores acima de 0,5. Se alguma variável tiver valores inferiores a 0,5 na matriz de correlações de anti-imagem, sugere-se realizar a análise excluindo-a e ver a diferença. O restante da matriz de correlações de anti-imagem representa as correlações parciais entre as variáveis. Para uma boa análise fatorial, é desejável que esses valores sejam baixos. Por isso, deve-se inspecionar todos os valores da matriz de correlações de anti-imagem.


O teste de esfericidade de Bartlett testa a hipótese nula de que a matriz de correlação original é uma matriz de identidade. Um teste significativo (p menor que 0,05) nos mostra que a matriz de correlações não é uma matriz de identidade, e que, portanto, há algumas relações entre as variáveis que se espera incluir na análise.


Para esses dados o KMO acima de 0,9 e os valores acima de 0,92 para todas as variáveis na matriz de correlações de anti-imagem indicam tamanho adequado da amostra (procure os valores de adequação amostral para cada variável assinalados com a letra "a" em sobrescrito na matriz de correlações de anti-imagem, não na matriz de covariâncias de anti-imagem). Os valores da matriz de correlações de anti-imagem mostraram baixos coeficientes, indicando baixo nível de correlações parciais. O teste de Bartlett foi altamente significativo [ X2 (190) = 6478,514, p menor que 0,001]; portanto, a realização da análise fatorial é apropriada.




Em seguida o SPSS mostra a tabela de comunalidades.


Para entender o conceito de comunalidade é necessário entender os conceitos de variância comum e variância única (ou específica). A variância total de uma variável em particular terá dois componentes na comparação com as demais variáveis: a variância comum, na qual ela estará dividida com outras variáveis medidas e a variância única, que é específica para essa variável. No entanto, há também variância que é específica a uma variável, mas de forma imprecisa, não-confiável, a qual é chamada de variância aleatória ou erro. Comunalidade é a proporção de variância comum presente numa variável.



Para fazer a redução a dimensões, precisamos saber o quanto de variância dos nossos dados é variância comum. Todavia, a única maneira de sabermos a extensão da variância comum é reduzir as variáveis em dimensões.

Desse modo, na análise dos componentes principais utiliza-se a variância total e assume-se que a comunalidade de cada variável é 1, transpondo os dados originais em componentes lineares constituintes.

Na análise de fatores principais apenas a variância comum é usada e vários métodos de estimação das comunalidades podem ser usados – comumente se utiliza o quadrado da correlação múltipla de cada variável com todas as outras.

Quando os fatores são extraídos, novas comunalidades podem ser calculadas, as quais representam a correlação múltipla entre cada variável e os fatores extraídos. Portanto, pode-se dizer que a comunalidade é uma medida da proporção da variância explicada pelos fatores extraídos.

Em seguida o SPSS mostra a tabela de variância total explicada, com os autovalores ("eigenvalues") correspondentes a cada fator. Para entender melhor o conceito de autovalor você tem que ler o post de introdução à análise fatorial clicando aqui. Nessa tabela os 20 possíveis fatores (o número máximo de variáveis) são apresentados com seus autovalores iniciais, após extração e após rotação. Nas colunas de autovalores iniciais são mostrados os autovalores, o percentual da variância que os fatores são capazes de explicar, e o percentual de variância explicada acumulado em cada fator. Nas três colunas seguintes, os valores dos fatores mantidos na análise após a extração são apenas repetidos e os valores dos fatores excluídos são omitidos. Na última coluna encontram-se os autovalores dos fatores após rotação. A rotação otimiza a estrutura fatorial e, como consequência, a importância relativa dos fatores remanescentes é equalizada.




Caso tenha sido solicitado na análise, o gráfico de scree plot deverá ser mostrado. A explicação para a utilização do gráfico de scree plot está aqui. Mas, para lhe ajudar, fica a dica: veja no gráfico abaixo a existência do ponto de inflexão no fator 3. Pelo critério do scree plot, o número de fatores a ser extraído é o número de fatores à esquerda do ponto de inflexão - neste caso, 2 fatores.






A observação da matriz de componentes permite a visualização dos carregamentos de cada variável para os componentes (fatores) extraídos antes da rotação. Em outras palavras, são os coeficientes de correlação entre as variáveis e os componentes (fatores) não-rotacionados.



A parte superior da tabela de correlações reproduzidas (reproduzida abaixo apenas parcialmente por questão de espaço) contém os coeficientes de correlação entre cada item (questão) baseados no modelo do componente (fator). Os valores diferem da matriz de correlação por que eles são originários do modelo matemático empregado, não dos dados observados. Se os dados observados tivessem um comportamento igual ao do modelo, a matriz de coeficientes de correlações reproduzidas seriam iguais aos da matriz de coeficientes de correlações original. A parte inferior da tabela de correlações reproduzidas traz justamente essa diferença entre os coeficientes observados e o do modelo, os quais são denominados resíduos. Valores de resíduo abaixo de 0,05 são desejáveis e o SPSS contabiliza a quantidade e a porcentagem de resíduos acima de 0,05. Não há regras rígidas para o percentual máximo de resíduos acima de 0,05, embora um percentual acima de 50% deva ser motivo de preocupação. Para os dados estudados, o percentual de 17% de resíduos acima de 0,05 pode ser considerado adequado.



Conforme já dissemos no post de introdução à análise fatorial, quando se compreende que a dimensão (ou fator) é um eixo de classificação no qual as variáveis estão posicionadas, compreende-se a também a importância de se conhecer os métodos de rotação fatorial.

No gráfico a seguir, as variáveis da base de dados analisada são posicionadas de acordo com sua carga fatorial nos dois componentes extraídos após rotação promax.


Na rotação ortogonal, os eixos que representam os componentes (ou fatores), são rotacionados de forma perpendicular entre si (isto é, 90°). Nos métodos de rotação ortogonal, a intenção é que os fatores (componentes) não sejam correlacionados entre si.

Se a rotação oblíqua é escolhida (como o método promax utilizado para estes dados) pretende-se que os fatores (no caso, componentes) obtidos sejam correlacionados entre si. Os eixos que representam os componentes não são mais rotacionados perpendiculares entre si, e sim por um outro ângulo θ qualquer.

Alguns autores argumentam que não existe construto psicológico que não esteja relacionado a outro construto psicológico, e que por isso, dados obtidos em seres humanos jamais deveriam ser submetidos a rotações ortogonais. Portanto, rotações oblíquas como a promax e a oblimin seriam sempre preferíveis.

No SPSS, as rotações ortogonais geram apenas uma matriz fatorial. Quando se escolhe um método de rotação oblíqua, a matriz fatorial é dividida em duas matrizes: a matriz de padrões e a matriz de estrutura.

Em seguida, pode-se verificar a matriz de padrões e a matriz de estrutura. A matriz de padrões contém os carregamentos das variáveis para os fatores rotacionados e é comparável à matriz fatorial observada nas rotações ortogonais.

A matriz de estrutura leva em conta as relações entre os fatores, e é, de fato, um produto da matriz de padrões com a matriz dos coeficientes de correlação entre os fatores. A maioria dos pesquisadores interpreta apenas a matriz de padrões pela simplicidade. Todavia, há situações em que alguns valores na matriz de padrões podem ser suprimidos devido à relação existente entre os componentes. Por isso é aconselhável verificar a matriz de estrutura após a matriz de padrões, bem como incluir as duas matrizes nos resultados.


A matriz de correlação entre os componentes apresentada a seguir evidencia um coeficiente de 0,640 entre os dois componentes (R2 = 0,4096). Uma confirmação de que a rotação oblíqua foi bem escolhida e que dados obtidos por rotações ortogonais não podem ser considerados apropriadamente utilizáveis. Se a correlação entre os componentes fosse baixa e não houvesse relação teórica entre os construtos pretendidos, uma solução por rotação ortogonal seria uma consideração razoável. Todavia, na prática, é mais plausível que fatores pertencentes ao mesmo construto sejam correlacionados, fazendo com que as rotações oblíquas sejam as preferidas nesse caso.



A matriz de coeficiente de escore do componente mostrada abaixo ajuda a entender como cada variável se relaciona aos escores dos componentes calculados para cada participante. É comparável às correlações item-total comumente empregadas na teoria clássica dos testes (correlação item-escore bruto) e na teoria de resposta ao item (correlação item-theta). Correlações item componente maiores que 0,1 são satisfatórias.

A matriz abaixo mostra a covariância entre os escores nos componentes obtidos.


Em seguida, você deve utilizar a ferramenta de análise "Reliability" do SPSS para verificar o alfa de Cronbach dos conjuntos de variáveis correspondentes a cada fator/componente. A análise da confiabilidade pelo método da consistência interna, utilizando-se o coeficiente de alfa de Cronbach indicou que os dois componentes formam duas subescalas precisas (α = 0,947 e 0,952).

Escolha a opção de estatísticas item-total. A tabela de estatísticas item-total mostra a média e a variância da escala se o item fosse excluído, a correlação item-total corrigida, o quadrado da correlação múltipla (usado para o cálculo da comunalidade na análise de fatores principais) e o valor do alfa de Cronbach resultante da exclusão do item. Itens cuja exclusão aumentam o alfa da subescala para valores maiores que o coeficiente resultante (α = 0,952) terão correlação item-total menor que a média e prejudicam a confiabilidade do instrumento. Consequentemente, itens cuja exclusão diminuem o alfa para valores menores que 0,952 terão correlação item total maior que a média. Por esta análise, o item com pior qualidade psicométrica da subescala representada pelo componente 1 foi o item 18. Observe que é também o item com o pior valor do quadrado do coeficiente de correlação múltipla. Portanto o item 18 seria um bom candidato à exclusão caso houvesse uma redução muito grande do alfa ou caso a correlação item-total fosse muito baixa (menor que 0,2), o que não é o caso.




E para finalizar a série sobre análise fatorial, um pequeno epílogo: Como escrever resumidamente e de forma correta os resultados da sua análise fatorial.

Vou melhorar sempre que possível o texto deste post. Aguardo as sugestões de vocês.

Abraços,

Collares

Introdução à análise fatorial e análise de componentes principais


Análise fatorial, pra quem não lembra ou não sabe, é uma técnica para se reduzir o número de variáveis de uma base de dados, identificando o padrão de correlações ou de covariância entre elas e gerando um número menor de novas variáveis latentes, não observadas, calculadas a partir dos dados brutos.

A redução a um número menor de variáveis, também chamados muitas vezes de “fatores”, “dimensões” ou “componentes”, maximiza o poder de explicação do conjunto de todas as variáveis e possibilitam identificar subgrupos de questões que avaliam uma mesma habilidade ou capacidade cognitiva (PASQUALI, 2009; PRIMI, 2003; PRIMI, 2006; THOMPSON, 2004; YANAI & ICHIKAWA, 2007).

As técnicas de análise fatorial exploratória e confirmatória proporcionam evidências de validade para questionários comumente usados para diversos fins, sejam eles de respostas dicotômicas ou ainda escalas tipo Likert.

Essas técnicas são muito importantes, dentre outras áreas, em Psicometria e Sociometria. Todavia, são pouco utilizadas entre nós. Por isso, resolvi fazer este nem tão breve tutorial, calcado nas minhas próprias dificuldades iniciais em interpretar os longos resultados gerados a partir do SPSS (Statistical Package for Social Sciences) para esse tipo de análise.

É importante ressaltar a sistematização dos passos a serem seguidos na análise antes de começarmos a interpretação propriamente dita. Isso será um pouco longo, mas de grande valia para que você consiga interpretar bem sua análise.

Primeiramente, deve-se verificar o tamanho da amostra, o número de variáveis que se pretente analisar e quais variáveis serão escolhidas para a análise. Geralmente aceita-se uma amostra com pelo menos 50 pessoas, mesmo que sejam poucas variáveis a serem analisadas. A relação de pelo menos 5 participantes por variável deve ser obedecida, sendo que o ideal são 10 participantes por variável.

Além do tamanho da amostra em relação ao número de variáveis, outros pressupostos devem ser seguidos, como a normalidade, linearidade, homocedasticidade. Em amostras grandes e variáveis bem delineadas (p. ex., itens bem escritos), esses pressupostos não deverão ser motivo de preocupação. Mesmo assim, tão logo quanto possível postarei links para ajudá-lo a verificar se os mesmos estão sendo obedecidos.

Na maior parte das vezes os termos análise de fatores comuns e análise de componentes principais são utilizados como sinônimos, porém não o são, mesmo não havendo grande diferença em seus métodos e resultados, afinal ambos são métodos de análise fatorial. A diferença conceitual importante aqui é que na análise de componentes principais a variância a ser considerada para a extração dos fatores é a variância total, e na análise fatores comuns considera-se apenas a variância comum entre as variáveis.

Em seguida, deve-se realizar o procedimento de extração de fatores em análise fatorial exploratória. Nem todos os fatores são aproveitáveis numa análise fatorial e há controvérsia sobre os critérios que determinam quando um fator é estatisticamente importante. A determinação do número de fatores pode ser facilitada por meio da análise do gráfico de scree plot, técnica advogada por Cattell (1966).

O scree plot mostra o número de componentes fatoriais extraídos em relação aos autovalores (“eigenvalues”) associados a esses fatores. Para entender o melhor o scree plot e o conceito de autovalor, é necessário conhecer o conceito de autovetor (“eigenvector”). Os autovetores de uma matriz de correlações consistem em representações lineares que são identificáveis no gráfico de scatterplot pelos maiores e menores diâmetros da elipse visualizável a partir dos pontos formados neste gráfico. Para facilitar sua compreensão, procure visualizar uma elipse em torno dos pontos presentes em do scatterplot presente na Figura 1.

Figura 1 - Exemplo de scatterplot

Os autovalores são, por sua vez, medidas do comprimento dos autovetores na elipse, ou da figura tridimensional elipticóide – se considerarmos correlações multivariadas. Portanto, ao analisarmos os autovalores de um conjunto de dados, consegue-se conhecer de que forma as variâncias da matriz de correlações estão distribuídas. Em outras palavras, é possível visualizar as grandezas da figura elipsóide formada na distribuição espacial das variáveis. O autovalor é calculado pela soma dos quadrados dos carregamentos de cada variável para a variável latente representada pelo fator obtido. O entendimento do conceito de autovalor é facilitado ao lembrarmos dois pontos importantes: 1) o carregamento (loading) é o valor do coeficiente de correlação entre a variável e o fator obtido; e 2) o quadrado do coeficiente de qualquer correlação é igual a porcentagem da variância de uma variável que é explicada pela outra. (FIELD, 2009).

Portanto, quando se analisa os autovalores de um conjunto de dados, consegue-se conhecer de que forma as variâncias da matriz de correlações estão distribuídas. Em outras palavras, os autovalores representam o quanto da variância é explicada pelo fator.

O número de fatores a ser utilizado pode suscitar dúvidas pois é comum haver divergência entre os métodos empregados. É praxe buscar-se o menor número possível de fatores. Geralmente, esse número equivale ao número de fatores anterior ao ponto de inflexão da curva, apontada pela seta da Figura 2, os quais apresentam autovalores consideravelmente mais elevados à esquerda. Note nessa figura que o único fator com autovalor maior que 1,0 é o primeiro, demonstrando que o conjunto de dados é unidimensional.

Figura 2 - Exemplo de scree plot.

Pelo critério de Kaiser (manter fatores com “eigenvalue”, ou autovalor, maior que 1), deve-se manter dois fatores. Outro critério, criado por Jolliffe, preconiza manter fatores com “eigenvalue” maior que 0,7, pois para esse autor, o critério de Kaiser é muito restritivo. O critério de Kaiser tem acurácia quando o número de variáveis é menor que 30 e as comunalidades são maiores que 0,7 ou quando o tamanho da amostra é maior que 250 e a comunalidade média é maior que 0,6.

Há um problema fundamental no critério de Kaiser e em qualquer outro critério que utilize um valor de cut-off para determinação de quais fatores devem ser retidos, incluindo o de Jolliffe: a magnitude da variância explicada expressa pelo autovalor depende da quantidade de variáveis. Um autovalor de 1 numa análise com 100 variáveis significa que o fator explica 1% da variância. Um autovalor de 1 numa análise com 10 variáveis significa que o fator explica 10% da variância. Um autovalor de 1 também significa que o fator explica tanta variância quanto uma variável, o que evidencia a não-realização da intenção original da análise de reduzir as variáveis para um número menor e mais “substantivo” de fatores subjacentes. Consequentemente, o critério de Kaiser frequentemente superestima o número de fatores e o critério de Jolliffe é ainda pior, já que o fator explicaria menos variância do que uma variável original. Por isso que a análise do scree plot para verificação do ponto de inflexão é tão importante, além do percentual de variância explicada (pelo menos 3%, idealmente mais que 5%).

Uma outra opção para verificação do número de fatores a serem mantidos é a análise paralela. Bases de dados com as mesmas características da base a ser analisada são geradas aleatoriamente para terem seus autovalores comparados. Os fatores são mantidos se seus autovalores forem maiores que os autovalores das bases com dados randômicos.

Se a análise fatorial revela a unidimensionalidade do instrumento de avaliação, a utilização da teoria clássica dos testes para o cálculo da discriminação do item torna-se mais aceitável quando calculada por meio de coeficiente de correlação item-total e também é um dos
pressupostos da teoria de resposta ao item. Outros métodos para avaliação da dimensionalidade incluem a análise de componentes principais da matriz de correlações inter-itens, empregada na teoria clássica dos testes; e a análise de componentes principais dos
resíduos do modelo de regressão logística, empregado na teoria de resposta ao item.

Quando se compreende que a dimensão (ou fator) é um eixo de classificação no qual as variáveis estão posicionadas, compreende-se a importância de se conhecer os métodos de rotação fatorial. Não cabe o detalhamento dos métodos de rotação no escopo deste artigo. No
entanto, deve-se esclarecer que a rotação escolhida para extração dos fatores depende principalmente do grau de inter-relação que se supõe para seus fatores. Se você deseja encontrar fatores independentes, os métodos de rotação ortogonal, como o varimax, são preferidos em detrimento daqueles de rotação oblíqua, como o promax e o direct oblimin - mais apropriados para fatores correlacionados entre si.

Com essa introdução espero ter esclarecido alguns conceitos importantes para a realização e a interpretação da análise fatorial.

Não deixe de ler o post que continua a discussão a respeito de análise fatorial com a interpretação dos resultados gerados a partir do SPSS clicando aqui.

Aguardo os comentários de vocês e as sugestões para aprimoramento deste post!

Abraços,

Collares

quinta-feira, 20 de janeiro de 2011

Teoria de resposta ao item (TRI) e o ENEM (Exame Nacional do Ensino Médio) - Perguntas e Respostas


Depois de ler muita matéria ruim nos veículos de comunicação, decidi escrever um texto acessível para que os estudantes de ensino médio e seus familiares possam finalmente entender o que é a teoria de resposta ao item e o que ela tem haver com o presente e o futuro de avaliações decisivas, como é o caso do ENEM.

1 - O que é a Teoria de Resposta ao Item (TRI)?

A TRI é, na verdade, bem mais que uma teoria, mas para facilitar a compreensão do leitor, vou colocar da seguinte forma: trata-se de um conjunto de modelos matemáticos probabilísticos que relacionam a probabilidade de acerto em cada questão (ou item) com o grau de habilidade da pessoa testada. Esse grau de habilidade é também denominado "traço latente", ou "theta".

2 - Tá, e daí? Todas as provas já não fazem isso? Todas as provas já não funcionam assim?

Não. A maioria das provas segue aquilo que em Psicometria chamamos de Teoria Clássica dos Testes. Na Teoria Clássica você recebe a nota de acordo com a proporção de questões que você acertou. No caso de questões com pesos diferentes, soma-se o valor de cada questão para se obter a nota e os pesos das questões são escolhidos arbitrariamente pelos professores que elaboraram a prova. Na Teoria Clássica, o grau de confiabilidade e o erro padrão de medida são calculados para a prova como um todo. Além disso, o índice de dificuldade das questões é calculado apenas pelo percentual de erros. Para se calcular o poder das questões em discriminar (isto é, diferenciar) os testandos de alto dos de baixo desempenho, a Teoria Clássica utiliza correlações entre o item e a nota total (correlações bisserial e ponto-bisserial) ou por meio da diferença no percentual de acertos na questão entre os 33% de alunos com nota total alta e os 33% de alunos com nota total baixa. Na Teoria Clássica, o percentual de acertos ao acaso é fixo e estimado de acordo com o número de alternativas (20% para questões com 5 alternativas).

3 - Então quais são as vantagens da TRI?

Talvez algumas vantagens sejam perceptíveis e valorizadas apenas por pessoas muito aficcionadas por avaliação quantitativa. Todavia, algumas vantagens são realmente perceptíveis e importantes para os testandos, especialmente os que fazem provas como a do ENEM.

Primeira vantagem: Por analisar cada questão individualmente, a TRI consegue calcular o grau de confiabilidade e o erro padrão de medida de cada uma das questões, ao invés de calcular tais valores apenas para a prova inteira como na Teoria Clássica.

Segunda vantagem: Os graus de dificuldade, discriminação
e acerto ao acaso são parâmetros que podem ser colocados nas equações existentes para o cálculo da relação entre a probabilidade de acerto e a habilidade ("theta") do testando, coisa que a Teoria Clássica não é capaz de fazer.

Terceira vantagem: Quando obedecidos os pressupostos exigidos pelo modelo (p. ex., unidimensionalidade das questões - isto é, as questões medem o mesmo "construto", o mesmo "traço latente"/"theta"), os parâmetros das questões (dificuldade, discriminação e acerto ao acaso) são invariantes, ou seja, são consideravelmente constantes independentemente da amostra na qual são aplicadas. No caso do ENEM, como as questões são extraídas de um gigantesco banco de questões previamente aplicadas a amostras aleatórias, tais parâmetros são previamente conhecidos e possibilitam a equalização das provas. Isso quer dizer que realmente não houve prejuízo para aqueles candidatos que fizeram a prova do ENEM na segunda aplicação, mesmo com questões diferentes.

Quarta vantagem: a invariância dos parâmetros citada acima possibilita a utilização da testagem adaptativa computadorizada (ou CAT, de computerized adaptive testing), na qual o computador escolhe as questões seguintes de acordo com o seu desempenho nas questões anteriores. Isso acabaria com o problema de vazamento da prova do ENEM e poderia ainda reduzir sua duração. Além disso, como as questões são mais confiáveis quanto mais próximas do nível de habilidade do candidato, e o computador vai calibrando a dificuldade das questões de acordo com o nível de habilidade, haveria um ganho no grau de confiabilidade da prova. Com a utilização da CAT, portanto, saberíamos com mais certeza se a prova está medindo "direito" o que quer que esteja sendo mensurado.

Quinta vantagem: como a TRI leva em conta o grau de dificuldade das questões para a composição da nota, pessoas com o mesmo número de acertos poderão ter notas diferentes. Dá-se mais valor às questões mais difíceis. Com isso o testando fica livre dos pesos conferidos arbitrariamente pelos professores e tem seu desempenho mais adequadamente valorizado.

Sexta vantagem: a identificação de "chutes" e "colas" fica facilitado pois a probabilidade de que um estudante com baixo nível de habilidade acerte questões com alto nível de dificuldade é baixa. Pode-se não provar a "cola" ou o "chute", mas corrobora-se a legitimidade da suspeita.

Há mais vantagens que eu poderia citar aqui, mas não vou alugar vocês com mais Psicometria.

4 - Como a TRI faz essa mágica toda? Será que um dia vou finalmente entendê-la?

Na TRI, a habilidade das pessoas, ou "theta", é colocada na mesma escala da dificuldade da questões. Ao utilizarmos a mesma métrica para a habilidade dos testandos e para a dificuldade das questões, podemos tecer comparações úteis e visualizar graficamente as probabilidades de acerto da questão. Na minha opinião, este é o verdadeiro "pulo do gato" para entender a TRI.

Veja como estão dispostos o estudante fictício "Joãozinho" e a fictícia questão 7 na escala de theta:

No exemplo acima, como o theta de Joãozinho (2,0) é maior que o theta da questão 7 (1,0), a probabilidade de que Joãozinho acerte a questão 7 é maior que 50%.

Para a questão 8, o theta calculado é de 3,0. Veja no gráfico abaixo:

Nesse caso, como o theta de Joãozinho (2,0) é menor que o theta da questão 8 (3,0), a probabilidade de que ele acerte essa questão é menor que 50%.

E se o theta da questão for igual ao theta de Joãozinho?

Se a questão tivesse um theta igual a 2,0, a probabilidade de que ele acertasse a questão seria igual a 50%.

5 - E da onde vêm os valores de theta das pessoas e das questões?

Os valores de theta das pessoas são calculados tendo-se como princípio a distribuição normal das habilidades dos testandos e a padronização desses valores como se faz com os escores z, nos quais a média é igual a zero (0,0) e o desvio padrão é igual a um (1,0). Pode-se centrar a média zero na dificuldade das questões, se assim desejado, para possibilitar a equalização de provas com questões totalmente diferentes. Contudo, se não há interesse em equalizar provas, o mais comum é centrar a média zero para as habilidades dos testandos. Em suma, o theta é um valor derivado do desvio padrão (isto é, a raiz quadrada da variância).

Para que obtenhamos o theta das pessoas precisamos dos valores de theta das questões. O theta das questões é obtido a partir de diferentes métodos de estimação e a calibração dessa estimativa é feita por meio de um processo iterativo (repetitivo, que vai e volta), até obter-se o valor "correto". O mesmo se faz para os parâmetros de discriminação e acerto ao acaso.

6 - Esse "correto" está entre aspas. Como assim? É possível que a TRI seja "errada"?

Há que se entender que a TRI é um modelo matemático probabilístico, como exposto no início.
Como a probabilidade que está sendo estudada é a de um evento dicotômico, ou seja, com duas possibilidades de desfecho (acerto x erro na questão), é apropriado utilizar-se a técnica de regressão logística dos valores observados empiricamente.

Veja no gráfico abaixo a curva entre o grau de habilidade (theta) e a probabilidade de acerto na questão (0,0 a 1,0, isto é, de 0% a 100%):

Ao gráfico obtido entre a probabilidade de acerto e o theta confere-se a denominação "curva característica do item", que nada mais é do que uma função logística. Leia mais sobre o que é uma regressão logística aqui.

Itens mais difíceis terão um desvio da curva para a direita. Itens mais fáceis estarão com suas curvas desviadas para a esquerda. A dificuldade do item em theta é igual ao valor no qual a probabilidade de acerto é de 0,5 (50%).

Toda regressão envolve a transformação da relação entre variáveis em uma equação.
Nesse processo há invariavelmente uma perda, uma diferença entre os valores reais e os valores previstos pelo modelo. A essa diferença dá-se o nome de resíduo.

A calibração iterativa dos valores dos parâmetros a partir de valores iniciais pré-determinados objetiva reduzir ao máximo os valores dos resíduos. Para assegurar que não haja uma discrepância excessiva entre os valores empíricos e modelados, as questões com resíduos elevados são eliminadas. Outros cálculos são realizados com esse intuito de assegurar a viabilidade do uso da TRI, como o infit e o outfit. Questões com o infit ou o outfit elevados são igualmente descartadas.

Veja no gráfico abaixo a relação entre os valores "reais" ou "empíricos", representados pelos pontos, e os valores previstos pela função logística:





A análise de componentes principais dos resíduos também é realizada para assegurar que o pressuposto da unidimensionalidade do teste e/ou seus subtestes não seja violado. Ou seja, há uma perda de informação durante a modelagem, porém há como controlá-la para que não seja estatisticamente significativa.

Para saber mais:



segunda-feira, 10 de janeiro de 2011

Quando suspeitar de lesão hepática por Amanita? Quais as características e como proceder mediante uma intoxicação dessas?

A Amanita tem um longo, longo histórico de utilização pela humanidade, algo comprovado por meio de muitas evidências que o associam às religiões, ao misticismo, ao transcendente e à simbologia. Enfim, um forte enteógeno (i.e.: que possui a propriedade de gerar o "divino"). Mas isso você já deve saber, né?

Procure uma síndrome anticolinérgica com todas as suas caracteristicas (lembre-se das alucinações com boca seca, taquicardia, redução de ruídos hidroaéreos, retenção urinária e pupilas fixas - antagonismo nos receptores colinérgicos muscarínicos dos mm. constritores da íris que ocorre também em todos os outros músculos lisos e glãndulas exócrinas). Para o tratamento, dê diazepam 0,05 a 0,2mg/kg EV em bolus lento (1 a 2 min). Repita-o conforme a necessidade, sob monitorização se possível e/ou necessário. Esteja preparado para suporte intensivo, incluindo intubação orotraqueal e ventilação mecânica se houver queda de saturação ou pressão arterial. Há risco de hipertensão apesar de toda a vasodilatação periférica. Enfim, suporte, incluindo os exames de função hepática. Geralmente a lesão hepática será decorrente de Amanita phalloides, e não de Amanita muscaria, devido à ação hepatotóxica da phallotoxina ser mais necrótica que outras amatoxinas, como a amanitina, mais associada à esteatose. Elevação de AST e ALT pode ultrapassar 15000 (prefiro os velhos TGO/TGP, sou velho). Anemia e hiperbilirrubinemia são esperados. Histopalogicamente o fígado terá esteatose e/ou necrose zona 3, mas o grau de lesão varia muito entre os casos.

Percebam que isso torna o prognóstico extremamente reservado. O pior é que muitas pessoas consomem outros tipos de cogumelos por não serem capazes de identificar a Amanita muscaria.

Por isso, cuidado com os cogumelos serotoninérgicos, sequelantes, gangrenantes e potencialmente fatais.

Além desses 2 tipos de cogumelos que citei acima, há pelo menos outros 6 tipos de quadro clínico associado a ingestão de cogumelos. Pelo menos 2 deles são potencialmente fatais.

Quer dizer... Coisa de louco de outro planeta...

Ask me anything

domingo, 9 de janeiro de 2011

Quanto tempo devo esperar para dirigir depois de beber?

Depois de ouvir essa pergunta inúmeras vezes, resolvi publicar este texto no blog.

O álcool etílico é "metabolizado", "quebrado", pelo fígado em uma taxa de depuração constante até que um nível sérico relativamente baixo seja alcançado, no qual a eliminação continua, mas a uma velocidade "teto" máxima. Isso faz com que a concentração plasmática cresça facilmente, devido à saturação das enzimas que o transformam em acetaldeído e, posteriormente, em ácido acético. Por isso, ao contrário da cinética de primeira ordem, o valor da meia-vida não é constante, dependendo da concentração. Portanto, quanto maior a dose, maior será a concentração; e conseqüentemente, maior será o tempo de meia vida.
Esse tipo de cinética é chamada de cinética de Michaelis-Menten, para a qual é calculada uma constante. O valor da constante de Michaelis-Menten (Km) é igual à concentração na qual metade da velocidade máxima é atingida. Este valor é de 11 mg/dL no álcool etílico em média. A velocidade máxima de biotransformação é de 23mg/dL/h em média, mas há uma grande variabilidade entre os indivíduos, podendo variar de 8 a 40 mg/dL/h, aumentando conforme o grau de consumo, sendo máximo nos dependentes crônicos graves. Como a concentração na qual começa a ocorrer saturação enzimática é extremamente baixa no caso do etanol, é comum encontrar referências denominando a cinética dessa substância como sendo de ordem zero, o que acaba sendo indistinguível na prática, apesar de existir de fato uma distinção.
Além disso, deve-se frisar que parte do álcool é eliminada na urina sem biotransformação. A relação entre a concentração de álcool na urina/sangue é de 1,44 em média, geralmente variando entre 1,10 e 2,44. A média dos volumes de distribuição (em L/kg) do etanol é de 0,70 nos homens e 0,60 nas mulheres, mas esse valor pode variar de 0,46 a 0,90. Essa variação está diretamente relacionada à quantidade de água corporal. O coeficiente de partição óleo/água é de 0,018. O pico plasmático do álcool etílico é de 45 minutos em média, variando geralmente entre 30 e 90 minutos. A biodisponibilidade oral do etanol é afetada por diversos fatores, como: 1) a presença de alimentos no estômago; 2) o grau de indução enzimática nos etilistas crônicos, aumentando a eliminação pré-sistêmica (“metabolismo de primeira passagem”); 3) o sexo (mulheres tem menor atividade da álcool desidrogenase na comparação com homens); 4) idade (aumenta conforme a idade) e 5) interações medicamentosas (aumentam ou diminuem).
Utilizando uma equação simplória (tão simplória que confesso ser indadequada, pois segue a cinética de primeira ordem) e valores médios para o estabelecimento de uma estimativa grosseira para a concentração máxima (pico plasmático) de etanol numa suposta ingestão de 1 litro de uma bebida destilada qualquer a 50°GL numa paciente de 60kg, teremos:

Dose: 394,5g

F (biodisponibilidade) = 0,8

Vd = 0,7 L/Kg

Cp = Dose x F / Vd =

394,5g x 0,8
______________ = 7,51g/L ou 751mg/dL

0,7L/Kg x 60Kg

Desprezando a excreção urinária, mas supondo uma capacidade enzimática elevada, típica do etilista crônico (23mg/dL/h), teríamos 18h para zerar a alcoolemia nesse caso. Mantendo o mesmo cenário mas supondo uma capacidade enzimática média de depurar 23mg/dL/h, teríamos 32 horas para zerar o exame.
Considerando as inúmeras variáveis que afetam a cinética do etanol, deve-se encarar como contraproducente o estabelecimento de um tempo máximo para realização dos exames de alcoolemia em 6, 8, 12, 24 horas ou mais, da mesma forma que é tampouco aconselhável a designação de um tempo seguro para assumir a direção de veículos após libações etílicas.
Ou seja, não há qualquer possibilidade de respostas fáceis para essa pergunta, infelizmente.
Related Posts Plugin for WordPress, Blogger...