Como escrever um Relatório de Confiabilidade

relatórios de confiabilidade comunicar validade de um teste através de ensaios repetidos. Confiabilidade equivale a estabilidade , e mede os resultados ao longo do tempo , a fim de determinar como eles são confiáveis ​​. Quanto mais erros , menos confiável; menos erros significa mais confiabilidade. Relatando os resultados significa relatar cada teste de confiabilidade e seus resultados. Confiabilidade pode ser medida usando vários testes diferentes : através de re- testes repetidos ou “teste re- teste “; usando uma medida de ” paralelo” que olha para testes similares; confiabilidade entre avaliadores , ou o grau de precisão entre os avaliadores do teste; e consistência interna, que mede o quão consistentemente cada item produz resultados . Instruções

1

Assinalar os coeficientes de correlação teste – re- teste, ou graus a que correlacionados ou não se correlacionam quando foram aplicados os testes repetidos. Por exemplo, os coeficientes de correlação pode variar 0,84-0,95 na escala de aptidão, e 0,83-0,97 na escala verbal , utilizando uma amostra populacional semelhante sobre os ensaios repetidos. Isso iria comunicar a consistência entre as sub-escalas de teste em um teste de inteligência .

2

graficamente os testes repetidos e gama de consistências para fora em um gráfico de dispersão ou outro diagrama para ilustrar o número de tentativas repetidas e seus resultados como se correlacionam com os resultados reais , ou o “valor verdadeiro”. Testes de confiabilidade determinar quão estável é um instrumento de medição ou possa vir a ser. Estes testes repetidos pesar sobre este confiabilidade.

3

Assinalar a confiabilidade inter- avaliador, ou medida de concordância entre os avaliadores . Examine como forma precisa e consistente artilheiros teste relatar o mesmo progresso usando os mesmos instrumentos na mesma ou similar amostra populacional. Se houver consistência , há menos de erro; se não houver consistência , então não há espaço para mais erros, e, assim, a confiabilidade é afetada. Enredo isso em uma matriz simples , com cada avaliador por nome ou número , o seu ” treinamento” antes de ratings, e “depois de treinamento ” ratings para delinear as diferenças uma vez que eles foram treinados , ou calibrados , nos seus acordos de rating.

4

Assinalar a consistência interna , ou a medida de como itens de teste consistentes ou semelhantes eram completamente. A menos consistente ou relacionadas são um ao outro , mais espaço para o erro . Se você está lidando com um teste padronizado , por exemplo, informar as sub-escalas para cada grupo de itens de teste para determinar a consistência entre eles. Um teste de matemática teria números , medição, geometria e estatística como subescalas relacionadas .

5

Relatório e gráficos de todos os erros , incoerências e grandes variações nas equações em qualquer um dos testes de confiabilidade . Esta seção irá culminar seu relatório de confiabilidade, e permitir-lhe verificar a confiabilidade do estudo ou do instrumento de estudo que está sendo discutido.

Deixe um comentário