Desvio padrão e erro padrão: qual a diferença?
Desvio padrão e erro padrão são termos muito comuns em estudos científicos. Geralmente são apresentados logo após uma medida de tendência central, sendo a média, a mais comum. Muitos leitores acreditam que sejam a mesma coisa, ambos representando a variabilidade dos dados de um conjunto de dados. Será mesmo? Esse post vem para esclarecer essa questão!
O que exatamente essas medidas são?
O desvio padrão e o erro padrão são medidas de dispersão e de precisão, respectivamente. Sabendo que possuem nomes diferentes, já podemos imaginar que não sejam a mesma coisa. Pois é verdade!
O desvio padrão é, de longe, a medida de dispersão mais apresentada em estudos científicos, independente do nível acadêmico do estudo (se TCC, dissertação, tese, etc). Ele representa a variabilidade dos dados em torno da média. Seu valor, gerado a partir de um conjunto de dados, pode ser menor, igual ou maior do que a média do mesmo conjunto. E seu cálculo é realizado extraindo-se a raiz quadrada da variância.
Desvio padrão = √variância
O erro padrão, por sua vez, não se relaciona com a variabilidade dos dados em relação à média do conjunto de dados coletados em uma amostra. Por ser uma medida de precisão, ele se relaciona com a média populacional (e não aquela calculada na amostra estudada). O erro padrão quantifica a certeza com a qual a média calculada a partir de uma amostra aleatória estima a média verdadeira da população. Seu cálculo é realizado dividindo-se a variância pela raiz do n amostral.
Então, quando você for escolher qual medida apresentar no seu trabalho, esteja ciente das diferenças entre elas e tome a sua decisão a partir do que realmente você deseja que o seu leitor conheça: (1) a variabilidade dos dados coletados em relação à média da sua amostra, nesse caso use o desvio padrão, ou (2) o quanto precisos são os seus dados (a média deles) em estimar a média verdadeira da população de origem, nesse caso use o erro padrão.
Esse conteúdo foi útil? Compartilhe com os seus colegas!