Amostra em Pesquisa

ENTENDA COMO SÃO FEITAS AS PESQUISAS POR AMOSTRAGEM

A pergunta-chave feita pelos leigos em pesquisa é sempre a mesma: “Como é possível descobrir o que pensa a totalidade das pessoas quando se interroga apenas um pequeno número delas?

Uma explicação completa da teoria matemática pode ser encontrada em livros sobre estatística e probabilidades. Os pontos mais importantes são citados a seguir, em linguagem simples de fácil compreensão.

Princípio I: Probabilidade
Quando a dona de casa quer saber se colocou bastante sal na sopa, toma uma colherada, prova-a, e tira suas conclusões, que não se referem apenas à pequena amostra, mas a totalidade. Ela não necessita tomar um prato nem a sopa toda para se assegurar do paladar.

Analogamente, quando se necessita fazer um exame de sangue, obviamente não será necessário retirar o sangue todo. Uma pequena amostra colhida em um tubo de ensaio é suficiente para qualquer laboratório de análises clínicas.

O que fizeram essas pessoas? Confiaram no primeiro princípio da teoria da amostragem: a probabilidade dos eventos acontecerem. É possível que a dona de casa tenha experimentado justo aquela parte da sopa que tinha mais ou menos sal que o restante da sopa na panela. É possível que o sangue colhido contenha mais ou menos glóbulos vermelhos que o restante do sangue no corpo do paciente.

Mas, a probabilidade de que isto aconteça é pequena: quantas vezes o teste da sopa ou o exame de sangue falham? Poucas. A proporção entre os sucessos e o número total de testes ou exames representa o que na teoria é chamado de “grau de confiança”. Ele indica a probabilidade de que a amostra escolhida representa bem o todo que se queria estudar ou inferir.

Princípio II: Casualidade
Ao desenvolver o trabalho de pesquisa, a escolha dos elementos da amostra precisa ser aleatória: em outras palavras, a probabilidade de escolher cada pessoa para ser parte da amostra deve ser a mesma. Logo, para não sermos tendenciosos, a escolha deve se dar ao acaso. O acaso pode ser baseado em tabelas de números aleatórios (disponíveis em livros sobre estatística), em programas de computador ou em métodos ao alcance de qualquer pessoa (como por exemplo, o uso de sacos ou caixas numeradas e um método de sorteio – bingo, dados – para a escolha dos sacos ou caixas). O fundamental é que se a amostra deve representar bem o conjunto todo, então é necessário garantir a casualidade da escolha. Simplificando, cada saco tem que ter a mesma probabilidade de ser escolhido, sem tendenciosidade.

Outra pergunta que muitas pessoas fazem é: “Por que nunca fui escolhido para uma entrevista com tantas pesquisas de mercado e de opinião existentes?” As respostas a essa pergunta são:

  • Se a pessoa nunca foi escolhida, isto é fruto do acaso.
  • Todas as pessoas têm a mesma probabilidade de serem escolhidas. Mas, se a população é de 180 milhões de pessoas e as amostras construídas nunca excedem uns poucos milhares de pessoas, a probabilidade de ser escolhido é semelhante a de ganhar na loteria.
Certamente você conhece mais pessoas que participaram de alguma pesquisa do que pessoas que ganharam na loteria, porque são realizadas muito mais pesquisas do que sorteios da loteria!

Princípio III: a Lei dos Grandes Números
 Ao desenvolver pesquisas, sempre partimos da suposição de que os entrevistados são honestos, corretos e dispostos a colaborar quando respondem às nossas perguntas. Mas sabemos que há sempre os chamados “não respostas”, ou seja, respostas erradas.

Suponha que você seja uma das pessoas que forneceu uma resposta errada: numa entrevista você é perguntado sobre qual era a cor da última camisa que você comprou. Suponhamos que a camisa que você comprou era azul, mas nesse dia você está mal-humorado e diz ao entrevistador que a camisa era vermelha.

Segundo a Lei dos Grandes Números, respostas falsas serão compensadas. Isto é, há uma alta probabilidade de que outras respostas erradas compensem sua mentira (por exemplo, uma pessoa envergonhada por ter comprador uma camisa vermelha, vai responder que comprou uma camisa azul).

Mas, a Lei dos Grandes Números só se aplica se as mentiras dos interrogados ocorrem ao acaso. Por exemplo, se a pesquisa aborda apenas homens homosexuais em um país onde estes são discriminados, o número de respostas mentirosas tende a ser maior, por exemplo, para as cores de camisa comumente associadas às mulheres (como o rosa). Por isso, é preciso tomar cuidado com as perguntas: há um limite para o que se pode perguntar as pessoas, se você deseja respostas honestas e corretas!

Entretanto, pode se tornar evidente somente durante o desenvolvimento da pesquisa que a as respostas a uma dada pergunta se desvia da verdade para um número muito grande de interrogados. Se este desvio não ocorre ao acaso, então a pergunta tem que ser reformulada, ou abandonada definitivamente.

Resumindo, a Lei dos Grandes Números pressupõe que os desvios da verdade devem ocorrer ao acaso: algumas vezes em uma direção e outras na direção oposta. Assim, na totalidade da amostra os desvios acabam se anulando. Se esta premissa não for satisfeita, então os resultados da pesquisa serão distorcidos.

Universo, amostras e margens de erro
 Ao desenvolver pesquisas de mercado, a amostra é uma parte pequena da população. Mas, exatamente de qual “população” estamos falando? No caso de pesquisas eleitorais, a “população” é limitada aos cidadãos com direito a voto. Se a pesquisa é sobre técnicas de realização de exames de sangue, então a “população” é composta pelos técnicos em exames de sangue que trabalham em laboratórios clínicos e hospitais. O conjunto de pessoas ou empresas que formam o alvo da pesquisa é chamado de universo da pesquisa [1].

Em outras palavras, universo significa o conjunto de todas as espécies que entram na mira da investigação. A amostra é o subconjunto extraído ao acaso deste universo. Note que o universo pode ser constituído de pessoas, mas pode ser também constituído de lares, casas novas, um determinado tipo de empresas, etc.

O último conceito associado a pesquisas é a margem de erro (que deve ser entendido como amplitude de acerto). Considere este exemplo: foi encomendada uma pesquisa com o objetivo de descobrir quantas residências dispõem de forno de microondas na nossa cidade. Se interrogarmos todas as donas de casa, não haveria margem de erro (ou, diremos, a margem de erro será zero), porque nossa amostra terá sido exaustiva: nossa amostra seria igual ao universo da pesquisa.

Obviamente, as despesas geradas com pesquisas exaustivas são muito grandes (a menos que o universo seja muito pequeno). Se a pesquisa exaustiva for financeiramente inviável, então optamos por entrevistar apenas uma amostra aleatória das residências. Então, nossos resultados serão semelhantes, mas não iguais, aos resultados obtidos na pesquisa exaustiva. A diferença entre estes resultados é chamada de margem de erro.

Na prática, quando a pesquisa exaustiva não é feita, então não é possível determinar a margem de erro com precisão; ainda assim, gostaríamos de ter ao menos uma estimativa da margem de erro. Como o valor real pode ficar acima ou abaixo do obtido na nossa pesquisa, as margens de erro costumam ser indicadas com o sinal ± e um percentual: isto indica que o valor real, comparado com o resultado da pesquisa está no máximo x pontos percentuais acima ou abaixo do resultado obtido na pesquisa. Por exemplo, se interrogamos duas mil donas de casa e 1.725 afirmarem dispor de um forno de microondas, a pesquisa resulta em 86% (1725/2000). Qual é a margem de erro?

É intuitivo (é justificado teoricamente pela Lei dos Grandes Números) que o uso de amostras maiores, embora implique em despesas maiores, permite obter margens de erros menores do que o uso de amostras pequenas. Mas, a relação entre o tamanho da amostra, a margem de erro e o tamanho do universo só pode ser descrita por uma função matemática complexa. Esta relação é analisada em profundidade na próxima seção.

Determinação estatística do tamanho das amostras
O cliente normalmente oscila entre dois extremos ao encomendar uma pesquisa: de um lado, não deseja uma amostra grande por causa do custo que acarreta, do outro não acredita na amostra que, na sua opinião, é demasiado pequena. O problema do tamanho da amostra não pode ser subestimado, mas é menos importante do que a composição da amostra. Quanto mais uniforme for o universo do qual é extraída a amostra, menor pode ser a amostra.

Se o universo não for uniforme, deve ser feita uma tentativa de dividi-lo em camadas uniformes. É o que chamamos de amostragem estratificada, subgrupos ou sub-amostras, para garantir que o universo seja representado apropriadamente. Em teoria, a amostra de probabilidade concede a cada um dos membros do universo exatamente a mesma oportunidade de ser escolhido.

Antes de entrarmos na discussão dos vários métodos de amostra, é importante ressaltar que o resultado está diretamente relacionado à disponibilidade financeira destinada a pesquisa. Normalmente, o pagamento dos pesquisadores de campo constituem a maior parte da despesa de uma pesquisa. Eles podem ser contratados por diária (com quotas definidas de questionários) ou por produtividade (quantidade de questionários). O orçamento é a chave para se dimensionar o tamanho da amostra, assim como a metodologia utilizada.

No entanto, o ponto chave da questão, representado pela relação entre o tamanho da amostra, o tamanho do universo e a margem de erro destas pesquisas, dificilmente é esclarecido. Parece-nos que a razão principal para a omissão desta informação dos meios de comunicação de massa é a sua aparente complexidade matemática: o cálculo da margem de erro é uma função tão complexa que nem os estatísticos a utilizam diretamente. Habitualmente, os estatísticos se valem de uma tabela já pronta, contendo os resultados já prontos para as situações mais comuns.

A margem de erro depende do tamanho da amostra e do tamanho do universo. Assim, quanto maior for o tamanho do universo, o mesmo tamanho de amostra resulta em uma margem de erro menor. Inversamente, em universos pequenos são necessárias amostras muito maiores para atingir uma margem de erro razoável.

Qual o tamanho adequado?
A tabela abaixo relaciona o tamanho do universo a ser estudado (população total) com a margem de erro desejada para a pesquisa, com um coeficiente de confiança de 95,5%:



Concluímos com alguns exemplos representativos de ações de marketing em empresas da área de informática:

- Considere o universo das empresas instaladas no Brasil com faturamento anual superior a R$ 5.000.000. Estimamos que o número destas empresas esteja próximo de cem mil. Uma amostra de apenas cem empresas (0,1% do total) já resulta em uma margem de erro de 10%. Para obter uma margem de erro de 5%, a amostra deve ser de 400 empresas; para uma margem de erro de 2%, a amostra deve ser de 2500 empresas.

- Analise agora todas as empresas prestadoras de serviços de informática, estimado em cinco mil empresas. Para uma margem de erro de 2%, é necessário entrevistar 33% das empresas (1.667). Já para uma margem de 4% é suficiente uma amostra de 11% do total, e para uma margem de 10% basta entrevistar apenas 2% do total.

- Considere o universo das 500 maiores empresas do país. Para uma margem de erro de 10%, é preciso obter dados de 85 delas, ou seja, usar uma amostra de 17%. Já se a margem de erro considerada razoável for de 5%, é necessária uma amostra de 45% (225 empresas).

- Finalmente, considere as 350 universidades e faculdades que ministram cursos superiores na área de informática e/ou computação. Neste caso, uma amostra de 25% resulta em uma margem de erro de 10%; para atingir uma margem de erro de 5% seria necessária uma amostra de 65%!


[1] Alguns autores usam o termo “população” como sinônimo de “universo”. Entretanto, optamos pelo uso do termo “universo” para evitar a associação do termo população com as pessoas: quando a pesquisa tem como alvo o mercado empresarial, a “população” é composta por empresas e não por pessoas!

Para saber mais sobre pesquisas eleitorais, de opinião pública ou compartamento do eleitor CLIQUE AQUI.



Fone (51) 2102-0355