(BBB/Globo/Divulgação)
Colunista
Publicado em 21 de janeiro de 2026 às 16h51.
Última atualização em 21 de janeiro de 2026 às 16h53.
O primeiro paredão do Big Brother Brasil 26 entregou entretenimento, mas também deixou uma lição clara sobre pesquisa. De um lado, a votação oficial, que de fato decide o jogo. Do outro, a enquete aberta do UOL, que muita gente consome como se fosse “previsão”. A pergunta é: com 723.643 votos, esse número todo de respondentes consegue entregar um resultado correto?
A resposta é não! E quando acerta, costuma ser mais coincidência do que método.
Na última parcial da enquete do UOL, Milena aparecia como eliminada com 47,57%, seguida por Aline Campos com 42,64% e Ana Paula Renault com 9,79%. Só que a votação oficial mostrou outra realidade: Aline eliminada com 61,64%; Milena com 32,50%; e Ana Paula com 5,86%.
Ou seja: a enquete errou, e muito. E é aqui que começa o problema — não só para quem gosta do BBB, mas para qualquer gestor que precisa tomar decisão com base em números: enquete não é pesquisa. Pesquisa é dado. Enquete é ferramenta de engajamento.
Na enquete, responde quem quiser. Ela é ótima para gerar conversa e tráfego. Mas como instrumento de previsão ou tomada de decisão, falha por um motivo básico: a amostra não representa o universo.
Universo é o conjunto real que decide o resultado. No BBB, universo é quem vota no sistema oficial da Globo. Amostra é um pedaço desse universo, selecionado para representar o todo. Uma pesquisa de verdade teria que selecionar pessoas que estão, de fato, aptas e propensas a votar no BBB. Não é o caso de uma enquete aberta. E o UOL sabe disso, por isso que chama de enquete.
Quando você faz uma enquete aberta, você não está tirando uma amostra do universo. Você está coletando respostas de uma amostra de conveniência: responde quem viu, quem se engajou, quem foi mobilizado por torcida, quem tem tempo, quem tem motivação emocional para clicar. E por isso volume, sozinho, não significa nada. Ou seja, 723 mil votos podem ser 723 mil respostas erradas para a pergunta certa.
Aí alguém pergunta: “Mas, então, como pesquisa eleitoral acerta com cerca de 2.000 entrevistas?” Porque pesquisa séria não depende só de volume. Depende de método. Se você tem uma amostra probabilística, ou seja, uma amostra selecionada para representar o universo, você consegue estimar o comportamento do todo com precisão mensurável.
É daí que vêm dois conceitos simples e essenciais que qualquer gestor conheça: Margem de erro e intervalo de confiança. Margem de erro é o quanto o número pode variar por você não ter ouvido todo mundo (o famoso “dois pontos percentuais para mais ou para menos”). Intervalo de confiança é o nível de segurança dessa estimativa. Quando alguém fala em 95% de confiança, está dizendo: se eu repetir essa pesquisa muitas vezes do mesmo jeito, a maioria dos resultados vai cair dentro daquela faixa.
Mas aqui vem a parte que quase ninguém quer ouvir: margem de erro não salva amostra ruim. Ela só faz sentido quando o desenho amostral faz sentido. Se a seleção é enviesada, você pode até calcular um número bonito, mas ele não representa a realidade.
O que torna uma pesquisa boa não é o tamanho da amostra por si só. É o processo de seleção dos entrevistados, e a transparência para que qualquer um consiga avaliar isso.
E agora vem a parte desconfortável: isso acontece todo dia nas empresas.
Em marketing, a tentação é enorme de tratar qualquer número disponível como verdade. Votação em story vira “pesquisa”. Enquete no LinkedIn vira “teste de conceito”. Formulário via widget em site vira “brand tracking”. E a decisão estratégica nasce em cima de um dado errado. E isso não é só porque foi feito internamente - tem muita “martech” famosa que vende enquete como se fosse pesquisa.
E dado errado é pior do que não ter dado. Quando você não tem dado, você decide com cautela. Quando você acha que tem o dado certo (e não tem), você decide - e erra - com convicção.
Fazer “pesquisa” com o respondente errado é como testar a aceitação de um cardápio vegano entrevistando a fila do churrasco: você até vai sair com percentuais agradáveis e gráficos bonitos, só não vai ter a resposta certa para a sua pergunta.
Isso distorce decisão, contamina estratégia, gera desperdício e, talvez o pior, cria desconfiança em pesquisa séria. Porque quando a “pesquisa” erra feio, a conclusão apressada vira: “pesquisa não funciona”. Funciona, sim. O que não funciona é enquete maquiada, painel viciado ou “amostra” recrutada sem controle.
O exemplo do BBB 26 só escancara o que acontece em muitas salas de reunião: número grande dá uma sensação falsa de segurança. Mas segurança em pesquisa não vem de volume. Vem de representatividade, método e transparência.
Esse período do ano é um prato cheio para “pesquisas de tendências” cheias de gráficos e com milhares de “decisores” respondendo. Mas quem são eles? Como foram abordados? Representam qual universo? Antes de se empolgar com o dado “matador”, vale a pergunta incômoda: quem respondeu, mesmo?
Senso crítico é uma habilidade de liderança. E parar de usar gráfico bonito de enquete como fonte de decisão é um dos atos mais estratégicos que um gestor pode tomar.