II. Problemas de amostra única


Última atualização: 19 de setembro de 2018.

Nesta seção nos concentramos em alguns testes de hipóteses não paramétricos quando somente uma amostra de observações está disponível. O problema do ajuste é testar a hipótese de que a amostra de observações \(X_1,X_2,\cdots,X_n\) é de alguma distribuição especificada contra a alternativa que é de alguma outra distribuição. Assim, a hipótese nula \(H_0: X\sim F_0\) simples é testada contra a alternativa composta \(H_1: X\sim F\), onde \(F(x)\neq F_0(x)\) para algum \(x\).


II.1 Testes de bondade de ajuste


Um problema importante na estatística diz respeito à obtenção de informações sobre a forma da população da qual uma amostra é retirada. A forma dessa distribuição pode ser o foco da investigação. Alternativamente, algumas inferências sobre um aspecto particular da população podem ser de interesse. Neste último caso, na estatística clássica, as informações sobre a forma geralmente devem ser postuladas ou incorporadas na hipótese nula para realizar um tipo de inferência paramétrico exato.

Por exemplo, suponha que tenhamos um pequeno número de observações de uma população desconhecida com variância desconhecida e a hipótese de interesse diz respeito ao valor da média populacional. O teste paramétrico tradicional, baseado na distribuição t-Student, é derivado da assertividade de uma população normal. A teoria da distribuição exata e as probabilidades de ambos os tipos de erros dependem dessa população. Portanto, pode ser desejável verificar a razoabilidade da suposição de normalidade antes de formar quaisquer conclusões baseadas na distribuição t-Student. Se a suposição de normalidade parece não ser justificada, algum tipo de inferência não paramétrica para a localização pode ser mais apropriada com um pequeno tamanho de amostra.

Aqui vamos considerar dois tipos de testes de bondade de ajuste. O primeiro tipo é projetado para hipóteses nulas relativas a uma distribuição discreta e compara as frequências observadas com as freqüências esperadas sob a hipótese nula. Este é o teste qui-quadrado proposto por Karl Pearson no início da história da estatística. O segundo tipo de teste de bondade de ajuste é projetado para hipóteses nulas relativas a uma distribuição contínua e compara as freqüências relativas acumuladas observadas com aquelas esperadas sob as hipóteses nulas. Este grupo inclui os testes de Kolmogorov-Smirnov e Lilliefors. Este último éprojetado para testar a suposição de uma distribuição normal ou exponencial com parâmetros não especificados e, portanto, á um teste preliminar importante para justificar o uso de métodos estatísticos paramétricos ou clássicos que exigem essa suposição. Finalmente, apresentamos alguns gráficos para avaliar a forma de uma distribuição.


II.1.1 Teste qui-quadrado


Uma única amostra aleatória de tamanho \(n\) é extraída de uma população com função de distribuição desconhecida \(F\). Desejamos testar a hipótese nula \begin{equation} H_0: F(x) = F_0(x), \qquad \mbox{para todo } x, \end{equation} onde \(F_0(x)\) é complemanete especificada, contra a alternativa geral \begin{equation} H_0: F(x) \neq F_0(x), \qquad \mbox{para algum } x\cdot \end{equation}

Para aplicar o teste qui-quadrado nesta situação, os dados amostrais primeiro serão agrupados de acordo com algum esquema para formar uma distribuição de frequência. No caso de dados de contagem ou qualitativos, onde a distribuição hipotética seria discreta, as categorias seriam as classificações literais ou numéricas relevantes. Por exemplo, ao jogar os dados as categorias seriam o número de pontos; ao jogar uma moeda, as categorias seriam o número de caras; em pesquisas de preferências de marca, as categorias seriam as marcas consideradas. Quando as observações da amostra são quantitativas, as categorias seriam classes numéricas escolhidas pelo experimentador. Neste caso, a distribuição de frequência não é única e algumas informações são necessariamente perdidas. Embora a distribuição hipotética seja provavelmente contínua com os dados de medição, os dados devem ser categorizados para análise pelo teste qui-quadrado.

Quando a distribuição da população é completamente especificada pela hipótese nula, pode-se calcular as probabilidades de que uma observação aleatória seja classificada em cada uma das categorias escolhidas ou fixas. Essas probabilidades multiplicadas por \(n\) fornecem as frequências para cada categoria que seriam esperadas se a hipótese nula fosse verdadeira. Excetuando-se a variação amostral, deve haver uma concordância próxima entre essas frequências esperadas e observadas se os dados da amostra forem compatíveis com a distribuição \(F_0\) especificada. As frequências observadas e esperadas correspondentes podem ser comparadas visualmente usando um histograma, um polígono de frequência ou um gráfico de barras. O teste qui-quadrado de bondade de ajuste fornece uma base probabilística para efetuar a comparação e decidir se a falta de concordância é muito grande para ter acurado por acaso.

Suponha que as \(n\) observações foram agrupadas em \(k\) categorias mutuamente exclusivas e denote as frequências observadas e esperadas para a \(i\)-ésima classe como \(f_i\) e \(e_i\), respectivamente, \(i=1,2,\cdots,k\). A decisão sobre o ajuste deve se r baseada nos desvios \(f_i-e_i\). A soma desses \(k\) desvios é zero, exceto para arredondamentos. O critério de teste sugerido por Karl Pearson em 1900 é a soma dos quadrados desses desvios, normalizados pela frequência esperada, ou seja \begin{equation} Q=\sum_{i=1}^k \dfrac{(f_i-e_i)^2}{e_i}\cdot \end{equation}

Um grande valor de \(Q\) refletiria uma incompatibilidade entre as frequências relativas observadas e esperadas, portanto, a hipótese nula usada para calcular o \(e\) deve ser rejeitada para \(Q\) grande. A distribuição exata da variável aleatória \(Q\) é bastante complicada, mas para amostras grandes sua distribuição é aproximadamente qui-quadrado com \(k-1\) graus de liberdade. A base teórica para isso pode ser discutida brevemente como segue.

As únicas variáveis aleatórias de interesse são as frequéncias de classe \(F_1,F_2,\cdots,F_k\), que constituem um conjunto de variáveis aleatórias da distribuição mutinomial de dimensão \(k\) com \(k\) resultados possíveis, sendo o resultado desta \(i\)-ésima categoria no sistema de classificação. Com \(\theta_1,\theta_2,\cdots,\theta_k\) indicando as probabilidades dos respectivos resultados e \(f_1,f_2,\cdots,f_k\) denotando os resultados observados, a função de verossimilhança da amostra é então \begin{equation} L(\theta_1,\theta_2,\cdots,\theta_k) \, = \, \prod_{i=1}^k \theta_i^{f_i}, \qquad f_i=0,1,2,\cdots,n, \end{equation} satisfazendo que \(\displaystyle \sum_{i=1}^k f_i=n\), \(\displaystyle \sum_{i=1}^k \theta_i=1\).

A hipótese nula foi assumida para especificar a distribuição da população completamente, a partir do qual o \(\theta_i\) pode ser calculado. Esta hipótese, então, está preocupada apenas com os valores desses parâmetros e pode ser escrita como \begin{equation} H_0: \theta_i^0 \, = \, \dfrac{e}{n}, \qquad i=1,2,\cdots,n\cdot \end{equation}

É fácil mostrar que as estimativas de máxima verossimilhança dos parâmetros são \(\widehat{\theta}_i=f_i/n\). A estatística da razão de verossimilhança para esta hipótese é então \begin{equation} \mathcal{L}=\dfrac{L(\theta_1^0,\cdots,\theta_k^0)}{L(\widehat{\theta}_1,\cdots,\widehat{\theta}_k)} \, = \, \displaystyle \prod_{i=1}^k \left(\dfrac{\theta_i^0}{\widehat{\theta}_i}\right)^{f_i}\cdot \end{equation} Como dissemos, a distribuição da variável aleatória \(-2n\mathcal{L}\) pode ser aproximada pela distribuição qui-quadrado. Os graus de liberdade são \(k-1\), uma vez que a restrição \(\sum_{i=1}^k \theta_i = 1\) deixa apenas \(k-1\) parâmetros no espaço paramétrico para serem estimados independentemente. Nós temos aqui \begin{equation} -2\ln\mathcal{L} \, = \, -2\sum_{i=1}^k f_i\left( \ln(\theta_i^0)-\ln(f_i/n)\right)\cdot \end{equation}

Vamos agora mostrar que a expressão acima é assintoticamente equivalente à expressão para \(Q\). A expansão em série de Taylor de \(\ln(\theta_i)\) a respeito de \(f_i/n=\widehat{\theta}_i\) é \begin{equation} \ln(\theta_i) \, = \, \ln(\widehat{\theta}_i)+(\theta_i-\widehat{\theta}_i)\frac{1}{\widehat{\theta}_i} -\frac{(\theta_i-\widehat{\theta}_i)^2}{2!}\frac{1}{\widehat{\theta}_i^2}+\epsilon_i, \end{equation} de maneira que \begin{equation} \ln(\theta_i^0) -\ln(f_i/n) \, = \, \Big( \theta_i^0-\frac{f_i}{n}\Big)\frac{n}{f_i}- \Big( \theta_i^0-\frac{f_i}{n}\Big)^2\frac{n^2}{2f_i^2}+\epsilon \, = \, \dfrac{(n\theta_i^0-f_i)}{f_i}- \dfrac{(n\theta_i^0-f_i)^2}{2f_i^2}+\epsilon_i, \end{equation} onde \(\displaystyle \epsilon_i=\sum_{j=3}^\infty (-1)^{j+1}\Big( \theta_i^0-\frac{f_i}{n}\Big)^j\frac{n^j}{j!f_i^j}\).

Substituindo apropriadamesnte temos que \begin{equation} -2\ln\mathcal{L} \, = \, -2\sum_{i=1}^k \big( \theta_i^0-f_i\big)+\sum_{i=1}^k \frac{\big( \theta_i^0-f_i\big)^2}{f_i} + \sum_{i=1}^k \epsilon_i \, = \, \sum_{i=1}^k \frac{\big( f_i-e_i\big)^2}{f_i} +\epsilon\cdot \end{equation} Pela Lei dos Grandes Números \(F_i/n\) é conhecido ser um estimador consistente de \(\theta_i\) ou \begin{equation} \lim_{n\to\infty} \frac{1}{n}P\big(|F_i-n\theta_i|>\epsilon\big) \, = \, 0, \qquad \mbox{para todo } \epsilon>0\cdot \end{equation}

Assim, vemos que a distribuição de probabilidade de \(Q\) converge para a de \(-2\ln\mathcal{L}\), que é qui-quadrado com \(k-1\) grau de liberdade. Esta aproximação pode ser usada com confiança, desde que cada frequência esperada seja pelo menos igual a 5. Para qualquer \(e_i\) menor que 5, o procedimento usual é combinar grupos adjacentes na distribuição de frequência até que essa restrição seja satisfeita. O número de graus de liberdade, em seguida, deve ser reduzido para corresponder ao número real de categorias usadas na análise. Esta regra de 5 não deve ser considerada inflexível, no entanto. É conservador, e a aproximação qui-quadrado é razoavelmente precisa para frequências celulares esperadas tão pequenas quanto 1.5.

Qualquer caso em que os \(\theta_i\) são completamente especificados pela hipótese nula é, portanto, facilmente manipulado. A situação mais típica, no entanto, é quando a hipótese nula é composta, isto é, declaramos a forma da distribuição, mas não todos os parâmetros. Por exemplo, quando testamos se uma amostra é retirada de alguma população normal, \(\mu\) e \(\sigma\) não seriam dados. No entanto, para calcular as frequências esperadas em \(H_0\), \(\mu\) e \(\sigma\) devem ser conhecidas. Se as frequências esperadas são estimadas a partir dos dados como \(n\widehat{\theta}_1^0\), a variável aleatória para o teste de ajuste assume a forma \begin{equation} Q=\sum_{i=1}^k \dfrac{\big( F_i-n\widehat{\theta}_i^0\big)^2}{n\widehat{\theta}_i^0}\cdot \end{equation}

A distribuição assintótica de \(Q\) pode então depender do método empregado para a estimação. Quando os estimadores são encontradas pelo método de máxima verossimilhança para os dados agrupados, o numerador na estatística do teste de razão de verossimilhança é \(L(\widehat{\theta}_1^0,\widehat{\theta}_2^0,\cdots,\widehat{\theta}_k^0)\), onde os \(\widehat{\theta}_i^0\) são os estimadores de máxima verossimilhança de \(\theta_i^0\) em \(H_0\). A derivação da distribuição de \(\mathcal{L}\) e, portanto, \(Q\) mantém-se exatamente como antes, exceto para os graus de liberdade. Os graus de liberdade para \(Q\) são então \(k-1-s\), onde \(s\) é o número de parâmetros independentes em \(F_0\) foram estimados a partir dos dados agrupados para estimar todos os \(\theta_i^0\).

No teste de bondade de ajuste normal, por exemplo, as estimativas dos parâmetros \(\mu\) e \(\sigma\) seriam calculadas a partir dos dados agrupados e usadas com quantiles da distribuição normal para encontrar \(n\widehat{\theta}_i^0\) e os graus de liberdade para \(k\) categorias iria para \(k-3\). Quando os dados originais são desagrupados e os estimadores de máxima verossimilhança são baseados na função de verossimilhança de todas as observações, a teoria é diferente. Chernoff and Lehmann (1954) mostraram que a distribuição limite de \(Q\) não é qui-quadrado neste caso e que \(P(Q> \chi^2_\alpha)> \alpha\). O teste é então anticonservador. A investigação deles mostrou que o erro é consideravelmente mais sério para a distribuição normal do que para a Poisson. Um ajuste possível é discutido em seu artigo. Na prática, no entanto, a estatística acima é frequentemente tratada como uma variável qui-quadrado de qualquer maneira.

Exemplo. Um engenheiro de controle de qualidade selecionou uma amostra de tamanho 50 de um processo de produção. O número de defeitos para essa amostra é registrado na tabela abaixo.
Números de defeitos Número de amostras

0 10
1 24
2 10
3 4
4 1
5 1
6 ou mais 0
Testar a hipótese nula de que o número de defeituosos segue a distribuição de Poisson.

Como os dados são agrupados e ambas as distribuiçães nulas hipotéticas são discretas, o teste de bondade qui-quadrado é apropriado. Como nenhum parâmetro é especificado, eles devem ser estimados a partir dos dados para realizar o teste.

> dados = c(rep(0, 10), rep(1, 24), rep(2, 10), rep(3, 4), rep(4, 1), rep(5,1)) > table(dados) dados 0 1 2 3 4 5 10 24 10 4 1 1
Podemos perceber que existem duas categorias com somente uma observação, então refazemos a tabela de dados a somente 5 categorias da seguinte forma:
> dados = c(rep(0, 10), rep(1, 24), rep(2, 10), rep(3, 4), rep(4, 2)) > xx = table(dados) > xx dados 0 1 2 3 4 10 24 10 4 2 > mean(dados) [1] 1.28 > dpois(c(0:4), lambda=1.28) [1] 0.27803730 0.35588774 0.22776816 0.09718108 0.03109795 > xy = dpois(c(0:4), lambda=1.28) > chisq.test( xx, p=xy, rescale.p = TRUE) Chi-squared test for given probabilities data: xx X-squared = 3.6656, df = 4, p-value = 0.4531
Aceitamos o fato apresentado na hipotétesis nula de que a distribuição dos dados seja \(\mbox{Poisson}(1.28)\).

II.1.2 Teste Kolmogorov-Smirnov


Neste teste procedemos da seguinte maneira: estimamos a função de distribuição empírica da amostra e calculamos uma estatística cujo valor mede o afastamento da função de distribuição empírica da amostra daquela da distribuição nula.

Definição. Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória da função de distribuição \(F\) e seja \(\widehat{F}_n\) a correspondente função de distribuição empírica. A estatística \begin{equation*} D_n=\sup_x |\widehat{F}_n(x)-F(x)|, \end{equation*} é chamada de estatística de Kolmogorov-Smirnov bilateral. Escrevemos \begin{equation*} D_n^+=\sup_x \big(\widehat{F}_n(x)-F(x)\big), \end{equation*} e \begin{equation*} D_n^-=\sup_x \big(F(x)-\widehat{F}_n(x)\big), \end{equation*} e chamamos \(D_n^+\) e \(D_n^-\) as estatísticas de Kolmogorov-Smirnov unilaterais.

Observemos na figura abaixo que o objetivo desta estatística é encontrar a diferença máxima entre a distribuição suposta dos dados \(F\) e a distribuição empírica \(\widehat{F}_n\). Nesta figura apresentamos dois exemplos: à esquerda simulamos 50 dados normais e mostramos a função de distribuição normal padrão acumulada, curva em vermelho, assim como a correspondente distribuição empírica; à direita simulamos uma distribuição diferente.

# Figura à esquerda > set.seed(18340) > x = rnorm(50) > par(mar=c(4,2,1,1)) > plot(ecdf(x), xlim = range(c(-3, 3)), main = "", ylab="") > text(0,0.8,expression(F[n](x))) > curve(pnorm(x), add = TRUE, col = "red", lwd = 2) > rug(x) > ks.test(x, pnorm)$statistic D 0.1180803
# Figura à direita > y = rgamma(50,3) > par(mar=c(4,2,1,1)) > plot(ecdf(y), xlim = range(c(0, 9)), main = "", ylab="", xlab="y") > text(3,0.8,expression(F[n](y))) > curve(pgamma(x,3), add=TRUE, col="red", lwd=2) > rug(y) > ks.test(y, pgamma(y,shape=3))$statistic D 0.9

Na figura acima à direita mostramos à função de distribuição empírica correspondente à amostra obtida da distribuição Gama(3,1) enquantro a curva vermelha corresponde à distriuição teórica respectiva.



Teorema. As estatísticas \(D_n\), \(D_n^+\) e \(D_n^-\) são de distribuíção livre para qualquer função de distribuição contínua \(F\).
Demonstração. Claro que \(D_n=\max\big(D_n^+,D_n^- \big)\). Sejam \(X_{(1)}\leq X_{(2)}\leq \cdots\leq X_{(n)}\) as estatísticas de ordem da amostra aleatória \(X_1,X_2,\cdots,X_n\) e definimos \(X_{(0)}=-\infty\) e \(X_{(n+1)}=+\infty\). Então \begin{equation} \widehat{F}_n(x)=\dfrac{i}{n}, \qquad para \quad X_{(i)}\leq x < X_{(i+1)}, \quad i=0,1,2,\cdots,n, \end{equation} e temos que \begin{equation} \begin{array}{rcl} D_n^+ & = & \displaystyle \max_{0\leq i\leq n} \sup_{X_{(i)}\leq x < X_{(i+1)}}\Big(\frac{i}{n}-F(x)\Big) \\ & = & \displaystyle \max_{0\leq i\leq n} \Big( \frac{i}{n}- \inf_{X_{(i)}\leq x < X_{(i+1)}}F(x)\Big) \\ & = & \displaystyle \max_{0\leq i\leq n} \Big( \frac{i}{n}-F(X_{(i)})\Big) \, = \, \max\Big(\max_{0\leq i\leq n} \Big( \frac{i}{n}-F(X_{(i)})\Big),0 \Big)\cdot \end{array} \end{equation} Desde que \(F(X_{(i)})\) é a \(i\)-ésima estatística de ordem de uma amostra da distribuição \(U(0,1)\), independentemente de \(F\) desde que esta seja contínua, vemos que a distribuição de \(D_n^+\) independe de \(F\). De maneira similar \begin{equation} D_n^- = \max\Big(\max_{0\leq i\leq n} \Big( F(X_{(i)})-\frac{i-1}{n}\Big),0 \Big), \end{equation} e o resultado procede.▉


Sem perda de generalidade, portanto, assumimos que \(F\) seja a função de distribuição de uma variável aleatória \(U(0,1)\).



Teorema. Se \(F\) é contínua, então \begin{equation} P\Big( D_n < \nu+\frac{1}{2n} \Big) \, = \, \left\{ \begin{array}{ccl} 0, & caso & \nu\leq 0, \\ \displaystyle \int_{\frac{1}{2n}-\nu}^{\nu+\frac{1}{2n}} \int_{\frac{3}{2n}-\nu}^{\nu+\frac{3}{2n}} \cdots \int_{\frac{2n-1}{2n}-\nu}^{\nu+\frac{2n-1}{2n}}f(u_1,u_2,\cdots,u_n)\prod_{i=1}^n du_i & caso & 0 < \nu < \frac{2n-1}{2n}, \\ 1, & caso & \nu\geq \frac{2n-1}{2n}, \end{array}\right. \end{equation} onde \begin{equation} f(u_1,u_2,\cdots,u_n) \, = \, \left\{ \begin{array}{ccl} n!, & caso & 0\leq u_1 < u_2 < \cdots < u_n\leq 1, \\ 0, & caso & contrário, \end{array}\right. \end{equation} é a função de densidade conjunta das estatísticas de ordem de uma amostra aleatória de tamanho \(n\) da distribuição \(U(0,1)\).
Demonstração. Ver Gibbons (1971).▉


Seja \(D_{n,\alpha}\) o ponto \(\alpha\)-percentual superior da distribuição de \(D_n\), isto é, \(P\big(D_n>D_{n,\alpha}\big)\leq \alpha\). A distribuição exata de \(D_n\) para valores selecionados de \(n\) e \(\alpha\) foi tabulada por Miller (1956), Owen (1962) e Birnbaum (1952). A distribuição \(D_n\) em amostras grandes foi derivada por Kolmogorov e a apresentamos a seguir.



Teorema. Seja \(F\) uma função de distribuição contínua. Então, para todo \(z\geq 0\) \begin{equation} \lim_{n\to\infty} P\big(D_n\leq zn^{-1/2}\big) \, = \, \displaystyle 1-2\sum_{i=1}^\infty (-1)^{i-1}e^{-2i^2z^2}\cdot \end{equation}
Demonstração. Ver Kolmogorov (1933).▉


Este teorema pode ser usado para encontrar \(d_n\) tal que \(\lim_{n\to\infty} P\big(\sqrt{n}D_n\leq d_n\big)=1-\alpha\). Tabelas de \(d_n\) para vários valores de \(\alpha\) foram disponibilizados por Owen (1962). As estatísticas \(D_n^+\) e \(D_n^-\) têm a mesma distribuição devido à simetria e sua distribuição comum é dada no seguinte teorema.



Teorema. Seja \(F\) uma função de distribuição contínua. Então, \begin{equation} P\big(D_n^+\leq z\big) \, = \, \displaystyle \left\{ \begin{array}{ccl} 0, & caso & z\leq 0, \\ \displaystyle \int_{1-z}^{1} \int_{\frac{n-1}{n}-z}^{u_n} \cdots \int_{\frac{2}{n}-z}^{u_3}\int_{\frac{1}{n}-z}^{u_2}f(u_1,u_2,\cdots,u_n)\prod_{i=1}^n du_i & caso & 0< z< 1, \\ 1, & caso & z\geq 1, \end{array}\right. \end{equation} onde \begin{equation} f(u_1,u_2,\cdots,u_n) \, = \, \left\{ \begin{array}{ccl} n!, & caso & 0\leq u_1< u_2< \cdots < u_n\leq 1, \\ 0, & caso & contrário, \end{array}\right. \end{equation} é a função de densidade conjunta das estatísticas de ordem de uma amostra aleatória de tamanho \(n\) da distribuição \(U(0,1)\).
Demonstração. Exercício.▉


Tabelas para os valores criticos \(D_{n,\alpha}^+\), onde \(P\big( D_n^+>D_{n,\alpha}^+ \big)\leq \alpha\), foram disponibilizados para valores selecionados de \(n\) e \(\alpha\) em Birnbaum & Tingey (1951). No caso de amostras grandes Smirnov (1944) demonstrou que \begin{equation} \lim_{n\to\infty} P\big(\sqrt{n}D_n^+\leq z\big)=1-e^{-2z^2}, \quad z\geq 0\cdot \end{equation} De fato, em vista da expressão acima, a estatística \(V_n=4n{D_n^+}^2\) tem distribuição limite \(\chi^2(2)\), para \(4n{D_n^+}^2\leq 4z^2\) se e somente se \(\sqrt{n}D_n^+\leq z\), \(z\geq 0\), e o resultado segue desde que \begin{equation} \lim_{n\to\infty} P\big(V_n\leq 4z^2\big)=1-e^{-2z^2}, \quad z\geq 0, \end{equation} de modo que \begin{equation} \lim_{n\to\infty} P\big(V_n\leq x\big)=1-e^{-x/2}, \quad x\geq 0\cdot \end{equation} a qual é a função de distribuição de uma variável aleatória \(\chi^2(2)\). Todos estes resultados estão programados na função R ks.test, esta função fornece-nos tanto o valor do estatística \(D_n\) quanto o p-valor, seja este encontrado de maneira exata ou através da distribuição limite.

Exemplo. Vamos verificar, utilizando o teste Kolmogorov-Smirnov, se a amostra aleatória gerada e guardada no vetor \(x\) satisfaz a distribuição normal padrão.
> ks.test(x, pnorm) One-sample Kolmogorov-Smirnov test data: x D = 0.11808, p-value = 0.454 alternative hypothesis: two-sided
Obtemos como resultado p-valor = 0.454 o qual não deixa dúvida de que a amostra gerada é N(0,1).

Vejamos uma situação diferente na qual rejeitamos primeiro a hipótese nula de a amostra seja N(0,1), mas verificando detalhadamente a amostra podemos encontrar uma distribuição adequada.

Exemplo. Verifiquemos que a amostra utiilizada para gerar o gráfico da figura acima à direita não têm distribuição normal padrão e sim Gama(3,1).
> ks.test(y, pnorm) One-sample Kolmogorov-Smirnov test data: y D = 0.783, p-value = 8.882e-16 alternative hypothesis: two-sided
Mas, observando gráficamente algumas estatísticas descritivas podemos percebemos que a distribuição mais adequada é uma outra. Na figura abaixo mostramos dois gráficos, à esquerda o histograma com a função de densidade estimada pelo método kernel e à direita mostramos o gráfico QQ-plot. Os comandos para gerar ambos os gráficos são mostrados a seguir.
> par(mar=c(4,2,1,1)) > hist(y, main="", xlab="y", border="blue", col="green", prob = TRUE) > lines(density(y)) > box() > par(mar=c(4,2,1,1)) > qqplot(qgamma(ppoints(length(y)), shape=mean(y)),y, xlab="x", ylim=c(0,8), xlim=c(0,8)) > qqline(z, distribution = function(p) qgamma(p, shape = 3), prob = c(0.1, 0.6), col = 2)
> ks.test(y, pgamma, shape=3) One-sample Kolmogorov-Smirnov test data: y D = 0.099868, p-value = 0.6639 alternative hypothesis: two-sided
Comprovamos assim que a distribuiço da amostra é Gama(3,1).
Exemplo. Vamos considerar os seguintes dados e aplicar o teste de Kolmogorov-Smirnov para determinar a qualidade do ajuste.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > ks.test(dados, pnorm) One-sample Kolmogorov-Smirnov test data: dados D = 0.19979, p-value = 0.3539 alternative hypothesis: two-sided

Vale a pena comparar o teste qui-quadrado de bondade de ajuste e o teste de Kolmogorov-Smirnov. O segundo trata diretamente das observações individuais enquanto o primeiro discretiza os dados e, às vezes, perde informações por meio do agrupamento. Além disso, o teste de Kolmogorov-Smirnov é aplicável mesmo no caso de amostras muito pequenas, mas o teste do qui-quadrado é essencialmente para amostras grandes.

O teste qui-quadrado, por outro lado, pode ser facilmente modificado para permitir a estimação de parâmetros a partir dos dados, mas o teste de Kolmogorov-Smirnov não tem essa flexibilidade. O teste qui-quadrado pode ser aplicado quando os dados são discretos ou contínuos, mas o teste de Kolmogorov-Smirnov pressupõe a continuidade da função de distribuição. Isso significa que o último teste fornece uma análise mais refinada dos dados. Se a distribuição é realmente descontínua, o teste de Kolmogorov-Smirnov é conservador na medida em que tende a aceitar \(H_0\).

Voltamos nossa atenção para alguns outros usos da estatística Kolmogorov-Smirnov. Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória da função de distribuição \(F\) e seja \(\widehat{F}_n\) a função de distribuição empírica. A estimativa \(\widehat{F}_n\) de \(F\), para \(n\) grande, deve ser pró,xima a \(F\). De fato, \begin{equation} P\Big( |\widehat{F}_n(x)-F(x)|\leq \frac{\epsilon\sqrt{F(x)[1-F(x)]}}{\sqrt{n}}\Big)\geq 1-\dfrac{1}{\epsilon^2} \end{equation} e, desde que \(F(x)[1-F(x)]\leq \frac{1}{4}\), temos que \begin{equation} P\Big( |\widehat{F}_n(x)-F(x)|\leq \frac{\epsilon}{2\sqrt{n}}\Big)\geq 1-\dfrac{1}{\epsilon^2}\cdot \end{equation} Assim \(\widehat{F}_n\) pode ser escolhido próximo a \(F\) com alta probabilidade escolhendo \(\epsilon\) e um \(n\) suficientemente grande. A estatística de Kolmogorov-Smirnov nos permite determinar o menor \(n\) tal que o erro na estimativa nunca exceder um valor fixo \(\delta\) com uma grande probabilidade \(1- \alpha\). Desde que \begin{equation} P\Big(D_n\leq \delta\Big)\geq 1-\alpha, \end{equation} \(\delta=D_{n,\alpha}\) e, dado \(\delta\) e \(\alpha\), podemos ler \(n\) das tabelas das probabilidades acima. Para \(n\) grande, podemos usar a distribuição assintótica de \(D_n\) e resolver \(d_{\alpha}=\delta\sqrt{n}\) para \(n\).

Nós também podemos formar limites de confiança para \(F\). Dado \(\alpha\) e \(n\), primeiro encontramos \(D_{n,\alpha}\) de forma que \begin{equation} P(D_n>D_{n,\alpha})\leq \alpha, \end{equation} o qual é o mesmo que \begin{equation} P\Big( \sup_x |\widehat{F}_n(x)-F(x)|\leq D_{n,\alpha}\Big)\geq 1-\alpha\cdot \end{equation} Portanto \begin{equation} P\Big( |\widehat{F}_n(x)-F(x)|\leq D_{n,\alpha} \quad para \; todo \; x\Big)\geq 1-\alpha\cdot \end{equation} Definamos \begin{equation} L_n(x)=\max\Big( \widehat{F}_n(x)-D_{n,\alpha},0 \Big) \quad e \quad U_n(x)=\min\Big( \widehat{F}_n(x)+D_{n,\alpha},1 \Big)\cdot \end{equation} Então, a região entre \(L_n(x)\) e \(U_n(x)\) pode ser usada como uma banda de confiança para \(F(x)\) com o coeficiente de confiança associado \(1-\alpha\).

Exemplo. Considerando novamente os dados do exemplo anterior vamos verificar que a amostra é da distribuição normal padrão.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > ks.test(dados, pnorm) One-sample Kolmogorov-Smirnov test data: dados D = 0.19979, p-value = 0.3539 alternative hypothesis: two-sided

Em relação à distribuição de \(D_n\), utilizaremos um novo algoritmo para calcular probabilidades \(D_n < D_{n,\alpha}\) proposto por Carvalho (2015). Este algoritmo é uma versão melhorada do método originalmente proposto por Wang, Tsang e Marsaglia (2003) baseado no resultado de Durbin (1973). O novo algoritmo mantém a mesma precisão numérica do Wang et al. (2003), mas é mais eficiente. O método proposto é implementado no pacote R kolmim.

Exemplo. Apresentação da função de distribuição de \(D_n\).
> library(kolmim) > par(mfrow = c(1,1), mar=c(4,5,1,1), pch = 19) > n = 100 > x = seq(0.01, 0.30, by = 0.01) > plot(x, pkolmim(x, n), type='l', xlim = c(0.00, 0.30), ylab = expression(paste(P(D[n]< D[n][","][alpha]))), xlab=expression(D[n][","][alpha])) > text(0.08, 0.7, "n=100") > n1 = 50 > lines(x, pkolmim(x, n1), col="red") > text(0.13, 0.8, "n=50", col="red") > n2 = 25 > lines(x, pkolmim(x, n2), col="blue") > text(0.17, 0.7, "n=25", col="blue") > abline(h=0.90, lty=2) > text(0, 0.9, "90%")
Resultando no seguinte gráfico. Deste resultado podemos, por exemplo, identificar o valor de \(D_{n,\alpha}\) para obtermos intervalos de confiança para \(F_X(x)\).

II.1.3 Teste Lilliefors


O teste de normalidade de Lilliefors é uma adaptação do teste Kolmogorov-Smirnov para o caso em que a média e a variância da distribuição normal são desconhecidos. Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória de tamanho \(n\). Estimamos a média e a variância dos dados usando os estimadores não viciados \begin{equation} \widehat{\mu}=\overline{X} \qquad \mbox{e} \qquad \widehat{\sigma}^2=s^2=\frac{1}{n-1}\sum_{i=1}^n (X_i-\overline{X})^2\cdot \end{equation}

Aqui nós consideramos o problema do teste de bondade do ajuste para a distribuição normal sem média e variância especificadas. Este problema é muito importante na prática, porque a suposição de uma distribuição normal com \(\mu\) e \(\sigma\) é necessária para tantos testes estatísticos clássicos e procedimentos de estimação. Nesse caso, observe que a hipótese nula é composta porque afirma que a distribuição subjacente é alguma distribuição normal. Em geral, o teste Kolmogorv-Smirnov pode ser aplicado no caso de hipóteses compostas de ajuste de qualidade após estimar os parâmetros desconhecidos, \(F_0\) será então substituído por \(\widehat{F}_0\).

infelizmente, a distribuição nula da estatística de teste Kolmogorov-Smirnov com parâmetros estimados é muito mais complicada. Isso, obviamente, afeta os cálculos do p-valor. Para a distribuição normal, Lilliefors (1967) mostrou que a utilização dos pontos críticos usuais desenvolvidos para o teste Kolmogorov-Smirnov fornece resultados extremamente conservadores. Ele então usou simulações Monte Carlo para desenvolver uma tabela para a estatística Kolmogorov-Smirnov que fornece valores críticos precisos. Como antes, a estatística Kolmogorov-Smirnov é definida como \begin{equation} D_n=\sup_{x} |\widehat{F}_n(x)-\widehat{F}_0(x)|, \end{equation} onde \(\widehat{F}_n\) é a função de distribuição empírica e \(\widehat{F}_0\) é calculado como a distribuição normal padrão \(\Phi(z)\) onde \(z=(x-\widehat{x})/s\) para cada observação \(x\), \(\widehat{x}\) a média amostral das \(n\) observações e \(s^2\) o estimador não viciado de \(\sigma^2\), calculado com \(n-1\) no denominador. A hipótese nula de normalidade é rejeitada se \(D_n> c\), onde \(c\) é o valor de corte. Os valores de corte desta estatística de teste para valores selecionados de \(n\) e diferentes níveis de significância podem ser encontrados em Dallal e Wilkinson (1986) sendo apenas confiáveis quando o p-valor é menor que 0.100. Uma aproximação analítica, devida a estes mesmos autores, da probabilidade de cauda superior \(p\), da distribuição de \(D_n\) para menos de 0.100 e tamanho de amostra \(n\) entre 5 e 100 é dada por \begin{equation} \exp\Big( -7.01256 D_n^2(n+2.789019)+2.99587 D_n\sqrt{n+2.78019}-0.122119+\frac{0.974598}{\sqrt{n}}+\frac{1.67997}{n}\Big)\cdot \end{equation} Para amostras de tamanho \(n>100\), a mesma expressão é utilizada com \(D_n\) substituído por \(D_n\times \big(\frac{n}{100}\big)^{0.49}\). Se o p-valor de Dallal-Wilkinson for superior a 0.100, então o p-valor é calculado a partir da distribuição da estatística modificada \(D_n\big(\sqrt{n}-0.01+0.85/\sqrt{n}\big)\), ver Stephens (1974). A fórmula real do p-valor sendo obtida por um processo de simulação e aproximação disponível na função lillie.test no pacote nortest.

Exemplo. Considerando novamente os dados do exemplo anterior vamos verificar que a amostra é da distribuição normal padrão.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > library(nortest) > lillie.test(dados) Lilliefors (Kolmogorov-Smirnov) normality test data: dados D = 0.149, p-value = 0.2899
Aceitamos a hipótese nula de normalidade dos dados.

II.1.4 Teste Cramér-von Mises


A estatística do teste de Cramér-von Mises pertence ao grupo de estatísticas de bondade do ajuste baseadas em uma comparação da função de distribuição empírica de uma dada amostra com a distribuição teórica a ser testada. Ela é projetada para testar que a variável aleatária \(X\) tem uma distribuição contínua \(F(\cdot;\theta)\); sendo \(\theta\) um vetor de um ou mais parâmetros que entram na função de distribuição. Assim, para a distribuição normal, o vetor \(\theta=(\mu,\sigma^2)\).

Muitas estatísticas deste tipo foram propostas, a mais famosa e uma das mais antigas sendo a \(D_n\) de Kolmogorov-Smirnov. Esta estatística é baseada na maior discrepância vertival entre as duas funções. Uma medida alternativa é a família \begin{equation} W^* = \int_{-\infty}^\infty \big[\widehat{F}_n(x)-F(\cdot;\theta)\big]^2\psi(x)f(x)\mbox{d}x, \end{equation} sendo, \(f\) a função de densidade sob a hipóteses nula e, no caso da estatástica Cramér-von Mises, \(\psi(x)=1\). A expressão computacional da estatástica de teste é \begin{equation} W_n^*=\frac{1}{n}\sum_{i=1}^n \Big( F_0\big(X_{(i})\big)-\frac{2i-1}{2n}\Big)^2+\frac{1}{12n^2}, \end{equation} onde \(X_{(1)},X_{(2)},\cdots,X_{(n)}\) são as estatásticas de ordem. Considerando certa a hipótese nula \(H_0\), a distribuição limite desta estatástica é bem conhecida e sabe-se que em amostras finitas \(W_n^*\) aborda este limite muito rapidamente.

A expressão de \(W_n^*\) sugere uma maneira de avaliar os valores críticos do teste de Cramér-von Mises por simulações Monte Carlo. Simplesmente geram-se variáveis aleatórias independentes \(\epsilon_1,\cdots,\epsilon_n\) da distribuição \(Uniforme(0,1)\) e calcula-se \(W_n^*\) cada amostra Monte Carlo. Em um grande número de amostras Monte Carlo, o percentil de \(100(1-\alpha)\) dos valores calculados para \(W_n^*\), aproxima-se então dos valores críticos do teste correspondentes no nível de significância \(\alpha\) para qualquer \(\alpha\in (0,1)\) de acordo com a Lei dos Grandes Números.

Exemplo. Vamos considerar os seguintes dados para mostrar o comando que realiza o teste de bondade de ajuste de Cramer-von Mises para a distribuição especificada pelo argumento null. Assume-se que os valores em \(x\) sejam uma amostra aleatória com alguma função de distribuição \(F\). A hipótese nula é que \(F\) seja a função especificada pelo argumento null, enquanto a hipótese alternativa é que \(F\) é alguma outra função.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > library(goftest) > cvm.test(dados, null = "pnorm", mean = 0, sd = 1) Cramer-von Mises test of goodness-of-fit Null hypothesis: Normal distribution with parameters mean = 0, sd = 1 data: dados omega2 = 0.080897, p-value = 0.692

II.1.5 Teste Anderson-Darling


A estatística do teste de Anderson-Darling pertence ao grupo de estatísticas de bondade do ajuste baseadas em uma comparação da função de distribuição empírica de uma dada amostra com a distribuição teórica a ser testada. Ela é projetada para testar que a variável aleatária \(X\) tem uma distribuição contínua \(F(\cdot;\theta)\); sendo \(\theta\) um vetor de um ou mais parâmetros que entram na função de distribuição. Assim, para a distribuição normal, o vetor \(\theta=(\mu,\sigma^2)\).

Muitas estatísticas deste tipo foram propostas, a mais famosa e uma das mais antigas sendo a \(D_n\) de Kolmogorov-Smirnov. Esta estatística é baseada na maior discrepância vertival entre as duas funções. Uma medida alternativa é a família \begin{equation} W^* = \int_{-\infty}^\infty \big[\widehat{F}_n(x)-F(\cdot;\theta)\big]^2\psi(x)f(x)\mbox{d}x, \end{equation} sendo no caso desta situação \begin{equation} \psi(x)=\frac{1}{F(\cdot;\theta)[1-F(\cdot;\theta)]}\cdot \end{equation} Essa função de peso neutraliza o fato de que a discrepância entre \(\widehat{F}_n\) e \(F\) está necessariamente se tornando menor nas caudas, uma vez que ambas abordam 0 e 1 nos extremos. A função de peso dada pesa a discrepância por um fator inversamente proporcional à sua variância, e tem o efeito de dar grande importância às observações na cauda do que a maioria das outras estatísticas. Esta estatística é recomendada com boas propriedades de poder sobre uma ampla gama de distribuições alternativas quando \(F\) não é a verdadeira distribuição.

Para fins práticos, a definição da estatística Anderson-Darling acima precisa ser transformada em uma fórmula computacional. Dada a amostra \(X_1,X_2,\cdots,X_n\), calculamos \(Z_i=F(X_{(i)};\theta)\), \(i=1,2,\cdots,n\) do qual temos que a estatística de Aderson-Darling assume a forma \begin{equation} A^2 = -\frac{\displaystyle\sum_{i=1}^n (2i-1)\Big(\ln(Z_i)-\ln(1-z_{n+1-i})\Big)}{n}-n\cdot \end{equation}

A fórmula para \(Z_i\) acima assume que a distribuição testada \(F\) é completamente especificada, isto é, os parâmetros em \(\theta\) devem ser conhecidos. A estatística \(A^2\) foi introduzida por Anderson and Darling (1954) e para esta situação eles deram a distribuição assintótica e tabelas de porcentagem de pontos. Para fins de teste, a cauda superior de \(A^2\) será usada; grandes discrepâncias entre a distribuição empírica e a distribuição testada indicarão um ajuste inadequado.

Mais tarde, Lewis (1961) demonstrou que a distribuição de \(A^2\) para uma amostra finita aproxima-se da distribuição assintótica de forma extremamente rápida de modo que, para fins práticos, apenas a distribuição assintótica é necessária para tamanho de amostra maior que 5.

A distribuição de \(A^2\) para o caso de parâmetros conhecidos é a mesma para todas as distribuições testadas. Isso ocorre porque a transformação integral da probabilidade é feita na primeira etapa, quando calculamos \(Z_i=F(X_{(i)};\theta)\) e os valores de \(Z_i\) são valores ordenados de uma distribuição uniforme com os limites 0 e 1. \(A^2\) é, portanto, uma função de variáveis aleatórias uniformes ordenadas. A teoria da distribuição assintótica para este caso especial pode ser encontrada a partir da teoria assintótica da função de distribuição empírica ou, mais especificamente, da função \begin{equation} \sqrt{n}\Big(\widehat{F}_n(z)-z\Big)\cdot \end{equation}

Quando \(\theta\) contém componentes desconhecidos os \(Z_i\), dados pela transformação acima, quando um estimador \(\widehat{\theta}\) substitui \(\theta\), não serão variáveis aleatórias ordenadas com distribuição uniformes e a teoria de distribuição de \(A^2\), torna-se substancialmente mais difícil. Em geral, a distribuição de \(A^2\) depende de \(n\) e também dos valores dos parâmetros desconhecidos.

Felizmente, uma simplificação importante ocorre se os componentes desconhecidos de \(\theta\) forem apenas parâmetros de localização e escala. Então a distribuição desta estatística, com uma estimativa apropriada para \(\theta\), dependerá da distribuição testada, mas não do valor específico dos parâmetros desconhecidos. Assim, para o teste da distribuição normal, por exemplo, com \(\mu\) e \(\sigma^2\) desconhecidos, apenas um conjunto de tabelas seria necessário, de porcentagens para cada \(n\). Esta simplificação faz com que seja possível calcular a teoria assintótica para \(A^2\), e isto foi feito para o caso normal e outros na função AndersonDarlingTest, pacote de funções DescTools.

Exemplo. Vamos considerar os seguintes dados para mostrar o comando que realiza o teste de bondade de ajuste de Anderson-Darling para a distribuição especificada pelo argumento null. Assume-se que os valores em \(x\) são uma amostra aleatória com alguma função de distribuição \(F\). A hipótese nula é que \(F\) é a função especificada pelo argumento null, enquanto a hipótese alternativa é que \(F\) seja uma outra função.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > library(DescTools) > AndersonDarlingTest(dados, null = "pnorm", mean=0, sd=1) Anderson-Darling test of goodness-of-fit Null hypothesis: Normal distribution with parameters mean = 0.000, sd = 1.000 data: dados An = 0.50595, p-value = 0.7387

II.1.6 Teste Jarque-Bera


O Teorema Central do Limite afirma que, sujeito a que o segundo momento é finito, a média amostral \(\overline{X}\) de observações independentes identicamente distribuídas é assintoticamente normal no sentido de que \begin{equation} \frac{\sqrt{n}}{\sigma}\big( \overline{X}-\mu\big) \overset{D}{\longrightarrow} Z, \qquad n\to\infty, \end{equation} onde \(Z\sim N(0,1)\), \(\mu=\mbox{E}(X_1)\) e \(\sigma^2=\mbox{Var}(X_1)\). Ao longo dos anos, esse surpreendente resultado informou ou até mesmo confundiu seus usuários. Por exemplo, ele diz que não importa qual seja a distribuição populacional da amostra, a distribuição limite no lado direito é sempre a mesma: a distribuição normal padrão. Imagine quão diferente a distribuição da população pode ser em termos de sua forma: simétrica, distorcida, bimodal, contínua, discreta e assim por diante. No entanto, elas não fazem diferença enquanto ao teorema do limite central.

No entanto, o teorema central do limite é correto do ponto de vista teórico e isso foi confirmado por inúmeros estudos empíricos. Aqui, do ponto de vista teórico, isso significa que \(n\to\infty\) ou pelo menos é muito grande. No entanto, em uma situação de amostra finita, pode ser uma história diferente. Por exemplo, suponha que \(n=30\). Pode ser mostrado que neste caso a forma da distribuição da população faz diferença. Isso levanta uma questão sobre a taxa de convergência do teorema central do limite. Em particular, duas medidas da forma da distribuição da população são a assimetria e a curtose, definidas como \begin{equation} \kappa_3 \, =\, \frac{\mbox{E}(X_1-\mu)^3}{\sigma^3} \end{equation} e \begin{equation} \kappa_4 \, =\, \frac{\mbox{E}(X_1-\mu)^4}{\sigma^4}-3, \end{equation} respectivamente. Seria de se esperar que essas características tivessem algum impacto na taxa de convergência do teorema central do limite. Por exemplo, o célebre teorema de Berry-Essen, descoberto por Berry (1941) e Essen (1942), afirma que se o terceiro momento de \(X_1\) é limitado, então \begin{equation} \sup_x |F_n(x)-\Phi(x)|\leq \frac{c\mbox{E}(|X_1|^3)}{\sqrt{n}}, \end{equation} onde \(F_n\) é a função de distribuição de \(\xi_n=(\sqrt{n}/\sigma)(\overline{X}-\mu)\), \(\Phi\) a função de distribuição normal padrão e \(c\) uma constante que não de depende da distribuição de \(X_1\). A expansão de Edgeworth, batizada em homenagem ao matemático irlandês Francis Ysidro Edgeworth (1845-1926), é uma forma de aprimorar a desigualdade acima a ordens superiores.

Como a expansão de Taylor, a expansão de Edgeworth pode ser expressa em \(k + 1\) termos mais um resíduo. A diferença é que, na expansão de Taylor, os termos estão em ordens decrescentes de \(|x-a|\) e na exopansão de Edgeworth, os termos estão em ordem decrescente de \(n^{-1/2}\). Por uma questão de simplicidade, focamos principalmente no caso \(k=2\), que pode ser expresso como \begin{equation} F_n(x) \, = \, \Phi(x) \, + \, \frac{\kappa_3p_1(x)}{6\sqrt{n}}\phi(x) \, + \, \frac{\kappa_4p_2(x)-\kappa_3^2p_3(x)}{24n}\phi(x) \, + \, O(n^{-3/2}), \end{equation} onde \(\phi(x)\) é a função de densidade normal padrão, ou seja, \(\phi(x)=(1/\sqrt{2\pi})e^{-x^2/2}\), \begin{equation} p_1(x) \, = \, 1-x^2, \qquad p_2(x) \, = \, x(3-x^2) \qquad \mbox{e} \qquad p_3(x) \, = \, \frac{x}{3}(15-10x^2+ x^4)\cdot \end{equation} Vemos que o primeiro e o segundo termos da expansão de Edgeworth envolvem a assimetria \(\kappa_3\) e a curtose \(\kappa_4\), confirmando nossa especulação anterior de que essas quantidades podem influenciar a taxa de convergência do teorema central do limite. Também podemos perceber que se \(\kappa_3=0\) e \(\kappa_4=0\), então a aproximação à distribuição normal padrão seria quase perfeita.

Na análise univariada de dados, uma das hipóteses mais utilizadas é a suposição de normalidade. Além disso, a normalidade comumente assumida nos ajuda a estimar e fazer comparações e julgamentos inferenciais. No entanto, a violação dessa suposição pode produzir inferências enganosas e o resultado do uso de inferências não confiáveis é produzir interpretações enganosas. Testes de normalidade devem ser tão importantes quanto a suposição de normalidade. O método mais amplamente utilizado, pelo menos na econometria, que foi sugerido e usado para testar se a distribuição subjacente a uma amostra é normal é a estatística de Bowman and Shenton (1975): \begin{equation} JB = n\left( \frac{\kappa_3^2}{6}+\frac{\kappa_4^2}{24} \right), \end{equation} que posteriormente foi derivado por Jarque and Bera (1987). Por esse motivo, a estatástica de teste \(JB\) também chamado de teste de Jarque-Bera.

A estatística \(JB\) tem uma distribuição assintótica chi-quadrada com dois graus de liberdade. Esta estatística é simples e seu poder se mostrou comparável a outros testes poderosos. Está programada na JarqueBeraTest no pacote DescTools.

Exemplo. Vamos considerar os seguintes dados para mostrar o gráfico p-p plot.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > library(DescTools) > JarqueBeraTest(dados) Robust Jarque Bera Test data: dados X-squared = 0.45824, df = 2, p-value = 0.7952

II.1.7 Análise visual


Com o advento da tecnologia de computação facilmente disponível, abordagens visuais para análise de dados estatísticos tornaram-se populares. O assunto é algumas vezes chamado de análise exploratória de dados. No contexto dos testes de qualidade de ajuste, as ferramentas exploratórias de análise de dados empregadas incluem grááficos de pontos, histogramas, gráficos de probabilidade e grááficos de quantiles. A ideia é usar alguns gráficos para obter uma visão rápida da distribuição subjacente e, em seguida, se desejar, realizar uma análise de acompanhamento com um teste confirmatório formal, como qualquer um dos testes abordados anteriormente aqui. Todos estes gráficos de são ferramentas explicativas valiosas discutidas em quase todos os livros de estatística. Observe que existem versões de duas amostras de cada um desses gráficos, mas não abordamos esse tópico agora.

A seguir, distinguimos entre as versões teórica e empírica de um gráfico. A versão teórica é apresentada para entender a ideia, mas a versão empírica é aquela implementada na prática. Dois tipos de gráficos são populares na prática. O primeiro é o chamado gráfico de probabilidade, que é na verdade um gráfico de probabilidade versus probabilidade ou p-p plot. Este gráfico também é chamado de plotagem percentual, por razões óbvias. Em termos gerais, o gráfico p-p plot teórico é o gráfico de uma função de distribuição \(F(x)\) versus uma função de distribuição \(G(x)\) para todos os valores de \(x\). Como as funções de distribuição são probabilidades, o gráfico p-p plot é convenientemente confinado ao quadrado unitário. Se as duas funções de distribuições forem idênticas o gráfico teórico p-p plot será a diagonal principal, a linha de 45 graus através da origem. Este gráfico é amplamente utilizado para avaliar a assimetria de uma distribuição.

Exemplo. Vamos considerar os seguintes dados para mostrar o gráfico p-p plot.
> dados = c(-1.787,-1.229, -0.525,-0.513,-0.508,-0.486,-0.482,-0.323,-0.261,-0.068, -0.057,0.137,0.464,0.595,0.881,0.906,1.046,1.237,1.678,2.455) > library(qqplotr); library(ggplot2) > # p-p plot > gg = ggplot(data = data.frame(dados), mapping = aes(sample = dados)) + stat_pp_band() + stat_pp_line() + stat_pp_point() + labs(x = "Função de distribuição empírica", y = "Função de distribuição Normal padrão") > gg
Nesta figura mostramos o gráfico p-p plot à esquerda e q-q plot à direita para os mesmos dados. Percebemos que podemos aceitar a normalidade.
> # q-q plot > gg1 = ggplot(data = data.frame(dados), mapping = aes(sample = dados)) + stat_qq_band() + stat_qq_line() + stat_qq_point() + labs(x = "Quantis teóricos", y = "Quantis amostrais") > gg1

Para concluir percebemos que o gráfico p-p plot compara uma amostra com um modelo teórico e representa a proporção teórica menor ou igual a cada valor observado em relação à proporção real.

O segundo tipo de gráfico é o chamado quantile plot, que é na verdade um gráfico quantil versus quantil ou um gráfico q-q plot. O gráfico q-q teórico é o gráfico dos quantis de uma função de distribuição \(F\) versus os correspondentes quantis da função de distribuição \(G\), isto é, mostramos os pontos \(\Big(F^{-1}(p),G^{-1}(p)\Big)\) para \(0< p< 1\). Se as duas funções de distribuição forem idênticos, o gráfico q-q teórico será a diagonal principal, a linha de 45 graus através da origem. Se \(F(x)=G\big(\frac{x-\mu}{\sigma} \big)\), é facilmente visto que \(F^{-1}(p)=\mu+\sigma G^{-1}(p)\), de modo que o \(p\)-ésimo quantil de \(F\) e \(G\) tem uma relação linear. Assim, se duas distribuições diferirem apenas em localização e/ou escala, o gráfico teórico q-q será uma reta com inclinação \(\sigma\) e intercepto \(\mu\).

Em um problema de ajuste, normalmente há uma funço de distribuição de destino especificada, digamos \(F_0\). Então o q-q plot teórico é a plotagem de \(\Big(F_0^{-1}(p),F_X^{-1}(p)\Big) \), \(0 < p < 1\). Como o \(F_X\) é desconhecida, podemos estima-la utilizando a função de distribuição empírica baseada em uma amostra aleatória de tamanho \(n\), digamos, \(\widehat{F}_n\). Observando que esta função tem pulos apenas nos valores ordenados \( X_{(i)}\), o gráfico empírico q-q plot é simplesmente o gráfico de \(F_0^{-1}(i/n)\) no eixo horizontal versus \(\widehat{F}_n^{-1}(i/n)=X_{(i)}\) no eixo vertical, para \(i= 1,2,\cdots, n\). Como observado anteriormente, \(F_0\) é geralmente considerada como sendo uma forma padronizada da funçã de distribuiç:ão hipotética, de forma que para estabelecer o gráfico, locação e/ou escala, os parâmetros subjacentes não precisam ser especificados. Esta é uma vantagem do gráfico q-q plot.

As quantidades \(a_i=i/n\) são chamadas de posições de plotagem. Em \(i=n\), não há problema, pois dado que \(a_n=F_0^{-1}(1)=\infty\); as posições modificadas de plotagem foram consideradas, com vários objetivos. Uma escolha simples é \(a_i=i-0.5/n\); outras escolhas incluem \(a_i=i/n+1\) e \(a_i=(i-0.0375)/(n+0.25)\), sendo esta última altamente recomendada. O gráfico empírico q-q plot é então \(\Big(F_0^{-1}\big((i-0.0375)/(n+0.25)\big),X_{(i)} \Big)\). Para uma dada função de distribuição padronizada \(F_0\), a hipótese nula deste teste de bondade de ajuste \(F_X=F_0\) não é rejeitada se este gráfico for aproximadamente uma linha reta na origem. Afastamentos desta linha sugerem os tipos de diferenças que podem existir entre \(F_X\) e \(F_0\).


II.2 Problema de posição


Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatóo de tamanho \(n\) de alguma distribuição desconhecida \(F\). Seja \(p\) um número real positivo satisfazendo \(0< p < 1 \) e \(\kappa_p(F)\) denotando o quantil de ordem \(p\) da distribuição \(F\), ou seja, \(\kappa_p(F)\) é tal que \(P\Big(X\leq \kappa_p(F)\Big)=p\) isto devido a que no seguinte estudo vamos considerar \(F\) absolutamente contínua.

O problema de posição consiste em verificar se \(H_0: \kappa_p(F)=\kappa_0\), sendo \(\kappa_0\) um valor dado, contra alguma das alternativas \(\kappa_p(F)>\kappa_0\), \(\kappa_p(F)<\kappa_0\) ou \(\kappa_p(F)\neq \kappa_0\). O problema de posição e simetria consiste em verificar se \(H_0: \kappa_{0.5}(F)=\kappa_0\) e \(F\) é simétrica contra \(H_0: \kappa_{0.5}(F)\neq \kappa_0\) ou \(F\) não é simétrica.


II.2.1 O teste do sinal


Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória com função de densidade comum \(f\). O problema aqui é verificarmos \begin{equation} H_0: \kappa_p(f)=\kappa_0 \qquad H_1: \kappa_p(f)>\kappa_0, \end{equation} onde \(\kappa_p(f)\) é o quantil de ordem \(p\) para \(f\), \(0< p < 1\). Vejamos como construir a estatística de teste.

Seja \(i(X_1,X_2,\cdots,X_n)\) o número de elementos positivos em \(X_1-\kappa_0,X_2-\kappa_0,\cdots,X_n-\kappa_0\). Observemos que \(P(X_i=\kappa_0)=0\), desde que \(X_i\) seja uma variável aleatória do tipo contínuo. Pode ser demonstrado que o teste uniformemente mais poderoso para verificar \(H_0\) versus \(H_1\) é dado por \begin{equation} \varphi(x_1,x_2,\cdots,x_n)=\left\{ \begin{array}{rl} 1, & i(x_1,x_2,\cdots,x_n) > c, \\ \gamma , & i(x_1,x_2,\cdots,x_n) = c, \\ 0, & i(x_1,x_2,\cdots,x_n) < c, \end{array}\right. \end{equation} onde \(c\) e \(\gamma\) são escolhidos de forma que \begin{equation} \sum_{k=c}^n {n \choose i} q^i p^{n-i} + \gamma {n \choose c} q^c p^{n-c} = \alpha, \end{equation} com \(q=1-p\). Isto é devido a que, sob \(H_0\) verdadeira, \(\kappa_p(f)=\kappa_0\), de maneira que \( P(X\leq \kappa_0)=p\) e \(P(X\geq \kappa_0)=q\) e \( i(X)\sim Binomial(n,q)\). A mesma estatística de teste pode ser utilizada em qualquer outra situação, ou seja, utiliza-se também caso \(H_0: \kappa_p(f)\leq \kappa_0 \) versus \(H_1: \kappa_p(f)\geq \kappa_0\), \(H_0: \kappa_p(f)\geq \kappa_0 \) versus \(H_1: \kappa_p(f)\leq \kappa_0\) e \(H_0: \kappa_p(f)=\kappa_0\) contra \( H_1: \kappa_p(f)\neq \kappa_0\).

As expressões do p-valor para este teste podem ser obtidas de maneira geral quando \(p = 0.5\). Por exemplo, se a alternativa é de cauda superior \(H_1: \kappa_p(f)\geq \kappa_0\), o p-valor para o teste de sinal é dado pela probabilidade binomial na cauda superior \begin{equation} \sum_{i=i(x)}^n {n \choose i} 0.5^n, \end{equation} sendo \(i(x)=i(x_1,x_2,\cdots,x_n) \) o valor observado da estatística de teste. Poderíamos facilmente gerar tabelas para aplicar o teste de sinal exato para qualquer tamanho de amostra. No entanto, sabemos que a aproximação normal à binomial é especialmente boa quando \(p = 0.5\). Portanto, para valores moderados de \(n\) digamos, pelo menos 12, a aproximação normal pode ser usada para determinar as regiões de rejeição. Como esta é uma aproximação contínua a uma distribuição discreta, uma correção de continuidade de 0.5 pode ser incorporada aos cálculos. Por exemplo, para a alternativa, \(H_1: \kappa_{0.5}(f)\geq \kappa_0\), \(H_0\) é rejeitada para \(i(x_1,x_2,\cdots,x_n)\geq \kappa_\alpha \), sendo \(\kappa_\alpha\) satisfazendo \begin{equation} \kappa_\alpha = 0.5 n +0.5 +0.5\sqrt{n} z_\alpha\cdot \end{equation} Similarmente, o p-valor aproximado é \begin{equation} 1-\Phi\Big( \frac{\kappa_0-0.5-0.5 n}{\sqrt{0.25 n}} \Big)\cdot \end{equation} O teste do sinal para as diferentes hipótesis está programado no pacote DescTools, função SignTest.

> library(DescTools) > x = c(203, 168, 187, 235, 197, 163, 214, 233, 179, 185, 197, 216) > SignTest(x, mu = 195, alternative = "greater") One-sample Sign-Test data: x S = 7, number of differences = 12, p-value = 0.3872 alternative hypothesis: true median is greater than 195 98.1 percent confidence interval: 179 Inf sample estimates: median of the differences 197

O teste do sinal de amostra única descrito acima pode ser facilmente modificado para se aplicar à amostragem de uma população bivariada.


II.2.2 Teste de Wilcoxon


O teste de sinal perde informação, pois ignora a magnitude da diferença entre as observações e o quantil hipotético. O teste de postos sinalizados de Wilcoxon fornece um teste alternativo de posição e simetria que também leva em conta a magnitude dessas diferenças.

Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória com função de distribuição \(F\) absolutamente contínua que é simétrica a respeito da mediana \(m\). O problema é testar \(H_0: m=m_0\) contra as alternativas usuais unilaterais ou bilaterais. Sem perda de generalidade, assumimos que \(m_0=0\). Então \(F(-x)=1-F(x)\) para todo \(x\in\mathbb{R}\). Para testar \(H_0: F(0)=\frac{1}{2}\) ou \(m=0\), primeiro organizamos \(|X_1|,|X_2|,\cdots,|X_n|\) em ordem crescente de magnitude e atribuímos postos \(1,2,\cdots,n\) mantendo-se a par dos sinais originais de \(X_i\). Por exemplo, se \(n=4\) e \(|X_2|< |X_4|< |X_1|< |X_3|\) o posto de \(|X_1|\) é 3, de \(|X_2|\) é 1, de \(|X_3|\) é 4 e de \(|X_4|\) é 2.

Definimos \begin{equation} \left\{ \begin{array}{rcl} T^+ & = & \mbox{soma dos postos dos } X \mbox{ positivos}, \\ T^- & = & \mbox{soma dos postos dos } X \mbox{ negativos} \end{array}\right.\cdot \end{equation} Então, considerando \(H_0\) verdadeira, experamos que \(T^+\) e \(T^-\) sejam o mesmo. Observe que \begin{equation} T^++T^- \, = \, \sum_{i=1}^n i \, = \, \dfrac{n(n+1)}{2}, \end{equation} de maneira que \(T^+\) e \(T^-\) são linearmente relacionados e oferecem critérios equivalentes. Definimos agora \begin{equation} Z_i \, = \, \left\{ \begin{array}{rcl} 1, & \mbox{caso} & X_i>0 \\ 0, & \mbox{caso} & X_i<0 \end{array}\right., \qquad i=1,2,\cdots,n, \end{equation} e escrevemos \(r(|X_i|)=r_i\), para o posto de \(|X_i|\). Então \(\displaystyle T^+=\sum_{i=1}^n r_iZ_i\) e \(\displaystyle T^-=\sum_{i=1}^n r_i(1-Z_i)\). Também, \begin{equation} T^+-T^- \, = \, -\sum_{i=1}^n r_i + 2\sum_{i=1}^n r_iZ_i \, = \, 2\sum_{i=1}^n r_iZ_i-\dfrac{n(n+1)}{2}\cdot \end{equation} As estatísticas \(T^+\) e \(T^-\) são conhecidas como estatísticas de Wilcoxon. Um grande valor de \(T\) ou, equivalentemente, um pequeno valor de \(T\) significa que a maioria dos grandes desvios de 0 são positivos e, portanto, rejeitamos \(H_0\) em favor da alternativa, \(H_1: m>0\).

Uma análise semelhante aplica-se às outras duas alternativas. Registramos os resultados da seguinte forma:

\(H_0\) \(H_1\) Rejeitamos \(H_0\) se

\(m=0\) \(m>0\) \(T^+>c_1\)
\(m=0\) \(m < 0\) \(T^+< c_2\)
\(m=0\) \(m \neq 0\) \(T^+< c_3\) ou \(T^+> c_4\)

Vamos encontrar agora a distribuicao de \(T^+\). Seja \begin{equation} Z_{(i)}=\left\{ \begin{array}{rl} 1, & \mbox{se o } |X_i| \mbox{ que tem posto } i \mbox{ é } >0, \\ 0, & \mbox{caso contrário} \end{array}\right. \end{equation} É claro que \(T^+=\sum_{i=1}^n iZ_{(i)}\). As variáveis aleatórias \(Z_{(1)},Z_{(2)},\cdots,Z_{(n)}\) tem por distribuição Bernoulli, são não correlacionadas mas não necessariamente igualmente distribuídas. Temos \begin{equation} \begin{array}{rcl} \mbox{E}\big( Z_{(i)} \big) & = & P\big( Z_{(i)} = 1\big) \, = \, P\big( [r(|X_i|)=i, \, X_j>0] \, \mbox{para algum } j\big) \\ & = & P\big( i\mbox{-ésima estatística de ordem em } |X_1|,|X_2|,\cdots,|X_n| \, \mbox{corresponde a um } X_j \, \mbox{positivo}\big) \\ & = & \displaystyle \int_0^\infty n{ n-1 \choose i-1} [F_{|X|}(u)]^{i-1}[1-F_{|X|}(u)]^{n-i}f(u)\mbox{d}u \\ & = & \displaystyle n{ n-1 \choose i-1}\int_0^\infty [F(u)-F(-u)]^{i-1}[1-F(u)+F(-u)]^{n-i} f(u)\mbox{d}u, \end{array} \end{equation} onde \(f\) é a função de densidade de \(X\). Além disso \begin{equation} \mbox{Var}\big( Z_{(i)} \big) \, = \, \mbox{E}\Big( Z_{(i)}\big( 1-\mbox{E}\big(Z_{(i)}\big) \big)\Big) \end{equation} e \begin{equation} \mbox{Cov}\big( Z_{(i)},Z_{(j)} \big) \, = \, 0, \qquad i\neq j\cdot \end{equation} Sob \(H_0\), \(X\) é simétrica a respeito de 0, de modo que \(F(0)=\frac{1}{2}\) e \(F(-u)=1-F(u)\), para todo \(u>0\). Então \begin{equation} \mbox{E}\big( Z_{(i)} \big) \, = \, n{ n-1 \choose i-1}\int_0^\infty \big(2F(u)-1\big)^{i-1}\big(2-2F(u)\big)^{n-i}f(u)\mbox{d}u\cdot \end{equation} Escolhendo \(\nu=2F(u)-1\), temos que \begin{equation} \mbox{E}\big( Z_{(i)} \big) \, = \, \frac{n}{2}{ n-1 \choose i-1}\int_0^1 \nu^{i-1}(1-\nu)^{n-i}\mbox{d}\nu \, = \, \frac{n}{2}{ n-1 \choose i-1} B(i, n-i+1) \, = \, \frac{1}{2}\cdot \end{equation}

Os momentos de \(T^+\), em geral, são dados por \begin{equation} \mbox{E}(T^+) \, = \, \sum_{i=1}^n i\mbox{E}\big( Z_{(i)} \big) \end{equation} e \begin{equation} \mbox{Var}(T^+) \, = \, \sum_{i=1}^n i^2\mbox{E}\Big( Z_{(i)}\big( 1-\mbox{E}\big(Z_{(i)}\big) \big)\Big)\cdot \end{equation} De maneira que, considerando \(H_0\) verdadeira, temos \begin{equation} \mbox{E}_{H_0}(T^+) \, = \, \frac{1}{2}\sum_{i=1}^n i \, = \, \frac{n(n+1)}{4} \end{equation} e \begin{equation} \mbox{Var}_{H_0}(T^+) \, = \, \frac{1}{4}\sum_{i=1}^n i^2 \, = \, \frac{n(n+1)(2n+1)}{24}\cdot \end{equation}

Observe que \(T^+=0\) se todas as diferenças tiverem sinais negativos e \(T^+=n(n+1)/2\) se todas as diferenças tiverem sinais positivos. Aqui, uma diferença significa uma diferença entre as observações e o valor postulado da mediana. \(T^+\) é completamente determinado pelos indicadores \(Z_{(i)}\), de modo que o espaço amostral possa ser considerado como um conjunto de \((z_1,z_2,\cdots,z_n)\), onde cada \(z_i\) é 0 ou 1, de cardinalidade \(2^n\).

Sob \(H_0\), \(m = m_0\) e cada arranjo é igualmente provável. Portanto \begin{equation} P_{H_0}(T^+=t)=\frac{\{\mbox{número de maneiras de atribuir sinais + ou - aos inteiros 1,2,..., n para que a soma seja t } \}}{2^n}\cdot \end{equation} Observemos que toda atribuição tem uma atribuição conjugada com sinais de mais e menos trocados, de modo que para este conjugado \(T^+\) é dado por \begin{equation} \sum_{i=1}^n i(1-Z_{(i)}) \, = \, \frac{n(n+1)}{2} \, - \, \sum_{i=1}^n iZ_{(i)}\cdot \end{equation} Assim, sob \(H_0\), a distribuição de \(T^+\) é simétrica em relação à média \(n(n+1)/4\).

Exemplo. Para os dados -0.465, 0.120, -0.238, -0.869, -1.016, 0.417, 0.056, 0.561 queremos verificar se \(H_0: m=-1.0\) versus \(H_1: m>-1.0\).
> library(ggplot2) > dados = data.frame(x=c(rep(" ",8)), dados = x) > qplot( x=x, y=dados, data=dados , geom=c("boxplot","jitter")) > par(mar=c(4,2,1,1)) > hist(x, xlab = "x", col = "green", border = "red", xlim = c(-1.5,1.5), ylim=c(0,0.8), breaks = 5, freq = F, ylab="dados", main = "") > lines(density(x)) > box()
> x = c(-0.465, 0.120, -0.238, -0.869, -1.016, 0.417, 0.056, 0.561) > wilcox.test(x, mu = -1, alternative = "greater") Wilcoxon signed rank test data: x V = 35, p-value = 0.007813 alternative hypothesis: true location is greater than -1

II.3 Testes de aleatoriedade


Imagine uma fila de dez pessoas esperando para comprar um ingresso em uma sala de cinema em uma tarde de sábado, suponha que observemos o arranjo de cinco homens e cinco mulheres na fila como sendo H, M, H, M, H, M, H, M, H, M. Isso seria considerado um arranjo aleatório por gênero? Intuitivamente, a resposta é não, já que a alternância dos dois tipos de símbolos sugere mistura intencional por pares. Esse arranjo é um caso extremo, assim como a configuração H, H, H, H, H, M, M, M, M, M, como um agrupamento intencional. Nas situações menos extremas, a aleatoriedade de um arranjo pode ser testada estatisticamente usando a teoria das corridas.

Dada uma sequência ordenada de um ou mais tipos de símbolos, uma corrida é definida como sendo uma sucessão de um ou mais tipos de símbolos que são seguidos e processados por um símbolo diferente ou nenhum símbolo. As pistas para a falta de aleatoriedade são fornecidas por qualquer tendência dos símbolos de exibir um padrão definido na sequência. Tanto o número de realizações quanto os comprimentos das realizações, que obviamente estão inter-relacionados, devem refletir a existência de algum tipo de padrão. Os testes de aleatoriedade podem, portanto, ser baseados em qualquer critério ou em alguma combinação deles. Poucas corridas, muitas corridas, uma corrida de comprimento excessivo, muitas corridas de excesso de comprimento excessivo, etc. podem ser usadas como critérios estatísticos para rejeição da hipótese nula de aleatoriedade, uma vez que essas situações devem ocorrer raramente em uma sequência verdadeiramente aleatória.

A alternativa à aleatoriedade é muitas vezes simplesmente falta de aleatoriedade. Em um teste baseado no número total de realizações, tanto poucas quanto muitas corridas sugerem falta de aleatoriedade. Uma hipótese nula de aleatoriedade seria consequentemente rejeitada se o número total de realizações fosse muito grande ou muito pequeno. No entanto, as duas situações podem indicar diferentes tipos de falta de aleatoriedade. No exemplo do cinema, uma sequência com muitas realizações, tendendo a alternar os sexos, pode sugerir que o filme é popular entre adolescentes e jovens adultos, enquanto o outro arranjo extremo pode resultar se o filme é mais popular entre as crianças mais novas.

O teste de aleatoriedade é uma adição importante à teoria estatística, porque as bases teóricas para quase todas as técnicas clássicas, bem como os procedimentos livres de distribuição, começam com a suposição de uma amostra aleatória. Se essa suposição for válida, toda ordem sequencial é irrelevante. No entanto, se a aleatoriedade das observações for suspeita, as informações sobre ordem, que quase sempre estão disponíveis, podem ser usadas para testar uma hipótese de aleatoriedade. Esse tipo de análise também é útil em estudos de séries temporais e de controle de qualidade.

Os símbolos estudados para o padrão podem surgir naturalmente, como no exemplo do cinema ou podem ser impostos artificialmente. Assim, os testes de aleatoriedade são aplicáveis a dados qualitativos e quantitativos. No último caso, a dicotomia é geralmente efetuada comparando-se a magnitude de cada número com um ponto focal, comumente a mediana ou a média da amostra e nada se cada observação excede ou é excedida por este valor. Ambas as técnicas usam a informação sobre magnitudes relativas de números adjacentes na sequência ordenada pelo tempo. Essas técnicas, chamadas de teste de subidas e descidas e o teste de von Neumann, usam mais as informações disponíveis e são especialmente efetivas quando a alternativa para a aleatoriedade é uma tendência ou autocorrelação.

II.3.1 Teste baseados no número total de corridas


Suponhamos uma sequência ordenada de \(n\) elementos de dois tipos, \(n_1\) do primeiro tipo e \(n_2\) do segundo tipo, onde \(n_1 + n_2 = n\). Se \(r_1\) for o número de realizações de elementos do tipo 1 e se \(r_2\) for o número de realiazações do tipo 2, o número total de realizações na sequência será \(r = r_1 + r_2\). Para derivar um teste de aleatoriedade baseado na variável \(R\), o número total de realizações, precisamos da distribuição de probabilidade de \(R\) quando a hipótese nula de aleatoriedade for verdadeira.

A distribuição de \(R\) será encontrada determinando primeiro a distribuição conjunta de \(R_1\) e \(R_2\) e depois a distribuição de sua soma. Uma vez que sob a hipótese nula cada arranjo dos \(n_1 + n_2\) objetos é equiprovável, a probabilidade de que \(R_1 = r_1\) e \(R_2 = r_2\) é o número de arranjos distinguíveis de \(n_1 + n_2\) objetos com \(r_1\) corridas tipo 1 e \(r_2\) corridas de objetos do tipo 2 dividido pelo número total de arranjos distinguíveis, que é \(n!/n_1! n_2!\). Para a quantidade do numerador, o seguinte Lema de contagem pode ser usado.



Lema. O número de formas distinguíveis de distribuir \(n\) objetos semelhantes em células distinguíveis com nenhuma célula vazia é \({n-1 \choose r-1}\), \(n\geq r\).
Demonstração. Suponha que \(n\) objetos semelhantes sejam todos bolas brancas. Coloque essas \(n\) bolas em uma linha e efetue a divisão em \(r\) células inserindo cada uma das \(r-1\) bolas pretas entre quaisquer duas bolas brancas na linha. Como existem \(n-1\) posições nas quais cada bola preta pode ser colocada o número total de arranjos é \({n-1 \choose r-1}\). ▉


Para obter uma sequência com execuções \(r_1\) dos objetos do tipo 1, \(n_1\) desses objetos devem ser colocados nas \(r_1\) células, o que pode ser feito de \({n_1-1 \choose r_1-1}\) maneiras diferentes. O mesmo raciocínio se aplica para obter \(r_2\) realizações dos outros \(n_2\) objetos. O número total de arranjos distintos começando com uma corrida do tipo 1 é o produto \({n_1-1 \choose r_1-1}{n_2-1 \choose r_2-1}\). Da mesma forma, para uma sequ≖ncia que começa com uma realização do tipo 2. Os blocos de objetos do tipo 1 e tipo 2 devem alternar e, consequentemente, ou \(r_1 = r_2 \pm 1\) ou \(r_1 = r_2\). Se \(r_1 = r_2 = 1\), a sequência deve começar com o tipo 1 de realização; se \(r_1 = r_2-1\), uma corrida do tipo 2 deve vir primeiro. Mas se \(r_1 = r_2\), a seqüência pode começar com uma sequência de qualquer tipo, então o número de arranjos diferenciáveis deve ser dobrado. Assim, provamos o seguinte resultado.



Teorema. Denotemos por \(R_1\) e \(R_2\), respectivamente, o número de corridas de \(n_1\) objetos do tipo 1 e o número de corridas de \(n_2\) objetos do tipo 2 numa amostra aleatória de tamanho \(n=n_1+n_2\). A distribuição conjunta de \(R_1\) e \(R_2\) é \begin{equation} f_{R_1,R_2}(r_1,r_2) \, = \, \frac{c{n_1-1 \choose r_1-1}{n_2-1-1 \choose r_2-1}}{{n_1+n_2 \choose n}}, \end{equation} quando \(r_1=1,2,\cdots,n_1\), \(r_2=1,2,\cdots,n_2\), \(r_1=r_2\) ou \(r_1=r_2\pm 1\) sendo que \(c=2\) se \(r_1=r_2\) e \(c=1\) caso \(r_1=r_2\pm 1\).
Demonstração. Ver descrição acima.▉




Corolário. A distribuição marginal de \(R_1\) é \begin{equation} f_{R_1}(r_1) \, = \, \frac{{n_1-1 \choose r_1-1}{n_2-1+1 \choose r_1}}{{n_1+n_2 \choose n}}, \end{equation} quando \(r_1=1,2,\cdots,n_1\). Similarmente para \(R_2\) com \(n_1\) e \(n_2\) permutados.
Demonstração. Do Teorema anterior, os únicos valores possíveis de \(r_2\) são \(r_2 = r_1\), \(r_1-1\) e \(r_1 + 1\), para qualquer \(r_1\). Portanto, temos \begin{equation} \begin{array}{rcl} f_{R_1}(r_1) & = & \displaystyle\sum_{r_2} f_{R_1,R_2}(r_1,r_2) \\ \displaystyle {n_1+n_2 \choose n_1}f_{R_1}(r_1) & = & \displaystyle 2{n_1-1 \choose r_1-1}{n_2-1 \choose r_1-1} + {n_1-1 \choose r_1-1}{n_2-1 \choose r_1-2} + {n_1-1 \choose r_1-1}{n_2-1 \choose r_1} \\ & = & \displaystyle {n_1-1 \choose r_1-1}\left[ {n_2-1 \choose r_1-1} + {n_2-1 \choose r_1-2} + {n_2-1 \choose r_1-1} +{n_2-1 \choose r_1}\right] \\ & = & \displaystyle {n_1-1 \choose r_1-1}\left[ {n_2 \choose r_1-1} + {n_2 \choose r_1}\right] \\ & = & \displaystyle {n_1-1 \choose r_1-1}{n_2+1 \choose r_1}\cdot▉ \end{array} \end{equation}




Teorema. A distribuição de \(R\), o número total de corridas de \(n=n_1+n_2\) objetos, \(n_1\) do tipo 1 e \(n_2\) do tipo 2, tem função de densidade dada por \begin{equation} f_{R}(r) \, = \, \left\{ \begin{array}{cl} \frac{\displaystyle 2{n_1-1 \choose \frac{r}{2}-1}{n_2-1 \choose \frac{r}{2}-1}}{\displaystyle {n_1+n_2 \choose n_1}}, & \mbox{caso } r \mbox{ par} \\ \frac{\displaystyle {n_1-1 \choose \frac{r-1}{2}}{n_2-1 \choose \frac{r-3}{2}} + {n_1-1 \choose \frac{r-3}{2}}{n_2-1 \choose \frac{r-1}{2}}}{\displaystyle {n_1+n_2 \choose n_1}}, & \mbox{caso } r \mbox{ ímpar} \end{array}\right. \end{equation} para \(r=2,3,\cdots,n\).
Demonstração. Para \(r\) par, deve haver o mesmo número de realizações de ambos os tipos. Assim, os únicos valores possíveis de \(r_1\) e \(r_2\) são \(r_1 = r_2 = r / 2\) e na distribuição conjunta somamos sobre este par. Se \(r_1 = r_2 \pm 1\), \(r\) é ímpar. Neste caso, a distribuição conjunta é somada aos dois pares de valores \(r_1 = (r-1)/2\) e \(r_2 = (r+1)/2\), \(r_1 = (r+1)/2\) e \(r_2 = (r-1)/2\). Obtendo-se o resultado dado. Note que o coeficiente bonimial \({a \choose b}\) é obtido como zero se \(a < b\).▉


Usando este resultado, tabelas podem ser preparadas para testes de significância da hipótese nula de aleatoriedade. Por exemplo, se \(n_1 = 5\) e \(n_2 = 4\), temos \begin{equation} \begin{array}{ll} f_R(9)=\frac{\displaystyle {4 \choose 4}{3 \choose 3}}{\displaystyle {9 \choose 4}} \, = \, \frac{1}{126} \, = \, 0.008, & f_R(8)=\frac{\displaystyle 2{4 \choose 3}{3 \choose 3}}{\displaystyle {9 \choose 4}} \, = \, \frac{8}{126} \, = \, 0.063, \\ f_R(2)=\frac{\displaystyle 2{4 \choose 0}{3 \choose 0}}{\displaystyle {9 \choose 4}} \, = \, \frac{2}{126} \, = \, 0.016, & f_R(3)=\frac{\displaystyle {4 \choose 1}{3 \choose 0} + {4 \choose 0}{3 \choose 1}} {\displaystyle {9 \choose 4}} \, = \, \frac{7}{126} \, = \, 0.056\cdot \end{array} \end{equation} Para um teste bilateral que rejeita a hipótese nula para \(R \leq 2\) ou \(R \geq 9\), o nível exato de significância \(\alpha\) seria \(3/126 = 0.024\). Para a região crítica definida por \(R \leq 3\) ou \(R \geq 8\), \(\alpha = 18/126 = 0.143\). Quanto a todos os testes baseados em distribuições de probabilidade discretas, há um número finito de valores possíveis de \(\alpha\). Para um teste com nível de significância de no máximo 0.05, digamos, a primeira região crítica acima seria usada mesmo que o valor real de \(\alpha\) seja apenas 0.024.


II.3.2 Momentos de \(R\) na distribuição nula


O \(k\)-ésimo momento de \(R\) é \begin{equation} \begin{array}{rcl} \mbox{E}(R^k) & = & \displaystyle \sum_r r^k f_R(r) \\ & = & \frac{\displaystyle \sum_{r \mbox{ par}} 2r^k {n_1-1 \choose \frac{r}{2}-1}{n_2-1 \choose \frac{r}{2}-1} + \sum_{r \mbox{ ímpar}} \left[ {n_1-1 \choose \frac{r-1}{2}}{n_2-1 \choose \frac{r}{2}} + {n_1-1 \choose \frac{r-3}{2}}{n_2-1 \choose \frac{r-1}{2}}\right]}{\displaystyle {n_1+n_2 \choose n_1} } \end{array} \end{equation} O menor valor de \(r\) é sempre 2. Se \(n_1 = n_2\), o maior número de realizações ocorre quando os símbolos alternam, em cujo caso \(r = 2 n_1\). Se \(n_1 < n_2\), o valor máximo de \(r\) é \(2n_1 + 1\), uma vez que a sequência pode começar e terminar com um símbolo do tipo 2. Assumindo sem perda de generalidade que \(n_1 \leq n_2\), a faixa de soma para \(r\) é \(2 \leq r \leq 2n_1 + 1\). Considerando \(r = 2i\) para \(r\) par e \(r = 2i + 1\) para \(r\) ímpar, o intervalo de \(i\) é \(1 \leq i \leq n_1\).

Por exemplo, a experança de \(R\) seria \begin{equation} \begin{array}{rcl} \displaystyle {n_1+n_2 \choose n_1} \mbox{E}(R) & = & \displaystyle \sum_{i=1}^{n_1} 4i{n_1-1 \choose i-1}{n_2-1 \choose i-1} + \sum_{i=1}^{n_1} (2i+1){n_1-1 \choose i}{n_2-1 \choose i-1} + \sum_{i=1}^{n_1} (2i+1){n_1-1 \choose i-1}{n_2-1 \choose i}\cdot \end{array} \end{equation} Para avaliar essas três somas, os seguintes Lemas são úteis.



Lema. \begin{equation} \sum_{r=0}^c {m \choose r}{n \choose r} \, = \, {m+n \choose m}, \qquad \mbox{onde } c=\min(m,n)\cdot \end{equation} para \(r=2,3,\cdots,n\).
Demonstração. \begin{equation} (1+x)^{m+n} \, = \, (1+x)^m (1+x)^n, \qquad \mbox{para todo } x\cdot \end{equation} \begin{equation} \sum_{i=0}^{m+n} {m+n \choose i}x^i \, = \, \sum_{j=0}^m {m \choose j}\sum_{k=0}^n {n \choose k}x^k\cdot \end{equation} Assumindo sem perda de generalidade que \(c=m\) e igualando os dois coeficientes de \(x^m\) em ambos os lados desta equação, obtemos \begin{equation} {m+n \choose m} \, = \, \sum_{r=0}^m {m \choose m-r}{n \choose r}\cdot.▉ \end{equation}




Lema. \begin{equation} \sum_{r=0}^c {m \choose r}{n \choose r+1} \, = \, {m+n \choose m+1}, \qquad \mbox{onde } c=\min(m,n-1)\cdot \end{equation} para \(r=2,3,\cdots,n\).
Demonstração. A prova segue como no Lema acima, igualando os dois coeficientes de \(x^{m+1}\).▉


O processo algébrico de obtenção de \(\mbox{E}(R)\) é tedioso e será deixado como um exercício para o leitor. A variância de \(R\) pode ser encontrada avaliando o momento fatorial \(\mbox{E}\big(R(R-1)\big)\) de maneira similar.

Uma abordagem muito mais simples para encontrar os momentos de \(R\) é fornecida considerando \(R\) como a soma das variáveis indicadoras como segue para \(n = n_1 + n_2\). Consideremos \begin{equation} R = 1+I_2+I_3+\cdots+I_n, \end{equation} onde em uma sequência ordenada dos dois tipos de símbolos, definimos \begin{equation} I_k \, = \, \left\{ \begin{array}{ll} 1, & \mbox{ se o } k-\mbox{ésimo elemento } \neq \mbox{ do } (k-1)-\mbox{ésimo elemento} \\ 0, & \mbox { de outra forma}\end{array}\right.\cdot \end{equation} Então \(I_k\) é uma variável aleatária \(Bernoulli(p)\), sendo \(p=n_1n_2/{n \choose 2}\), assim \begin{equation} \mbox{E}(I_k) \, = \, \mbox{E}(I_k^2) \, = \, \frac{\displaystyle 2n_1n_2}{\displaystyle n(n-1)}\cdot \end{equation} Como \(R\) é uma combinação linear desses \(I_k\), temos \begin{equation} \mbox{E}(R) \, = \, 1+\sum_{k=2}^n \mbox{E}(I_k) \, = \, 1+\frac{2n_1n_2}{n_1+n_2}, \end{equation} também \begin{equation} \begin{array}{rcl} \mbox{Var}(R) & = & \displaystyle \mbox{Var}\Big( \sum_{k=2}^n I_k\Big) \, = \, (n-1)\mbox{Var}(I_k) \, + \, \sum_{2 \, \leq \, j \, \neq \, k \, \leq \, n} \mbox{Cov}(I_jI_k) \\ & = & \displaystyle (n-1)\mbox{E}(I_k^2) \, + \, \sum_{2 \, \leq \, j \, \neq \, k \, \leq \, n} \mbox{E}(I_jI_k) \, - \, (n-1)^2\mbox{E}^2(I_k) \end{array} \end{equation} Para avaliar os \((n-1)(n-2)\) momentos conjuntos do tipo \(\mbox{E}(I_jI_k)\) para \(j \neq k\), as opções de subscrito podem ser classificadas da seguinte forma:

Substituindo estes momentos apropriadamente na expressão temos \begin{equation} \begin{array}{rcl} \mbox{Var}(R) & = & \displaystyle \frac{2n_1n_2}{n} \, + \, \frac{2(n-2)n_1n_2}{n(n-1)} \, + \, \frac{4n_1n_2(n_1-1)(n_2-1)}{n(n-1)} \, - \, \frac{4n_1^2n_2^2}{n^2} \\ & = & \displaystyle \frac{2n_1n_2(2n_1n_2-n_1-n_2)}{(n_1+n_2)^2(n_1+n_2-1)} \cdot \end{array} \end{equation}


II.3.3 Distribuição nula de \(R\) assintótica


Embora a função de densidade de \(R\) possa ser utilizada para encontrar sua distribuição exata quaisquer sejam os valores de \(n_1\) e \(n_2\), os cálculos são trabalhosos, a menos que \(n_1\) e \(n_2\) sejam pequenos. Para amostras grandes, uma aproximação para a distribuição nula pode ser usada o que dá resultados razoavelmente bons, desde que \(n_1\) e \(n_2\) sejam maiores que 10.

A fim de encontrar a distribuição assintótica, assumimos que o tamanho total da amostra \(n\) tende ao infinito de tal maneira que \(n_1/n\to\lambda\) e \(n_2/n\to 1-\lambda\), \(\lambda\) fixo e \(0 < \lambda < 1\). Para grandes amostras, a média e a variância de \(R\) são \begin{equation} \lim_{n\to\infty} \mbox{E}\left( \frac{R}{n}\right) \, = \, 2\lambda(1-\lambda) \qquad \mbox{e} \qquad \lim_{n\to\infty} \mbox{Var}\Big( \frac{R}{\sqrt{n}}\Big) \, = \, 4\lambda^2(1-\lambda)^2\cdot \end{equation}

Padronizando a variável aleatória obtemos \begin{equation} Z \, = \, \frac{R-2n\lambda(1-\lambda)}{2\sqrt{n}\lambda(1-\lambda)} \end{equation} e substituindo \(R\) em termos de \(Z\), obtemos a distribuição de \(R\) ou \(f_Z(z)\). Se os fatores na expressão resultante são avaliados pela fórmula de Stirling, o limite é \begin{equation} \lim_{n\to\infty} \ln\Big(f_Z(z)\Big) \, = \, -\ln\big(\sqrt{2\pi}\big) \, - \, \frac{1}{2}z^2, \end{equation} o que mostra que a função de probabilidade limite de \(Z\) é a densidade normal padrão. Este resultado foi obtido por Wald and Wolfowitz (1940).

Para um teste bilateral de tamanho \(\alpha\) usando a aproximação normal, a hipótese nula de aleatoriedade seria rejeitada quando \begin{equation} \left| \frac{R-2n\lambda(1-\lambda)}{2\sqrt{n}\lambda(1-\lambda)} \right|\leq z_{\alpha/2}, \end{equation} onde \(z_\gamma\) é um número satisfazendo que \(\Phi(z_\gamma)=1-\gamma\) ou, equivalentemente, \(z_\gamma\) é o \((1-\gamma)\)-ésimo quantil da distribuição normal padrão. A média e variância exatas de \(R\) foram obtidas e também podem ser usadas na formação da variável aleatória padronizada, já que a distribuição assintótica permanece inalterada. Estes resultados estão disponíveis na função runs.test no pacote tseries e na função runs.test no pacote randtests.

Exemplo. Dados simulados dos quais nos interessa somente o sinal.
> library(tseries) > x = rnorm(100) > xx = factor(sign(x)) > xx [1] -1 -1 1 -1 1 -1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 -1 -1 -1 1 -1 1 -1 -1 1 -1 -1 [30] -1 -1 1 1 1 1 1 1 -1 -1 1 1 -1 -1 -1 1 -1 -1 1 1 1 1 1 -1 1 1 -1 -1 1 [59] -1 1 -1 -1 1 1 -1 1 1 1 1 1 1 1 -1 -1 1 -1 1 -1 1 -1 -1 1 1 -1 -1 -1 -1 [88] 1 -1 -1 -1 -1 -1 1 -1 1 -1 -1 1 1 Levels: -1 1 > runs.test(xx) Runs Test data: xx Standard Normal = 0.64157, p-value = 0.5212 alternative hypothesis: two.sided > library(randtests) > randtests::runs.test(x) Runs Test data: x statistic = 0.60305, runs = 54, n1 = 50, n2 = 50, n = 100, p-value = 0.5465 alternative hypothesis: nonrandomness
Aceitamos a aleatoriedade da amostra. Na próxima situação forçamos a amostra para rejeitar a hipótesis de aleatoriedade.
> x = factor(rep(c(-1,1),50)) x [1] -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 [32] 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 [63] -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 [94] 1 -1 1 -1 1 -1 1 Levels: -1 1 > runs.test(x) Runs Test data: x Standard Normal = 9.8499, p-value < 2.2e-16 alternative hypothesis: two.sided

II.3.4 Teste baseado nos postos


Outra maneira de testar a aleatoriedade é comparando a magnitude de cada elemento com a do elemento imediatamente anterior na sequência e computando assim a soma dos quadrados das desvalorizações dos pares de elementos sucessivos. Se as magnitudes desses elementos forem substituídas por suas respectivas classificações na sequência antes de computar a soma dos quadrados dos desvios sucessivos, podemos obter um teste não paramétrico.

Especificamente, seja a sequência de observações ordenada pelo tempo \(X_1,X_2,\cdots,X_n\). A estatística de teste \begin{equation} NM \, = \, \sum_{i=1}^{n-1} \big( \mbox{posto}(X_i)-\mbox{posto}(X_{i+1})\big)^2 \end{equation} como proposto por Bartels (1982). Um teste baseado em uma função desta estatística é a versão do teste de razão para aleatoriedade desenvolvido por von Neumann usando a teoria normal e é uma transformação linear do coeficiente de correlação serial por postos introduzido por Wald e Wolfowits (1943).

Pode-se mostrar que a estatística de teste \(NM\) varia entre \((n-1)\) e \((n-1)(n^2 + n-3)/3\) se \(n\) é par e entre \((n-1)\) e \([(n- 1) (n^2 + n-3)/3] -1\) se \(n\) for ímpar. A distribuição nula exata do \(NM\) pode ser encontrada por enumeração e é dada em Bartels (1982) para \(4 \leq n \leq 10\) sendo disponibilizada na função bartels.rank.test (Bartels Rank Test) no pacote randtests.

Exemplo. Exemplo em Bartels (1982). Mudanças nos níveis de estoque de 1968-1969 para 1977-1978 (em milhões) deflacionado pelo índice de preços do Produto Interno Bruto (PIB) australiano (base 1966-1967).
> library(randtests) > x.dados = c(528, 348, 264, -20, -167, 575, 410, -4, 430, -122) > bartels.rank.test(x, pvalue = "normal") Bartels Ratio Test data: x.dados statistic = 0.083357, n = 10, p-value = 0.9336 alternative hypothesis: nonrandomness

Para amostras maiores, a estatística de teste \begin{equation} RVN \, = \, \frac{\displaystyle\sum_{i=1}^{n-1} \big( \mbox{posto}(X_i)-\mbox{posto}(X_{i+1})\big)^2} {\displaystyle\Big( \sum_{i=1}^n \mbox{posto}(X_i)-\frac{n+1}{2}\Big)^2} \end{equation} é normalmente distribuído assintoticamente com média 2 e variância \(\displaystyle \frac{4(n-2)(5n^2-2n-9)}{5n(n+1)(n-1)^2}\), que é aproximadamente igual a \(\displaystyle\frac{20}{5n+7}\). Se não houver laços, o denominador de \(RVN\) é igual à constante \(\displaystyle\frac{n(n^2-1)}{12}\).


II.4 Métodos de reamostragem


Geralmente, é relativamente simples elaborar uma estatística que mede a propriedade de interesse, mas é quase sempre difícil ou impossível determinar a distribuição dessa estatística. Os métodos estatísticos clássicos concentraram-se principalmente nas propriedades estatísticas dos estimadores que possuem uma forma fechada simples e que podem ser analisados ​​matematicamente. Com exceção de algumas estatísticas importantes, mas simples, esses métodos envolvem, muitas vezes, hipóteses de modelos irrealistas. Essas limitações foram superadas nas últimas duas décadas do século XX com avanços nos computadores. Uma classe de procedimentos computacionalmente intensivos conhecidos como métodos de reamostragem fornecem inferências em uma ampla gama de estatísticas sob condições muito gerais. Métodos de reamostragem envolvem a construção de "populações" hipotéticas derivadas das observações, cada uma das quais pode ser analisada da mesma maneira para ver como as estatísticas dependem de variações aleatórias plausíveis nas observações. Reamostragem dos dados originais preserva quaisquer distribuições que estejam realmente presentes, incluindo efeitos de seleção como truncamento e censura.

Talvez o método de reamostragem mais antigo, em que se escolhe aleatoriamente repetidamente a metade dos dados e estima-se a estatística para cada amostra. A inferência sobre o parâmetro pode ser baseada no histograma da estatística reamostrada. Foi usado por Mahalanobis em 1946 sob o nome de amostras interpenetrantes. Uma variante importante é o método de Quenouille - Tukey chamado de jackknife. Para um conjunto de \(n\) dados construímos exatamente \(n\) conjuntos de dados hipotéticos, cada um com \(n-1\) pontos, cada um omitindo um ponto diferente. O mais importante dos métodos de reamostragem é chamado de bootstrap. Bradley Efron introduziu o método de bootstrap, também conhecido como reamostragem com substituição, em 1979. Aqui, gera-se um grande número de conjuntos de dados, cada um com \(n\) pontos de dados extraídos aleatoriamente dos dados originais. A restrição é que cada desenho é feito a partir de todo o conjunto de dados, portanto, um conjunto de dados simulado provavelmente perderá alguns pontos e terá duplicatas ou triplicatas de outros. Assim, o bootstrap pode ser visto como um método de Monte Carlo para simular dados existentes, sem qualquer suposição sobre a população subjacente.


II.4.1 Jackknife


O jackknife fornece uma abordagem de propósito geral para estimar o viés e a variância ou erro padrão de um estimador. Suponha que \(\widehat{\theta}\) seja um estimador de \(\theta\) baseado na amostra aleatória \(X_1,X_2,\cdots,X_n\); \(\theta\) poderia ser um parâmetro desconhecido de algum modelo paramétrico ou \(\theta\) poderia ser um parâmetro funcional da função de distribuição comum \(F\) dos \(X_i\), caso em que \(\theta=\theta(F)\). O jackknife é particularmente útil quando os métodos padrão para calcular viés e variação não podem ser aplicados ou são difíceis de aplicar. Dois desses exemplos são dados a seguir.

Exemplo. Suponha que \(X_1,\cdots,X_n\) sejam variáveis aleatórias independentes identicamente distribuídas com densidade \(f(x-\theta)\) que é simétrica em torno de \(\theta\), quer dizer que \(f(x)=f(−x)\). Um possível estimador de \(\theta\) é a média aparada \begin{equation} \widehat{\theta} \, = \, \frac{1}{n-2g}\sum_{i=g+1}^{n-g} X_{(i)}, \end{equation} que calcula a média de \(X_{(g+1)},\cdots,X_{(n−g)}\), o meio de \(n-2g\) estatísticas de ordem. A média aparada é menos suscetível a valores extremos do que a média amostral dos \(X_i\) e é frequentemente um estimador útil de \(\theta\). No entanto, a menos que a função de densidade \(f\) seja conhecida com precisão, é difícil aproximar a variância de \(\widehat{\theta}\).

Exemplo. Na amostragem da pesquisa é necessário estimar a razão entre as médias. Por exemplo, podemos estar interessados em estimar a taxa de desemprego para homens de 18 a 25 anos. Se tomarmos uma amostra aleatóória de domicílios, podemos obter tanto o número de homens entre 18 e 25 quanto o número desses homens que estão desempregados em cada um dos domicílios familiares. Nossa estimativa da taxa de desemprego para homens de 18 a 25 anos seria então \begin{equation} \widehat{r} \, = \, \frac{\mbox{número de homens com entre 18 e 25 anos que estão desempregados na amostra}} {\mbox{número de homens com entre 18 e 25 anos na amostra}} \end{equation} O problema geral pode ser expresso da seguinte maneira. Suponha que \((X_1,Y_1),\cdots,(X_n,Y_n)\) sejam vetores aleatórios independentes da mesma distribuição conjunta com \(\mbox{E}(X_i)=\mu_X\) e \(\mbox{E}(Y_i)=\mu_Y\); queremos estimar \(r=\mu_X/\mu_Y\). Pelo mátodo dos momentos o estimador de \(r\) é \begin{equation} \widehat{r} \, = \, \frac{\displaystyle \sum_{i=1}^n X_i}{\displaystyle \sum_{i=1}^n Y_i} \, = \, \frac{\overline{X}}{\overline{Y}}\cdot \end{equation} Infelizmente, não existe uma maneira fácil de avaliar \(\mbox{E}\big(\overline{X}/\overline{Y} \big)\) ou \(\mbox{Var}\big(\overline{X}/\overline{Y}\big)\), embora o Método Delta forneça uma aproximação razoável.

O nome "jackknife" foi originalmente usado por Tukey (1958) para sugerir uma técnica de ampla utilidade como um substituto para técnicas mais especializadas, da mesma forma que jackknife pode ser usado como um substituto para uma variedade de ferramentas mais especializadas embora, na realidade, um jackknife não é uma ferramenta particularmente versátil. Referências mais completas sobre o jackknife são as monografias de Efron (1982) e Efron e Tibshirani (1993).


II.4.2 O estimador jackknife do vício


O estimador jackknife de viés foi desenvolvido por Quenouille (1949), embora ele não se referisse a ele como o jackknife. A idéia básica por trás dos estimadores jackknife de vício e variância está em recomputar o estimador do parâmetro usando todas as observações.

Suponha que \(\widehat{\theta}\) seja um estimador de um parâmetro \(\theta\) com base na amostra aleatória \(X_1,\cdots,X_n\), \(\widehat{\theta}=\widehat{\theta}(X)\). Por exemplo, \(\widehat{\theta}=\theta(\widehat{F}_n)\). O método proposto por Quenouille para estimar o vício de \(\widehat{\theta}\) é baseado na exclusão sequencial de uma única observação \(X_i\) e recalculando \(\widehat{\theta}\) com base em \(n-1\) observações. Suponha que \begin{equation} \mbox{E}(\widehat{\theta}) \, = \, \theta \, + \, b(\widehat{\theta}), \end{equation} onde \(b(\widehat{\theta})\) é o vício de \(\widehat{\theta}\). Seja \(\widehat{\theta}_{-i}\) o estimador de \(\theta\) avaliado na amostra depois de deletada \(X_i\), ou seja, \begin{equation} \widehat{\theta}_{-i}=\widehat{\theta}(X_1,\cdots,X_{i-1},X_{i+1},\cdots,X_n)\cdot \end{equation} Definamos agora por \(\widehat{\theta}_*\) a média de \(\widehat{\theta}_{-1},\widehat{\theta}_{-2},\cdots,\widehat{\theta}_{-n}\), \begin{equation} \widehat{\theta}_* \, = \, \frac{1}{n}\sum_{i=1}^n \widehat{\theta}_{-i}\cdot \end{equation}

O estimador jackknife do vício é então \begin{equation} \widehat{b}(\widehat{\theta}) \, = \, (n-1)(\widehat{\theta}_*-\widehat{\theta})\cdot \end{equation} A versão corrigida de viés de \(\widehat{\theta}\) pode ser construída subtraindo-se \(\widehat{b}(\widehat{\theta})\) de \(\widehat{\theta}\). Vamos mostrar abaixo que este procedimento reduz o viés de \(\widehat{\theta}\).

O raciocínio teórico por trás de \(\widehat{b}(\widehat{\theta})\) assume que \(\mbox{E}(\widehat{\theta})\) pode ser expressa como uma série envolvendo potências de \(1/n\); por simplicidade, vamos primeiro assumir que para qualquer \(n\) \begin{equation} \mbox{E}(\widehat{\theta}) \, = \, \theta \, + \, \frac{\alpha_1(\theta)}{n}, \end{equation} onde \(\alpha_1(\theta)\) pode depender de \(\theta\) ou da distribuição de \(X_i\) mas não do tamanho da amostra \(n\); neste caso, \(b(\widehat{\theta})=\alpha_1(\theta)/n\). Dado que \(\widehat{\theta}_{-i}\) é baseado em \(n-1\) observações para cada \(i\), segue que \begin{equation} \mbox{E}(\widehat{\theta}_*) \, = \, \frac{1}{n}\sum_{i=1}^n \mbox{E}(\widehat{\theta}_{-1}) \, = \, \theta + \frac{\alpha_1(\theta)}{n-1}\cdot \end{equation} Então \begin{equation} \mbox{E}(\widehat{\theta}-\widehat{\theta}_*) \, = \, \frac{\alpha_1(\theta)}{n} \, - \, \frac{\alpha_1(\theta)}{n} \, = \, \frac{\alpha_1(\theta)}{n(n-1)}, \end{equation} e assim \(n(n-1)(\widehat{\theta}-\widehat{\theta}_*)\) é um estimador não viciado de \(b(\widehat{\theta})\). No caso geral, teremos \begin{equation} \mbox{E}(\widehat{\theta}) \, = \, \theta \, + \, \frac{\alpha_1(\theta)}{n} + \frac{\alpha_2(\theta)}{n^2} + \frac{\alpha_3(\theta)}{n^3} + \cdots \end{equation} ou \begin{equation} b(\widehat{\theta}) \, = \, \frac{\alpha_1(\theta)}{n} + \frac{\alpha_2(\theta)}{n^2} + \frac{\alpha_3(\theta)}{n^3} + \cdots, \end{equation} onde \(\alpha_1(\theta), \alpha_2(\theta), \alpha_3(\theta), \cdots\) podem depender de \(\theta\) ou da distribuição de \(X_i\), mas não de \(n\). Mais uma vez, segue-se que \begin{equation} \mbox{E}(\widehat{\theta}_*) \, = \, \frac{1}{n}\sum_{i=1}^n \mbox{E}(\widehat{\theta}_{-i}) \, = \, \theta \, + \, \frac{\alpha_1(\theta)}{n-1} + \frac{\alpha_2(\theta)}{(n-1)^2} + \frac{\alpha_3(\theta)}{(n-1)^3} + \cdots, \end{equation} lembrando que cada \(\widehat{\theta}_{-i}\) depende de \(n-1\) observações. Assim, a esperança do viés do estimador jackknife é \begin{equation} \begin{array}{rcl} \mbox{E}\big(\widehat{b}(\widehat{\theta})\big) & = & (n-1)\big( \mbox{E}(\widehat{\theta}_*) - \mbox{E}(\widehat{\theta})\big) \\ & = & \displaystyle \frac{\alpha_1(\theta)}{n} + \frac{(2n-1)\alpha_2(\theta)}{n^2(n-1)} + \frac{(3n^2-3n+1)\alpha_3(\theta)}{n^3(n-1)^2} + \cdots \end{array} \end{equation}

Podemos ver acima que \(\widehat{b}(\widehat{\theta})\) não é um estimador não-viciado de \(b(\widehat{\theta})\) como era no caso simples considerado anteriormente. No entanto, observe que o primeiro termo de \(\mbox{E}\big(\widehat{b}(\widehat{\theta})\big)\), a saber \(\alpha_1(\theta)/n\), concorda com o de \(b(\widehat{\theta})\). Assim, se definirmos \begin{equation} \widehat{\theta}_{jack} \, = \, \widehat{\theta} - b(\widehat{\theta}) \, = \, n\widehat{\theta} - (n-1)\widehat{\theta}_* \end{equation} como sendo o estimador jackknife com correção de vício, segue que \begin{equation} \begin{array}{rcl} \mbox{E}\big(\widehat{\theta}_{jack}\big) & = & \theta + \displaystyle \frac{\alpha_2(\theta)}{n(n-1)} - \frac{(2n-1)\alpha_3(\theta)}{n^2(n-1)^2} + \cdots \\ & \approx & \theta + \displaystyle \frac{\alpha_2(\theta)}{n^2} - \frac{2\alpha_3(\theta)}{n^3} + \cdots \end{array} \end{equation} para \(n\) grande. Desde que \(1/n^2, 1/n^3, \cdots\) convergem a zero mais rápido do que \(1/n\) tende a zero, quando \(n\) fica grande, segue-se que o viés de \(\widehat{\theta}_{jack}\) é menor que o viés de \(\widehat{\theta}\) para \(n\) suficientemente grande. No caso em que \begin{equation} \mbox{E}(\widehat{\theta}) \, = \, \theta + \frac{\alpha_1(\theta)}{n}, \end{equation} de modo a \(\alpha_2(\theta) \, = \, \alpha_3(\theta) \, = \cdots \, = 0\), \(\widehat{\theta}_{jack}\) será não-viciado.

Exemplo. Suponhamos que \(X_1,X_2,\cdots,X_n\) seja uma amostra aleatória de uma distribuição com esperança \(\mu\) e variância \(\sigma^2\), ambos parâmetros desconhecidos. O estimador \begin{equation} \widehat{\sigma}^2=\frac{1}{n}\sum_{i=1}^n (X_i-\overline{X})^2, \end{equation} é viciado com \(b(\widehat{\sigma}^2)=-\sigma^2/n\). Assim, o viés em \(\widehat{\sigma}^2\) pode ser removido usando o jackknife. Um palpite para o estimador não viciado resultante seria \begin{equation} S^2 = \frac{1}{n-1}\sum_{i=1}^n (X_i-\overline{X})^2\cdot \end{equation} Para encontrar o estimador não-viciado usando o jackknife, primeiro notamos que \begin{equation} \overline{X}_{-i} \, = \, \frac{1}{n-1}\sum_{j \, \neq \, i} X_j \, = \, \frac{1}{n-1}(n\overline{X}-X_i) \end{equation} e então \begin{equation} \begin{array}{rcl} \widehat{\sigma}^2_{-i} & = & \displaystyle \frac{1}{n-1}\sum_{j \, \neq \, i} (X_j-\overline{X}_{-i})^2 \\ & = & \displaystyle \frac{1}{n-1}\sum_{j \, \neq \, i} \Big(X_j-\frac{n}{n-1}\overline{X}+\frac{X_i}{n-1}\Big)^2 \\ & = & \displaystyle \frac{1}{n-1}\sum_{j=1}^n \Big(X_j-\overline{X}+\frac{1}{n-1}(X_i-\overline{X})\Big)^2 \, - \, \frac{n^2}{(n-1)^3}(X_i-\overline{X})^2 \\ & = & \displaystyle \frac{1}{n-1}\sum_{j=1}^n (X_j-\overline{X})^2 + \frac{n}{(n-1)^3}(X_i-\overline{X})^2 - \frac{n^2}{(n-1)^3}(X_i-\overline{X})^2 \\ & = & \displaystyle \frac{1}{n-1}\sum_{j=1}^n (X_j-\overline{X})^2 - \frac{n}{(n-1)^2}(X_i-\overline{X})^2 \cdot \end{array} \end{equation} Agora, \(\widehat{\sigma}^2_*\) é justamente a média dos \(\widehat{\sigma}^2_{-i}\), de maneira que \begin{equation} \widehat{\sigma}^2_* \, = \, \frac{1}{n-1}\sum_{i=1}^n (X_i-\overline{X})^2 - \frac{1}{(n-1)^2}\sum_{i=1}^n (X_i-\overline{X})^2 \end{equation} e o estimador não viciado de \(\sigma^2\) é \begin{equation} n\widehat{\sigma}^2 - (n-1)\widehat{\sigma}^2_* = \frac{1}{n-1}\sum_{i=1}^n (X_i-\overline{X})^2 \, = \, S^2, \end{equation} como foi adivinhado acima.

Exemplo. Suponhamos que \(X_1,X_2,\cdot,X_n\) seja uma amostra aleatória com função de densidade \begin{equation} f(x;\theta) = \frac{1}{\theta}, \quad \mbox{para} \quad 0\leq x\leq \theta, \end{equation} onde \(\theta\) é um parâmetro desconhecido. Desde que \(\theta\) é o valor máximo possível dos \(X_i\), o estimador natural de \(\theta\) é \begin{equation} \widehat{\theta} \, = \, X_{(n)} \, = \, \max(X_1,X_2,\cdots,X_n)\cdot \end{equation} No entanto, como os \(X_i\) não podem exceder \(\theta\), segue que o máximo deles não pode exceder \(\theta\) e, portanto, \(\widehat{\theta}\) é viciado; de fato, \begin{equation} \begin{array}{rcl} \mbox{E}(\widehat{\theta}) & = & \displaystyle \frac{n}{n+1}\theta \\ & = & \displaystyle \theta\frac{1}{1+1/n} \, = \, \theta\Big(1-\frac{1}{n}+\frac{1}{n^2}-\frac{1}{n^3}+\cdots \Big)\cdot \end{array} \end{equation} Dado que \begin{equation} \widehat{\theta}_{-i} \, = \, \max(X_1,\cdots,X_{i-1},X_{i+1},\cdots,X_n), \end{equation} observamos que \(\widehat{\theta}_{-i}=X_{(n)}\) para \(n-1\) valores de \(i\) e \(\widehat{\theta}_{-i}=X_{(n-1)}\) para os outros valores de \(i\). Então, obtemos \begin{equation} \widehat{\theta}_* = \frac{n-1}{n}X_{(n)} + \frac{1}{n}X_{(n-1)} \end{equation} e o estimador jackknife de \(\theta\) seria \begin{equation} \widehat{\theta}_{jack} = X_{(n)}+\frac{n-1}{n}\big( X_{(n)}-X_{(n-1)}\big)\cdot \end{equation} O vício de \(\widehat{\theta}_{jack}\) será menor que o de \(\widehat{\theta}\); no entanto, podemos facilmente modificar \(\widehat{\theta}\) para torná-lo não-viciado sem recorrer ao jackknife, simplesmente multiplicando-o por \((n+1)/n\).

Este ultimo exemplo aponta uma das desvantagens de usar qualquer método de propósito geral como o jackknife, ou seja, em situações específicas muitas vezes é possível melhorar o estimador com um método adaptado especificamente para a situação em questão. Remover o viés em \(\widehat{\theta}=X_{(n)}\) multiplicando-o por \((n+1)/n\) depende do fato de que a forma da densidade seja conhecida. Suponha, em vez disso, que o intervalo dos \(X_i\) ainda seja \([0,\theta]\), mas que a densidade \(f\) seja desconhecida para \(0\leq x\leq \theta\). Então \(X_{(n)}\) ainda é um estimador razoável de \(\theta\) e sempre o subestima. No entanto, \((n+1)X_{(n)}/n\) não precisa ser não viciado e, de fato, pode ser mais severamente influenciado do que \(X_{(n)}\). No entanto, o estimador jackknife \begin{equation} \widehat{\theta}_{jack} = X_{(n)}+\frac{n-1}{n}\big( X_{(n)}-X_{(n-1)}\big), \end{equation} terá um viés menor que \(X_{(n)}\) e pode ser preferível a \(X_{(n)}\) nessa situação.


II.4.3 O estimador jackknife da variância


O estimador jackknife de vício usa os estimadores \(\widehat{\theta}_{-1},\cdots,\widehat{\theta}_{-n}\), que usam todas as observações, exceto uma em seu cálculo para construir um estimador de viés de um estimador \(\widehat{\theta}\). Tukey (1958) sugeriu um método para estimar \(\mbox{Var}(\widehat{\theta})\) que usa \(\widehat{\theta}_{-1},\cdots,\widehat{\theta}_{-n}\). O estimador jackknife de Tukey de \(\mbox{Var}(\widehat{\theta})\) é \begin{equation} \widehat{\mbox{Var}}(\widehat{\theta}) \, = \, \frac{n-1}{n}\sum_{i=1}^n (\widehat{\theta}_{-i}-\widehat{\theta}_*)^2, \end{equation} onde, como antes \(\widehat{\theta}_{-i}\) é o estimador avaliado usando todas as observaçães, exceto \(X_i\) e \begin{equation} \widehat{\theta}_* \, = \, \frac{1}{n}\sum_{i=1}^n \widehat{\theta}_{-i}\cdot \end{equation}

A fórmula para o estimador da variância jackknife é um tanto não intuitiva. Ao derivar a fórmula, Tukey assumiu que o estimador \(\widehat{\theta}\) pode ser bem aproximado por uma média de variáveis aleatórias independentes; essa suposição é válida para uma ampla variedade de estimadores, mas não é verdadeira para alguns estimadores, por exemplo, máximo ou mínimo de amostra. Mais precisamente, Tukey assumiu que \begin{equation} \widehat{\theta} \approx \frac{1}{n}\sum_{i=1}^n \phi(X_i), \end{equation} o qual sugere que \begin{equation} \mbox{Var}\widehat{\theta} \approx \frac{1}{n}\mbox{Var}\big(\phi(X_1)\big)\cdot \end{equation} No caso em que o parâmetro de interesse \(\theta\) é um parâmetro funcional da função de distribuição \(F\), isto é, \(\theta = \theta(F)\), a função \(\phi(\cdot) - \theta(F)\) é tipicamente a curva de influência de \(\theta(F)\).

Em geral, não conhecemos a função \(\phi(x)\), portanto não podemos usar diretamente a fórmula acima. No entanto, é possível encontrar substitutos razoáveis para \(\phi(X_1),\cdots,\phi(X_n)\). Usando os estimadores \(\widehat{\theta}_{-i}\), \(i=1,\cdots,n\) e \(\widehat{\theta}\), definimos pseudovalores \begin{equation} \Phi_i=\widehat{\theta}+(n-1)(\widehat{\theta}-\widehat{\theta}_{-i}), \end{equation} para \(i=1,\cdots,n\) que essencialmente desempenham o mesmo papel que o \(\phi(X_i)\) acima. No caso em que \(\theta=\theta(F)\), \((n−1)(\widehat{\theta}-\widehat{\theta}_{-i})\) é uma tentativa de estimar a curvatura de \(\theta(F)\) em \(x=X_i\). No caso em que \(\widehat{\theta}\) é exatamente a média amostral \begin{equation} \widehat{\theta}=\frac{1}{n}\sum_{i=1}^n \phi(X_i), \end{equation} é fácil mostrar que \(\Phi_i = \phi(X_i)\) e assim a conexão entre \(\Phi_i\) e \(\phi(X_i)\) é clara neste caso simples. Podemos então tomar a variância da amostra dos pseudovalores \(\Phi_i\) como sendo uma estimativa da variância de \(\phi(X_1)\) e usá-lo para estimar a variância de \(\widehat{\theta}\). Note que \begin{equation} \frac{1}{n}\sum_{i=1}^n \Phi_i \, = \, n\widehat{\theta}-\frac{n-1}{n}\sum_{i=1}^n \widehat{\theta}_{-i} \, = \, n\widehat{\theta}-(n-1)\widehat{\theta}_* \, = \, \widehat{\theta}_{jack}, \end{equation} onde \(\widehat{\theta}_{jack}\) é a versão de \(\widehat{\theta}\) com correção de viés. A variáncia amostral dos \(\Phi_i\) é \begin{equation} \frac{1}{n-1}\sum_{i=1}^n (\Phi_i-\phi)^2 \, = \, \frac{1}{n-1}\sum_{i=1}^n\big((n-1)(\widehat{\theta}_*-\widehat{\theta}_{-i})\big)^2 \, = \, (n-1)\sum_{i=1}^n (\widehat{\theta}_*-\widehat{\theta}_{-i})^2\cdot \end{equation}

Agora obtemos o estimador jackknife da variância dividindo a variância amostral de cada \(\Phi_i\) por \(n\): \begin{equation} \widehat{\mbox{Var}}(\widehat{\theta}) = \frac{n-1}{n}\sum_{i=1}^n (\widehat{\theta}_*-\widehat{\theta}_{-i})^2\cdot \end{equation} Deve-se notar que o estimador jackknife da variância não funciona em todas as situações. Uma dessas situações é a mediana amostral. O problema aqui parece ser o fato de que a curva de influência da mediana é definida apenas para distribuições contínuas e, portanto, é difícil de aproximar adequadamente em amostras finitas.

Exemplo. Os dados da tabela representam uma amostra de 30 rendimentos antes dos impostos. Vamos supor que esses dados sejam resultados da amostra aleatória \(X_1,\cdots,X_{30}\) com função de distribuição \(F\). Vamos usar os dados para estimar o índice de Gini \begin{equation} \theta(F) = 1-2\int_0^1 q_{_F}(t)\mbox{d}t, \end{equation} onde \begin{equation} q_{_F}(t) = \frac{\displaystyle \int_0^t F^{-1}(s)\mbox{d}s}{\displaystyle \int_0^1 F^{-1}(s)\mbox{d}s}, \end{equation} é a curva de Lorenz.

3841 7084 7254 15228 18042 19089
22588 23972 25694 27592 27927 31576
32528 32921 33724 36887 37776 37992
39464 40506 44516 46538 51088 51955
54339 57935 75137 82612 83381 84741

Rendimentos antes dos impostos.

Utilizando o princípio de substituição o estimador de \(\theta(F)\) é \begin{equation} \widehat{\theta} \, = \, \theta(\widehat{F}_n) \, = \, \frac{1}{\displaystyle \sum_{i=1}^{30} X_i}\sum_{i=1}^{30} \Big( \frac{2i-1}{30}-1\Big)X_{(i)}, \end{equation} sendo \(X_{(1)}\leq X_{(2)}\leq \cdots \leq X_{(30)}\) as estatástica de ordem de \(X_1,\cdots,X_n\).

Para os dados na tabela, a estimativa de \(\theta(\widehat{F}_n)\) é 0.311. O erro padrão desta estimativa pode ser estimado usando o jackknife. As estimativas dos \(\widehat{\theta}_{-i}\) de \(\theta(\widehat{F}_n)\) são dadas na tabela abaixo.


0.2912 0.2948 0.2950 0.3028 0.3055 0.3064
0.3092 0.3103 0.3115 0.3127 0.3129 0.3148
0.3153 0.3154 0.3157 0.3166 0.3168 0.3168
0.3170 0.3170 0.3169 0.3167 0.3161 0.3159
0.3152 0.3140 0.3069 0.3033 0.3028 0.3020

Valores de \(\widehat{\theta}_{-i}\) obtidos por omissão da entrada correspondente na tabela anterior.

O estimador jackknife do desvio padrão de \(\widehat{\theta}\) é \begin{equation} \widehat{\mbox{se}}(\widehat{\theta}) \, = \, \frac{29}{30}\sum_{i=1}^{30} (\widehat{\theta}_*-\widehat{\theta}_{-i})^2 \, = \, 0.0398, \end{equation} onde \(\widehat{\theta}_*=0.310\) é a média de \(\widehat{\theta}_{-1},\cdots,\widehat{\theta}_{-30}\).


Exemplo. Valores jackknife para a média amostral.
> library(bootstrap) > set.seed(64963) > x = rnorm(20) > x [1] 1.26090262 -1.13028810 -1.32940772 -0.19784710 0.81681862 0.14686850 0.44091214 0.38946670 [9] 1.59221385 1.18644686 -0.32220928 0.34090659 0.22251888 0.09392202 1.50120295 0.07024351 [17] -0.83259015 -0.81944634 1.74552186 -0.35840806 > theta = function(x){mean(x)} > resultados = jackknife(x,theta) > resultados $jack.se [1] 0.2024061 $jack.bias [1] 0 $jack.values [1] 0.1872024 0.3130545 0.3235345 0.2639787 0.2105752 0.2458358 0.2303598 0.2330675 0.1697650 [10] 0.1911211 0.2705241 0.2356232 0.2418542 0.2486224 0.1745550 0.2498687 0.2973862 0.2966945 [19] 0.1616961 0.2724293 $call jackknife(x = x, theta = theta) > jackknife(x, mean) $jack.se [1] 0.2024061 $jack.bias [1] 0 $jack.values [1] 0.1872024 0.3130545 0.3235345 0.2639787 0.2105752 0.2458358 0.2303598 0.2330675 0.1697650 [10] 0.1911211 0.2705241 0.2356232 0.2418542 0.2486224 0.1745550 0.2498687 0.2973862 0.2966945 [19] 0.1616961 0.2724293 $call jackknife(x = x, theta = mean)

Exemplo. Para jackknife de estruturas de dados mais complexas, vamos escrever a funções "theta" para que seu argumento \(x\) seja o conjunto de observações e simplesmente passe como dados para jackknife o vetor \(1,2,\cdots,n\). Por exemplo, para calcular o coeficiente de correlação de um conjunto de 15 pares de dados:
> xdata = matrix(rnorm(30), ncol = 2) > xdata [,1] [,2] [1,] -1.2355746 -0.6018299 [2,] -1.1086346 -0.5400018 [3,] 0.4177078 1.9807419 [4,] 0.0624885 1.3616883 [5,] 2.3115346 0.6242049 [6,] 1.2220161 -1.4705862 [7,] 1.3428912 -1.6899323 [8,] -0.5027568 -0.4458195 [9,] 0.8421283 -0.3752642 [10,] 0.2910933 0.5755712 [11,] -1.7592963 0.9989493 [12,] -0.5034617 0.8823146 [13,] 0.5459020 -0.4680489 [14,] 1.2532016 -0.6324959 [15,] -0.6459846 -0.8183590 > cor(xdata) [,1] [,2] [1,] 1.0000000 -0.1747691 [2,] -0.1747691 1.0000000 > n = 15 > theta = function(x,xdata){ cor(xdata[x,1],xdata[x,2]) } > resultados = jackknife(1:n, theta, xdata) > resultados $jack.se [1] 0.263706 $jack.bias [1] -0.003119458 $jack.values [1] -0.24275657 -0.22917335 -0.24486898 -0.17770884 -0.31810632 -0.08699185 -0.05816092 -0.19602334 [9] -0.16315583 -0.18210351 -0.05390782 -0.14088176 -0.16616730 -0.14019581 -0.22467591 $call jackknife(x = 1:n, theta = theta, xdata) > mean(results$jack.values) [1] -0.1749919

II.4.4 Bootstrap


A importância do bootstrap surgiu durante a década de 1980, quando o estudo matemático demonstrou que ele fornece estimativas quase ótimas da distribuição de muitas estatísticas sob uma ampla gama de circunstâncias. Em vários casos, o método produz melhores resultados do que aqueles obtidos pela teoria clássica da aproximação normal. No entanto, deve-se alertar que o bootstrap não é a solução para todos os problemas. A teoria desenvolvida nas décadas de 1980 e 1990 mostra que o bootstrap falha em algumas situações "não-suaves". Por isso, deve-se ter cautela e resistir à tentação de usar o método de forma inadequada.

Como os computadores se tornaram mais poderosos, o bootstrap, assim como os procedimentos de reamostragem em geral ganharam uso generalizado. O bootstrap é uma ferramenta geral usada para medir o erro em uma estimativa ou a significância de um teste de hipótese. Aqui demonstramos a utilidade do bootstrap para uma variedade de problemas, embora ainda apenas arranhemos a superfície; o leitor interessado em um tratamento completo é referido a Efron e Tibshirani (1993) ou o de Davison e Hinkley (1997). Ilustramos a como encontrar intervalos de confiança e p-valores para os problemas de posição de uma amostra e outros.


II.4.5 Descrição do método bootstrap


Para fixar ideias, lembre-se que o histograma da amostra é frequentemente usado para fornecer o contexto da distribuição da variável aleatória, por exemplo, localização, variabilidade, forma. Uma maneira de pensar no bootstrap é como um procedimento para fornecer algum contexto para a distribuição amostral de uma estatística. Uma amostra bootstrap é simplesmente uma amostra da amostra original obtida com reposição. A ideia é que, se a amostra é representativa da população, ou mais concretamente, se o histograma ou o estimador kernel da função de densidade da amostra se assemelha à função de densidade da variável aleatória, então a amostragem da amostra é representativa da amostragem da população. Fazê-lo repetidamente produzirá uma estimativa da distribuição amostral da estatística.

Seja \(X = (X_1,\cdots, X_n)\) uma amostra aleatária extraída de uma distribuição populacional desconhecida \(F\). Suponha que \(T_n(X)\) seja um bom estimador de \(T(F)\), um parâmetro de interesse. O interesse reside em avaliar sua precisão na previsão. Determinar os intervalos de confiança para \(T(F)\) requer conhecimento da distribuição amostral \(G_n\) de \(T_n(X)-T(F)\), isto é, \begin{equation} G_n(x) = P\big(T_n(X)-T(F)\leq x\big), \end{equation} para todo \(x\).

Por exemplo, a média amostral \(\overline{X} = \frac{1}{n}\sum_{i=1}^n X_i\) é um bom estimador da esperança populacional \(\mu\). Para obter o intervalo de confiança para \(\mu\), devemos encontrar a distribuição amostral de \(\overline{X}-\mu\), que depende da forma e outras características da distribuição desconhecida \(F\).

A teoria estatística clássica usa o Teorema do Limite Central como aproximação normal para a distribuição amostral. Por exemplo, se \((X_1,Y_1),\cdots,(X_n,Y_n)\) denotam observações de uma população normal bivariada, então o estimador de máxima verossimilhança do coeficiente de correlação \(\rho\) é dado pelo coeficiente de correlação de Pearson amostral \begin{equation} \widehat{\rho} = \frac{\displaystyle \sum_{i=1}^n (X_iY_i-\overline{X}\overline{Y})} {\displaystyle \sqrt{\big(\sum_{i=1}^n (X_i-\overline{X})^2 \big)\big(\sum_{i=1}^n (Y_i-\overline{Y})^2 \big)}}\cdot \end{equation}

Para estatísticas com distribuições assimétricas, como a de \(\widehat{\rho}\), a teoria clássica sugere transformações de variáveis. Neste caso, a transformação \(Z\) de Fisher dada por \begin{equation} Z = \frac{\sqrt{n-3}}{2}\Big( \ln\Big(\frac{1+\widehat{\rho}}{1-\widehat{\rho}}\Big)-\ln\Big(\frac{1+\rho}{1-\rho}\Big)\Big), \end{equation} dá uma melhor aproximação à normal. Esta aproximação corrige a assimetria e é melhor que a aproximação à normal de \(\sqrt{n}(\widehat{\rho}-\rho)\). O método de bootstrap, quando usado adequadamente, evita transformações levando em conta a assimetria da distribuição amostral.

O método de bootstrap presume que, se \(\widehat{F}_n\) é uma boa aproximação da distribuição da população desconhecida \(F\), então o comportamento das amostras de \(\widehat{F}_n\) se assemelha ao dos dados originais. Aqui \(\widehat{F}_n\) pode ser a função de distribuição empírica da amostra aleatória \(X_1,\cdots,X_n\) ou um estimador paramétrico da função \(F\). Uma vez que \(\widehat{F}_n\) é fornecido, os conjuntos de dados \(X^* = (X_1^*,\cdots,X_n^*)\) são reamostrados a partir de \(\widehat{F}_n\) e a estatística \(T_n(X^*)\) é computada para cada reamostra.

Sob condições muito gerais pode-se demonstrar que a diferença entre a distribuição amostral \(G_n\) de \(T_n(X)-T(F)\) e a distribuição bootstrap \(G_b\), isto é, a distribuição de \(T_n(X^*)-T(\widehat{F}_n)\) é insignificante. \(G_b\) pode ser usado para extrair inferências sobre o parâmetro \(T(F)\) no lugar do desconhecido \(G_n\). Em princípio a distribuição de bootstrap, obtida pelo histograma ou pelo estimador kernel de densidades, \(G_b\) é completamente conhecida, pois é construída inteiramente a partir dos dados originais. No entanto, para obter a distribuição completa de bootstrap, é necessário calcular as estatísticas para quase todas as \(n^n\) amostras possíveis bootstrap. Para o exemplo simples da média amostral, presumivelmente, é necessário computar \begin{equation} \begin{array}{rcl} X_1^{*(1)},\cdots,X_n^{*(1)}, & & r_1=\overline{X}^{*(1)}-\overline{X} \\ X_1^{*(2)},\cdots,X_n^{*(2)}, & & r_2=\overline{X}^{*(2)}-\overline{X} \\ \ddots & \ddots & \ddots \\ X_1^{*(n^n)},\cdots,X_n^{*(n^n)}, & & r_{n^n}=\overline{X}^{*(n^n)}-\overline{X} \\ \end{array} \end{equation}

A distribuição bootstrap dada pelo histograma ou pelo estimador kernel de densidade de \(r_1,\cdots,r_{n^n}\). Mesmo para \(n = 10\) dados, \(n^n\) acaba por ser dez bilhões. Na prática, a estatística de interesse, \(T_n(X^*)-T(\widehat{F}_n)\) é calculada para um número \(N\), digamos \(N = n\log^2(n)\), de novas amostras e sua distribuição bootstrap construída.

O bootstrap mais popular e simples é o bootstrap não paramétrico, onde a reamostragem com reposição é baseada na função de distribuição empírica da amostra aleatória original. Isto dá pesos iguais para cada um dos dados originais. A tabela abaixo fornece versões bootstrap de algumas estatísticas comumente usadas. No caso do estimador de razão e do coeficiente de correlação, os pares de dados são reamostrados a partir dos pares de dados originais \((X_i,Y_i)\).


Estatística Versão bootstrap

Média: \(\overline{X}\) \(\overline{X}^*\)
Variância: \(\displaystyle \frac{1}{n}\sum_{i=1}^n (X_i-\overline{X})^2\) \(\displaystyle \frac{1}{n}\sum_{i=1}^n (X_i^*-\overline{X}^*)^2\)
Estimador da razão: \(\frac{\displaystyle \overline{X}}{\displaystyle \overline{Y}}\) \(\frac{\displaystyle \overline{X}^*}{\displaystyle \overline{Y}^*}\)
Coeficiente de correlação:
\(\frac{\displaystyle \sum_{i=1}^n (X_iY_i-\overline{X}\overline{Y})} {\displaystyle \sqrt{\big(\sum_{i=1}^n (X_i-\overline{X})^2 \big)\big(\sum_{i=1}^n (Y_i-\overline{Y})^2 \big)}}\) \(\frac{\displaystyle \sum_{i=1}^n (X_i^*Y_i^*-\overline{X}^*\overline{Y}^*)} {\displaystyle \sqrt{\big(\sum_{i=1}^n (X_i^*-\overline{X}^*)^2 \big)\big(\sum_{i=1}^n (Y_i^*-\overline{Y}^*)^2 \big)}}\)

Estatísticas e suas versões bootstrap.

II.4.6 Intervalos confidenciais bootstrap


O conceito de quantidade pivotal é muito importante para intervalos de confiança. Por exemplo, o fator de escala \(\overline{X}-\mu\) depende do desvio padrão \(\sigma\) ou de seu estimador. É possível obter intervalos de confiança ou intervalos aproximados de confiança para \(\mu\), se \(P\big(\overline{X}-\mu\big)/\sigma < x)\) não depende de \(\mu\) e \(\sigma\). A menos que a distribuição limite esteja livre dos parâmetros desconhecidos, uma vez que não pode ser invertida para obter intervalos de confiança. Assim, é importante concentrar-se em quantidades pivotais ou aproximadamente pivotais, a fim de obter intervalos de confiança confiáveis para o parâmetro de interesse.

Uma função \(T_n(X;F)\) é pivotal, se sua distribuição for livre de parâmetros desconhecidos de \(F\). No caso, \(X_i\sim N(\mu,\sigma^2)\), então \(T_n(X;F)=\sqrt{n}(\overline{X}-\mu)/ s_n\) é pivotal. No caso não normal, é aproximadamente pivotal. Para obter o intervalo de confiança bootstrap para \(\mu\), calculamos \(\sqrt{n}(\overline{X}^{*(j)}-\overline{X})/ s_n\) para \(N\) amostras bootstrap e organizamos os valores em ordem crescente \begin{equation} h_1\leq h_2\leq \cdots \leq h_N\cdot \end{equation}

Pode-se então ler do histograma (digamos) o intervalo de confiança de 90\% do parâmetro. Ou seja, o intervalo de confiança de 90\% para \(\mu\) é dado por \begin{equation} \overline{X}-h_m\frac{s_n}{\sqrt{n}}\leq \mu\leq \overline{X}-h_k\frac{s_n}{\sqrt{n}}, \end{equation} onde \(k = [0.5 N]\) e \(m = [0.95 N]\). Babu & Singh (1983) mostraram que \(N=n \log^2(n)\) iterações bootstrap seriam suficientes.

Exemplo. Para ilustrar o uso do bootstrap, primeiro geramos uma amostra de tamanho 25 a partir de uma distribuição normal com esperança 30 e desvio padrão 5.
> set.seed(8473) > x = rnorm(25,30,5)
No segmento de código a seguir obtemos 1000 amostras bootstrap e, para cada amostra, calculamos a média da amostra. O vetor resultante contém as 1000 médias da amostra. Mostramos também o histograma das 1000 estimativas. Incluímos também um gráfico da verdadeira função de densidade da distribuição amostral de \(\overline{X}\sim N(30, 5^2/25)\).
> B = 1000 # número de amostras bootstrap a serem obtidas > xbar = rep(0,B) > for( i in 1:B ) { xbs = sample(x,length(x), replace=TRUE) xbar[i] = mean(xbs)}
O desvio padrão da distribuição amostral bootstrap pode servir como uma estimativa do erro padrão da estimativa.
> se.xbar = sd(xbar) > se.xbar [1] 0.9776717
O erro padrão estimado pode então ser usado para inferência. Por exemplo, como sabemos que a distribuição da média da amostra é normalmente distribuída, podemos calcular um intervalo de confiança aproximado de 95% usando os valores t críticos como segue. Incluímos o intervalo t usual para comparação.
> tcv = qt(0.975,length(x)-1) > mean(x)+c(-1,1)*tcv*se.xbar [1] 30.13485 34.17048 > mean(x)+c(-1,1)*tcv*sd(x)/sqrt(length(x)) [1] 30.13744 34.16788
Uma outra forma é utilizarmos as funções no pacote bootstrap.
> library(bootstrap) > set.seed(8473) > x = rnorm(25,30,5) > resultados = bootstrap(x, 1000, mean) > mean(resultados$thetastar) [1] 32.15428 > sd(resultados$thetastar) [1] 0.9619809

II.5 Exercícios

  1. Os seguintes dados representam uma amostra aleatória de tamanho 20 supostamente da distribuição \(U(0,1)\): 0.277, 0.435, 0.130, 0.143, 0.853, 0.889, 0.294, 0.697, 0.940, 0.648, 0.324, 0.482, 0.540, 0.152, 0.477, 0.667, 0.741, 0.882, 0.885, 0.740.

  2. Um grupo de quatro moedas é lançado 160 vezes e os seguintes dados são obtidos:
    Número de caras 0 1 2 3 4

    Frequência 16 48 55 33 8
    Você acha que as quatro moedas estão equilibradas?

  3. Um fabricante quer comercializar uma nova marca de azulejos resistentes ao calor que podem ser usados no ônibus espacial. Uma amostra aleatória de \(m\) destes azulejos é colocada em teste e a capacidade de resistência ao calor dos azulejos são medidas. Seja \(X_{(1)}\) a menor dessas medições. O fabricante está interessado em encontrar a probabilidade de que em um teste futuro realizado por, digamos, uma agência independente de uma amostra aleatória de \(n\) desses azulejos, pelo menos \(k\), \(k=1,2,\cdots,n\), terão a capacidade de resistência ao calor superior a \(X_{(1)}\) unidades. Suponha que as capacidades de resistência ao calor desses azulejos seguem uma distribuição contínua com função de distribuição \(F\).

  4. Cada aluno de uma turma de 18 anos é solicitado a listar três pessoas que ele gosta e três que ele não gosta e rotular as pessoas 0, 1, 2, 3, 4, 5 de acordo com o quanto ele gosta delas, com 0 denotando quem menos gosta e 5 denotando o mais adorado. A partir dessa lista, cada aluno seleciona o número atribuído à pessoa que ele considera a mais rica das seis. Os resultados são os seguintes: 0, 0, 0, 0, 1, 2, 2, 2, 2, 3, 3, 4, 4, 4, 4, 4, 4, 5. Teste a hipótese nula de que os alunos têm a mesma probabilidade de selecionar qualquer um dos números 0, 1, 2, 3, 4, 5 usando o teste mais apropriado.

  5. O departamento de design propôs três designs de pacotes diferentes para o produto da empresa. O gerente de marketing afirma que o primeiro design será duas vezes mais popular que o segundo e que o segundo será três vezes mais popular que o terceiro. Em um teste de mercado com 213 pessoas: 111 preferiram o primeiro desenho, 62 preferiram o segundo desenho e o restante preferiu o terceiro desenho. Esses resultados são consistentes com a afirmação do gerente de marketing?

  6. O turismo é considerado por todas as nações como um grande negócio porque a indústria traz o câmbio necessário e ajuda a balança de pagamentos. O Anuário do Mercado de Viagens publica dados abrangentes sobre o turismo. Analisar os dados anuais sobre o número total de turistas (em milhões) para os Estados Unidos entre 1970-1982 para ver se há evidências de uma tendência.
    Ano 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982

    Número de turistas 12.362 12.739 13.057 13.955 14.123 15.698 17.523 18.610 19.842 20.310 22.500 23.080 21.916

    Considere o teste de aleatoriedade baseado no número total de corridas para identificar a existência de tendência. Ainda realize o mesmo teste considerando:

  7. Um certo corretor observou o seguinte número de títulos vendidos a cada mês por um período de 12 meses:
    Mês Janeiro Fevereiro Março Abril Maio Junho Julho Agosto Setembro Outubro Novembro Dezembro

    No. títulos 19 23 20 17 18 20 22 24 25 28 30 21


  8. Os seguintes dados são 30 lapsos de tempo em minutos entre as erupções do gêiser Old Faithful no Parque Nacional Yellowstone, gravadas entre as 8 da manhã e as 10 da noite em um determinado dia e medido desde o começo de uma erupção até o começo da seguinte: \begin{equation} 68, 63, 66, 63, 61, 44, 60, 62, 71, 62, 62, 55, 62, 67, 73, 72, 55, 67, 68, 65, 60, 61, 71, 60, 68, 67, 72, 69, 65, 66\cdot \end{equation} Um pesquisador deseja usar esses dados para fins de inferência, mas está preocupado se é razoável tratar esses dados como uma amostra aleatória. O que você acha? Justifique sua resposta.

  9. Em um experimento psicológico, a questão de pesquisa de interesse é se um rato aprendeu seu caminho através de um labirinto durante 64 tentativas. Suponha que as observações ordenadas pelo tempo no número de escolhas corretas pelo rato em cada trilha sejam as seguintes: \begin{equation} \begin{array}{c} 0, 1, 2, 1, 1, 2, 3, 2, 2, 2, 1, 1, 3, 2, 1, 2, 1, 2, 2, 1, 1, 2, 2, 1, 4, 3, 1, 2, 2, 1, 2, 2, \\ 2, 2, 3, 2, 2, 3, 4, 3, 2, 3, 3, 2, 3, 3, 2, 3, 3, 2, 3, 4, 3, 3, 4, 2, 3, 3, 4, 3, 4, 4, 4, 4, \end{array} \end{equation} Teste os dados para a aleatoriedade contra a alternativa de uma tendência ao agrupamento, usando o critério dicotomizador de que 0, 1 ou 2 escolhas corretas indicam ausência de aprendizado e 3 ou 4 escolhas corretas indicam a aprendizagem.

  10. Verifique que \begin{equation} \lim_{n\to\infty} P( \, D_n > 1.07\big/ \sqrt{n} \,) \, = \, 0.20\cdot \end{equation}

  11. Uma amostra aleatória de tamanho 12 é extraída de uma população contínua desconhecida \(F_X\), com os seguintes resultados após arrumação: \begin{equation} 3.5, 4.1, 4.8, 5.0, 6.3, 7.1, 7.2, 7.8, 8.1, 8.4, 8.6, 9.0 \end{equation} Querermos uma faixa de confiança de 90% para \(F_X(x)\). Plote um gráfico da função de distribuição empírica \(\widehat{F}_n\) e as bandas de confiança resultantes.

  12. Em um estudo de vibração, uma amostra aleatória de 15 componentes de aeronaves foi submetida a vibrações severas até que eles mostraram falhas estruturais. Os dados fornecidos são tempos de falha em minutos. Testar a hipótese nula de que as observações \begin{equation} 1.6, 10.3, 3.5, 13.5, 18.4, 7.7, 24.3, 10.7, 8.4, 4.9, 7.9, 12.0, 16.2, 6.8, 14.7 \end{equation} podem ser consideradas como uma amostra da população exponencial com função de densidade \begin{equation} f(x) \, = \, \frac{1}{10}e^{-\frac{x}{10}}, \qquad \mbox{para } x\geq 0\cdot \end{equation}

  13. Suponha que um teste de QI tenha sido aplicado a 8 homens e 8 mulheres candidatos a um certo cargo de uma empresa. Os resultados foram os seguintes:
    Candidato 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

    Sexo H H M H M M M H M M M H H H H M
    QI 125 127 128 132 133 135 136 137 140 141 142 143 144 145 146 147
    Existem evidências para acreditar que a ordem dos candidatos não seja aleatória?

  14. As condições das árvores individuais em uma fileira de dez choupos foram encontradas, da esquerda para a direita como \begin{equation} S \quad S \quad D \quad D \quad S \quad D \quad D \quad D \quad S \quad S, \end{equation} onde \(D\) indica árvore doente e \(S\) para o som. Há evidência suficiente para indicar falta de aleatoriedade na sequência e, portanto, a possibilidade de contágio?