4.1. Correlação linear


O coeficiente de correlação paramétrico tradicional entre as variáveis aleatórias \(X\) e \(Y\) ou coeficiente de correlação de Pearson é a razão entre a covariância do produto entre \(X\) e \(Y\) de seus desvios padrão, ou seja, \[ \rho = \frac{\mbox{E}\big( (X-\mu_X)(Y-\mu_Y)\big)}{\sigma_X\sigma_Y}, \] onde \(\mu_X\), \(\sigma_X\) e \(\mu_Y\), \(\sigma_Y\) são as respectivas médias e desvios padrão de \(X\) e \(Y\).

O parâmetro \(\rho\) requer, é claro, a suposição de variâncias finitas para \(X\) e \(Y\). Constitui uma medida de associação linear entre \(X\) e \(Y\). Pode ser demonstrado que satisfaz as propriedades:

  1. \(−1\leq \rho\leq 1\),

  2. \(\rho=\pm 1\) se, e somente se, \(Y\) é uma função linear de \(X\), com probabilidade 1,

  3. \(\rho > ( < ) \, 0\) está associado a um relacionamento linear positivo (negativo) entre \(Y\) e \(X\).

Observe que, se \(X\) e \(Y\) forem independentes, então \(\rho = 0\). Em geral, o inverso não é verdadeiro. O contrapositivo, porém, é verdadeiro; isto é, \(\rho \neq 0\) implica que \(X\) e \(Y\) são dependentes.

Normalmente \(\rho\) é estimado por um estimador não paramétrico. O numerador é estimado pela covariância amostral \[ \frac{1}{n}\sum_{i=1}^n (X_i - \overline{X})(Y_i - \overline{Y}), \] enquanto que o denominador é estimado pelo produto dos desvios padrão amostrais, com \(n\) e não \(n-1\) como divisores das variâncias amostrais. Isso simplifica que o coeficiente de correlação amostral é dado por \[ \widehat{\rho} = \frac{\displaystyle \sum_{i=1}^n (X_i - \overline{X})(Y_i - \overline{Y})} {\displaystyle \sqrt{\sum_{i=1}^n (X_i - \overline{X})^2 \sum_{i=1}^n (Y_i - \overline{Y})^2}}\cdot \]

Similarmente, pode ser mostrado que \(\widehat{\rho}\) satisfaz as propriedades: \(−1\leq \widehat{\rho}\leq 1\), \(\widehat{\rho}=\pm 1\) se existe uma relação linear determinística para a amostra \((X_i, Y_i)\) e \(\widehat{\rho}> (<) \, 0\) associado a uma relação linear positiva (negativa) entre \(Y\) e \(X\).

O estimador do coeficiente de correlação está diretamente relacionado à regressão linear simples por mínimos quadrados. Sejam \(\widehat{\sigma}_X\) e \(\widehat{\sigma}_Y\) os respectivos desvios padrão amostrais de \(X\) e \(Y\). Então temos a relação \[ \widehat{\rho} = \frac{\widehat{\sigma}_X}{\widehat{\sigma}_Y}\widehat{\beta}, \] onde \(\widehat{\beta}\) é o estimador de mínimos quadrados da inclinação na regressão simples de \(Y\) em \(X\). Pode-se demonstrar que, sob a hipótese nula, \(\sqrt{n}\widehat{\beta}\) é assintoticamente \(N(0,1)\). A inferência para \(\widehat{\rho}\) pode ser baseada neste resultado assintótico, mas geralmente a aproximação \(t-Student\) é usada.

Se fizermos a suposição mais forte de que o vetor aleatório \((X,Y)\) tem distribuição normal bivariada, então \(\widehat{\rho}\) é o estimador de máxima verossimilhança de \(\rho\). Com base na sua expressão, sob \(H_0: \, \rho=0\), a estatística \[ t_{obs} = \frac{\sqrt{n-2}\widehat{\rho}}{\sqrt{1-\widehat{\rho}^2}}, \] tem distribuição \(t-Student\) com \(n-2\) graus de liberdade. Assim, um teste com nível de signicância \(\alpha\) rejeita a hipótese \(H_0\) em favor de \(H_A: \rho\neq 0\) se \(|t_{obs}|> t_{\alpha/2, n-2}\). Além disso, para \(\rho\) geral, pode ser mostrado que \[ \log\left(\frac{1+\widehat{\rho}}{1-\widehat{\rho}}\right) \] é aproximadamente normal com esperança \((1+\rho)(1-\rho)\). Com base nisso, intervalos de confiança aproximados para \(\rho\) podem ser construídos. Na prática, geralmente a forte suposição de normalidade bivariada não pode ser feita. Nesse caso, o teste \(t-Student\) e o intervalo de confiança são aproximados. Para cálculos no R, consideramos \(X\) e \(Y\) vetores unidimensionais de valores e utilizamos a função cor.test.


Exemplo 4.1: Indenizações de responsabilidade geral.

O conjunto de dados do LossALAE possui 1500 linhas e 2 colunas. As colunas contêm o pagamento de indenização (Loss) e a despesa de ajuste de perda alocada (ALAE), ambos em USD. Esta última são as despesas adicionais associadas à reivindicação da indenização, por exemplo, despesas de investigação e honorários legais.

Fonte: Frees and Valdez (1998).

LossALAE = read.csv2(file = "http://leg.ufpr.br/~lucambio/Nonparam/LossALAE.csv")
Loss = log(LossALAE$Loss)
ALAE = log(LossALAE$ALAE)
n = length(LossALAE)
par(mfrow=c(1,2),mar=c(4,5,3,1),pch=19)
plot(ALAE ~ Loss, cex=0.7, main="(a)");grid()
plot(I(rank(ALAE)/(n+1)) ~ I(rank(Loss)/(n+1)),main="(b)", cex=0.7,
     xlab=expression(paste(hat(U),"(Loss)")),
     ylab=expression(paste(hat(U),"(ALAE)")));grid()

Figura 4.1. (a) gráfico descritivo dos valores originais, (b) gráfico descritivo dos postos.

cor.test( ~ ALAE + Loss, method = "pearson")
## 
##  Pearson's product-moment correlation
## 
## data:  ALAE and Loss
## t = 18.951, df = 1498, p-value < 2.2e-16
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
##  0.3979995 0.4796912
## sample estimates:
##       cor 
## 0.4397545
cor.test( ~ rank(ALAE) + rank(Loss), method = "pearson")
## 
##  Pearson's product-moment correlation
## 
## data:  rank(ALAE) and rank(Loss)
## t = 19.605, df = 1498, p-value < 2.2e-16
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
##  0.4106504 0.4912501
## sample estimates:
##      cor 
## 0.451872


O valor estimado do coeficiente de correlação de Pearson ou correlação linear entre as variáveis Loss e ALAE é 0.44, aproximadamente. Depois mostramos o coeficiente de correlação linear entre os postos das variáveis, sendo este de 0.45.

Rejeita-se a hipótese nula de correlação linear zero. Observe que o intervalo de confiança do coeficiente de correlação linear estimado é (0.40,0.48), ainda observe que para a visualização dos dados utlizamos a escala logaritmica. Esta escala em nada altera a relação linear das variáveis, mas melhora muito a apresentação dos dados.



4.2. Concordância


Informalmente, um par de variáveis aleatórias é concordante se valores “grandes” de um tenderem a ser associados a “grandes” valores do outro e valores “pequenos” de um com “pequenos” valores do outro. Para ser mais preciso, sejam \((x_i,y_i)\) e \((x_j,y_j)\) duas observações do vetor aleatório \((X,Y)\) de variáveis aleatórias contínuas.

Dizemos que \((x_i,y_i)\) e \((x_j,y_j)\) são concordantes se \(x_i<x_j\) e \(y_i<y_j\) ou se \(x_i>x_j\) e \(y_i>y_j\). Similarmente, dizemos que \((x_i,y_i)\) e \((x_j,y_j)\) são discordantes se \(x_i<x_j\) e \(y_i>y_j\) ou se \(x_i>x_j\) e \(y_i<y_j\). Observe a formulação alternativa:

  1. \((x_i,y_i)\) e \((x_j,y_j)\) são concordantes se \((x_i-x_j)(y_i-y_j)>0\) e

  2. \((x_i,y_i)\) e \((x_j,y_j)\) são discordantes se \((x_i-x_j)(y_i-y_j)<0\).


4.2.1. Medida de concordância de Kendall


A versão amostral da medida de associação conhecida como \(\tau\) de Kendall é definida em termos da concordância da seguinte forma (ver Kruskal (1958), Hollander and Wolfe (1973) e Lehmann (1975)). Seja \((x_1,y_1),\cdots,(x_n,y_n)\) uma amostra aleatória de \(n\) observações de um vetor \((X,Y)\) de variáveis aleatórias contínuas. Há \(\binom{n}{2}\) pares distintos \((x_i,y_i)\) e \((x_j,y_j)\) de observações na amostra e cada par é concordante ou discordante.

Um estimador direto de \(\tau\) é simplesmente contar o número de pares concordantes na amostra e subtrair aquele número de pares discordantes. A padronização dessa estatística leva a \[ \tag{4.1} \widehat{\tau} \, = \, \frac{1}{\displaystyle {n \choose 2}}\sum_{i< j} \mbox{sign}\big((X_i-X_j)(Y_i-Y_j)\big)\cdot \]

Como a estatística \(\widehat{\tau}\) é um coeficiente \(\tau\) de Kendall baseado na distribuição amostral empírica, compartilha as mesmas propriedades; isto é, \(\widehat{\tau}\) está entre -1 e 1 e valores positivos de \(\widehat{\tau}\) refletem monotonicidade crescente enquanto valores negativos refletem monotonicidade decrescente. Pode ser mostrado que \(\widehat{\tau}\) é um estimador não viciado de \(\tau\). Além disso, sob a suposição de que \(X\) e \(Y\) serem independentes, a distribuição do estimador \(\widehat{\tau}\) é livre de parámetros com esperança 0 e variância \(2(2n+5)/\big(9n(n-1)\big)\). Testes de hipótese podem ser baseados na distribuição exata em amostras finitas.

No R o cálculo deste estimador é obtido pela função cor.test com method = “kendall”.


Exemplo 4.2.

Continuando o Exemplo 4.1 calculamos a medida de concordância de Kendall.

cor.test( ~ Loss + ALAE, method = "kendall")
## 
##  Kendall's rank correlation tau
## 
## data:  Loss and ALAE
## z = 18.189, p-value < 2.2e-16
## alternative hypothesis: true tau is not equal to 0
## sample estimates:
##       tau 
## 0.3154175


Observe que \(\widehat{\tau}=0.31\) e que o teste indica significância estatística de ser zero.


Equivalentemente, \(\widehat{\tau}\) acima é a probabilidade de concordância menos a probabilidade de discordância para um par de observações \((x_i,y_i)\) e \((x_j,y_j)\) escolhidas aleatoriamente na amostra. A versão populacional do \(\tau\) de Kendall para um vetor \((X,Y)\) de variáveis aleatórias contínuas com a função de distribuição conjunta \(F_{X,Y}\) é definida de maneira semelhante.

Sejam \((x_1,y_1)\) e \((x_2,y_2)\) vetores aleatórias, independentes e distribuídos de forma idêntica, cada um com função de distribuição conjunta \(F_{X,Y}\). Então a versão populacional do \(\tau\) de Kendall é definido como a probabilidade de concordância menos a probabilidade de discordância: \[ \tag{4.2} \tau=\tau_{X,Y}=P\big((X_1-X_2)(Y_1-Y_2)>0 \big)-P\big((X_1-X_2)(Y_1-Y_2)<0 \big)\cdot \]

Para demonstrar o papel que as copulas desempenham em concordância e medidas de associação como o \(\tau\) de Kendall, primeiro definimos uma “função de concordância” \(Q\), que é a diferença das probabilidades de concordância e discordância entre dois vetores \((X_1,Y_1)\) e \((X_2,Y_2)\) de variáveis aleatórias contínuas com possivelmente, diferentes distribuições conjuntas \(F_1\) e \(F_2\), mas com as distribuições marginais comuns \(F_X\) e \(F_Y\). Mostramos então que essa função depende das distribuições de \((X_1,Y_1)\) e \((X_2,Y_2)\) somente através de suas copulas.


Teorema 4.1:

Sejam \((X_1,Y_1)\) e \((X_2,Y_2)\) de vetores independentes de variáveis aleatórias contínuas com função de distribuição conjunta \(F_1\) e \(F_2\), respectivamente e funções de distribuição marginais \(F_X\) (de \(X_1\) e \(X_2\)) e \(F_Y\) (de \(Y_1\) e \(Y_2\)). Sejam \(C_1\) e \(C_2\) as copulas de \((X_1,Y_1)\) e \((X_2,Y_2)\), respectivamente e sejam \[ F_1(x,y)=C_1(F_X(x),F_Y(y)) \qquad \mbox{e} \qquad F_2(x,y)=C_2(F_X(x),F_Y(y))\cdot \] Seja \(Q\) a diferença entre as probabilidades de concordância e discordância entre \((X_1,Y_1)\) e \((X_2,Y_2)\), ou seja, seja \[ \tag{4.3} Q=P\big((X_1-X_2)(Y_1-Y_2)>0 \big)-P\big((X_1-X_2)(Y_1-Y_2)<0 \big)\cdot \] Então \[ \tag{4.4} Q=Q(C_1,C_2)=4\iint\limits_{\bf{I}^2} C_2(u,v)\mbox{d}C_1(u,v)-1\cdot \]


Demonstração.

Como as variáveis aleatórias são contínuas, \[ P\big((X_1-X_2)(Y_1-Y_2)>0\big)=1-P\big((X_1-X_2)(Y_1-Y_2)<0\big) \] e, por isso, \[ \tag{4.5} Q=2P\big((X_1-X_2)(Y_1-Y_2)>0\big)-1\cdot \] Mas \[ P\big((X_1-X_2)(Y_1-Y_2)>0\big)=P\big(X_1>X_2,Y_1>Y_2\big)+P\big(X_1<X_2,Y_1<Y_2\big), \] e essas probabilidades podem ser avaliadas integrando a distribuição de um dos vetores \((X_1,Y_1)\) ou \((X_2,Y_2)\), digamos \((X_1,Y_1)\). Primeiro nós temos \[ \begin{array}{rcl} P\big(X_1>X_2,Y_1>Y_2\big) & = & P\big(X_2<X_1,Y_2<Y_1\big) = \\ & = & \displaystyle \iint_{\mathbb{R}^2} P\big(X_2\leq x,Y_2\leq y\big)\mbox{d}C_1(F_X(x),F_Y(y)) \\ & = & \displaystyle \iint_{\mathbb{R}^2} C_2(F_X(x),F_Y(y))\mbox{d}C_1(F_X(x),F_Y(y)), \end{array} \] de modo que utilizando a mudança de variáveis \(u = F_X(x)\) e \(\nu = F_Y(y)\) obtemos \[ P\big(X_1>X_2,Y_1>Y_2\big) = \iint_{\bf{I}^2} C_2(u,\nu)\mbox{d}C_1(u,\nu)\cdot \] Similarmente, \[ \begin{array}{rcl} P\big(X_1<X_2,Y_1<Y_2\big) & = & \displaystyle \iint_{\mathbb{R}^2} P\big(X_2> x,Y_2> y\big)\mbox{d}C_1(F_X(x),F_Y(y)) \\ & = & \displaystyle \iint_{\mathbb{R}^2} \Big(1-F_X(x)-F_Y(y)+C_2(F_X(x),F_Y(y))\Big)\mbox{d}C_1(F_X(x),F_Y(y)) \\ & = & \displaystyle \iint_{\bf{I}^2} \big(1-u-\nu+C_2(u,\nu)\big)\mbox{d}C_1(u,\nu)\cdot \end{array} \] Mas porque \(C_1\) é a função de distribuição conjunta de um par \((U,V)\) de variáveis aleatórias uniformes me \((0,1)\) e \(\mbox{E}(U) = \mbox{E}(V) = 1/2\) e, portanto, \[ \begin{array}{rcl} P\big(X_1<X_2,Y_1<Y_2\big) & = & 1-\dfrac{1}{2}-\dfrac{1}{2}+\displaystyle \iint_{\bf{I}^2} C_2(u,\nu) \mbox{d}C_1(u,\nu) \\ & = & \displaystyle \iint_{\bf{I}^2} C_2(u,\nu)\Big)\mbox{d}C_1(u,\nu) \cdot \end{array} \] Então, \[ P\big((X_1-X_2)(Y_1-Y_2)>0\big) = 2\iint_{\bf{I}^2} C_2(u,\nu)\Big)\mbox{d}C_1(u,\nu) \] e a conclusão segue após a substituição em (4.5).


Como a função de concordância \(Q\) no Teorema 4.1 desempenha um papel importante ao longo desta seção, resumimos algumas de suas propriedades úteis no corolário a seguir, cuja prova é deixada como um exercício. No corolário a continuação utilizamos o conceito de grandeza de copulas: se \(C_1\) e \(C_2\) são copulas, dizemos que \(C_1\) é menor do que \(C_2\) (ou \(C_2\) é maior que \(C_1\)), escrevemos \(C_1\prec C_2\) (ou \(C_2\succ C_1\)) se \(C(u,\nu)\leq C_2(u,\nu)\) para todo \((u,\nu)\in\bf{I}^2\).


Corolário 4.1:

Sejam \(C_1\), \(C_2\) e \(Q\) dadas segundo o Teorema 4.1. Então,

  1. \(Q\) é simétrica em seus argumentos: \(Q(C_1,C_2)=Q(C_2,C_1)\).

  2. \(Q\) é não decrescente em seus argumentos: se \(C_1\prec C_1'\) e \(C_2\prec C_2'\) para todo \((u,\nu)\in\bf{I}^2\), então \(Q(C_1,C_2)\leq Q(C_1',C_2')\).

  3. Copulas podem ser substituídas por copulas de sobrevivência em \(Q\), isto é, \[ Q(C_1,C_2)=Q(\overline{C}_1,\overline{C}_2)\cdot \]


Demonstração.

Exercício.



Exemplo 4.3.

A função \(Q\) pode ser avaliada para pares das copulas básicas \(M\), \(W\) e \(\Pi\). As copulas básicas são definidas como:

  1. \(M(u,\nu)=\min\{u,\nu\}\),

  2. \(W(u,\nu)=\max\{u+\nu-1,0\}\),

  3. \(\Pi(u,\nu)=u\nu\).

Primeiro, lembremos que o suporte de \(M\) é a diagonal \(\nu = u\) em \(\bf{I}^2\). Como \(M\) tem marginais uniformes \((0,1)\), segue-se que se \(g\) é uma função integrável cujo domínio seja \(\bf{I}^2\), então \[ \iint_{\bf{I}^2} g(u,\nu)\mbox{d}M(u,\nu)=\int_0^1 g(u,\nu)\mbox{d}u\cdot \] Portato temos \[ \begin{array}{rcl} Q(M,M) & = & \displaystyle 4\iint_{\bf{I}^2} \min\{u,\nu\} \,\mbox{d}M(u,\nu)-1 = 4\int_0^1 u\mbox{d}u-1 =1 \\ Q(M,\Pi) & = & \displaystyle 4\iint_{\bf{I}^2} u\nu \, \mbox{d}M(u,\nu)-1 = 4\int_0^1 u^2 \mbox{d}u-1 =\dfrac{1}{3} \\ Q(M,W) & = & \displaystyle 4\iint_{\bf{I}^2} \max\{u+\nu-1,0\} \, \mbox{d}M(u,\nu)-1 = 4\int_{1/2}^1 (2u-1)\mbox{d}u-1 =0 \cdot \end{array} \]

Da mesma forma, porque o apoio de \(W\) é a diagonal secundária \(\nu = 1-u\), temos \[ \iint_{\bf{I}^2} g(u,\nu)\mbox{d}W(u,\nu)=\int_)^1 g(u,1-u)\mbox{d}u, \] e assim \[ \begin{array}{rcl} Q(W,\Pi) & = & \displaystyle 4\iint_{\bf{I}^2} u\nu \,\mbox{d}M(u,\nu)-1 = 4\int_0^1 u(1-u)\mbox{d}u-1 = -\dfrac{1}{3} \\ Q(W,\Pi) & = & \displaystyle 4\iint_{\bf{I}^2} \max\{u+\nu-1,0\} \, \mbox{d}W(u,\nu)-1 = 4\int_0^1 0 \, \mbox{d}u-1 = -1 \cdot \end{array} \]

Finalmente, devido a que \(\mbox{d}\Pi(u,\nu)=\mbox{d}u\mbox{d}\nu\), \[ Q(\Pi,\Pi) = \displaystyle 4\iint_{\bf{I}^2} u\nu \,\mbox{d}\Pi(u,\nu)-1 = 4\int_0^1\int_0^1 u\nu \, \mbox{d}u\mbox{d}\nu -1 = 0 \cdot \]


Agora, seja \(C\) uma copula arbitrária. Porque \(Q\) é a diferença de duas probabilidades \[ Q(C,C)\in [–1,1] \] e como conseqüência da parte 2 do Corolário 4.1 e os valores de \(Q\) no exemplo acima, também segue que \[ \tag{4.6} Q(C,M)\in[0,1], \quad Q(C,W)\in[-1,0] \quad \mbox{e} \quad Q(C,\Pi)\in[-1/3,1/3]\cdot \]

Na Figura 4.1, vemos uma representação do conjunto \(C\) de copulas parcialmente ordenadas por \(\prec\), apenas sete copulas são mostradas, \(C_1\), \(C_2\), \(C_\alpha\) e \(C_\beta\) são copulas “típicas” e quatro “eixos de concordância”, cada um deque, em certo sentido, localiza a posição de cada copula \(C\) dentro do conjunto parcialmente ordenado (\(C,\prec\)).

Figura 4.1. O conjunto parcialmente ordenado \((C,\prec)\) e vários “eixos de concordância”


Teorema 4.2:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então a versão populacional da medida de associação \(\tau\) de Kendall para \(X\) e \(Y\), denotada por \(\tau_{X,Y}\) ou \(\tau_C\), é dada por \[ \tag{4.7} \tau_{X,Y}=\tau_C=Q(C,C)=4\iint_{\bf{I}^2} C(u,\nu) \ \mbox{d}C(u,\nu)-1\cdot \]


Demonstração.

Comparando os resultados (4.2), (4.3) e (4.4).


Assim, a tau de Kendall é o primeiro “eixo de concordância” na Figura 4.1. Observe que a integral que aparece em (4.7) pode ser interpretada como o valor esperado da função \(C(U,V)\) de variáveis aleatórias \(U\) e \(V\) Uniformes(0,1) cuja função de distribuição conjunta é \(C\), ou seja, \[ \tag{4.8} \tau_C=4\mbox{E}\big( C(U,V)\big)-1\cdot \]

Quando a copula \(C\) é membro de uma família paramétrica de copulas, por exemplo, se \(C\) for denotada \(C_\theta\) ou \(C_{\alpha,\beta}\), escreveremos \(\tau_\theta\) e \(\tau_{\alpha,\beta}\) em vez de \(\tau_{C_\theta}\) e \(\tau_{C_{\alpha,\beta}}\), respectivamente.


Exemplo 4.4.

A família de copulas Farlie-Gumbel-Morgenstern (FGM) define-se da seguinte forma: \[ C_{\theta}(u,\nu) = u\nu+\theta \, u\nu (1-u)(1-\nu), \] onde \(\theta\in[-1,1]\). Devido a \(C_\theta\) ser absolutamente contínua, temos \[ \mbox{d}C_{\theta}(u\nu)= \dfrac{\partial^2 C_\theta(u,\nu)}{\partial u\partial\nu}\mbox{d}u\mbox{d}\nu = \big(1+\theta(1-2u)(1-2\nu) \big)\mbox{d}u\mbox{d}\nu, \] do qual seque que \[ \iint_{\bf{I}^2} C_{\theta}(u,\nu)\mbox{d}C_\theta(u,\nu)=\dfrac{1}{4}+\dfrac{\theta}{18}, \] e, portanto, \(\tau_\theta= 2\theta/9\).

Assim, para copulas desta família \(\tau_\theta\in [–2/9,2/9]\) e, como Joe (1997) observa, essa faixa limitada de dependência restringe a utilidade dessa família para modelar.



Exemplo 4.5.

Seja \(C_{\alpha,beta}\) ser um membro da família de copulas de Fréchet \[ C_{\alpha,\beta}(u,\nu)=\alpha M(u,\nu)+(1-\alpha-\beta)\Pi(u,\nu)+\beta \, W(u,\nu), \] onde \(\alpha\geq 0\), \(\beta\geq 0\) e \(\alpha+\beta\leq 1\).

Então, \[ \mbox{d} C_{\alpha,\beta}(u,\nu)=\alpha \, \mbox{d}M(u,\nu)+(1-\alpha-\beta)\, \mbox{d}\Pi(u,\nu)+\beta \, \mbox{d}W(u,\nu), \] a partir do qual se segue de (4.7), usando os resultados do Exemplo 4.3, que \[ \tau_{\alpha,\beta}=\dfrac{(\alpha-\beta)(\alpha+\beta+2)}{3}\cdot \]


Em geral, a avaliação da versão populacional da \(\tau\) de Kendall requer a avaliação da dupla integral em (4.7). Para uma copula arquimediana, a situação é mais simples, pois a \(\tau\) de Kendall pode ser avaliada diretamente do gerador da copula, como mostrado no corolário a seguir (Genest and MacKay (1986a), Genest and MacKay (1986b)). De fato, uma das razões pelas quais as copulas arquimedianas são fáceis de trabalhar é que muitas vezes expressões com uma função de um lugar (o gerador) podem ser empregadas em vez de expressões com uma função de dois lugares (a copula).

Ainda acerca do corolário a seguir, neste utilizamos o conceito de copula Archimedean. Estas são copulas da forma \[ C(u,\nu)=\varphi^{[-1]} \big(\varphi(u)+\varphi(\nu) \big), \] onde \(\varphi^{[-1]}\) é a pseudo inversa de funções contínuas e estritamente crescentes de \([0,1]\) a \([0,\infty)\), com \(\varphi(1)=0\). Detalhes em Genest and MacKay (1986a).

Temos que definir pseudo inversa de uma função. Suponha que \(f \, : \, A\to B\) e \(R\subseteq B\), a função \(g \, : \, B \to A\) é uma pseudo inversa de \(f\) se para todos os \(b\in R\), \(g(b)\) é uma pré-imagem de \(b\). Por exemplo, sejam \(A = \{1,2,3,4\}\), \(B = \{r, s, t\}\), \(f(1) = r\), \(f(2) = t\), \(f(3) = t\) e \(f(4) = r\) então \(R = \{r, t\}\) e \(g(r) = 4\), \(g(s) = 3\), \(g(t) = 2\) é pseudo inversa de \(f\). Existem outras pseudo inversas, é claro. O ponto importante é que \(g\) deve mapear \(r\) para 1 ou 4 e \(t\) para 2 ou 3.


Corolário 4.2:

Sejam \(X\) e \(Y\) variáveis aleatórias com copula Archimedean \(C\) gerada por \(\varphi\) em \(\Omega\). A versão populacional do \(\tau_C\) de Kendall para \(X\) e \(Y\) é dada por \[ \tag{4.9} \tau_C=1+4\int_0^1 \dfrac{\varphi(t)}{\varphi'(t)}\mbox{d}t\cdot \]


Demonstração.

Sejam \(U\) e \(V\) variáveis aleatórias Uniformes (0,1) com a função de distribuição conjunta \(C\) e \(K_C\) denote a função de distribuição de \(C(U,V)\). Então de (4.8) temos \[ \tag{4.10} \tau_C=4\mbox{E}\big( C(U,V)\big)-1=4\int_0^1 t \, \mbox{d}K_C(t)-1 \] a qual, integrando por partes, rende \[ \tag{4.11} \tau_C=3-4\int_0^1 K_C(t)\mbox{d}t\cdot \] Mas como conseqüência do Teorema 3.7 e Corolário 3.2, a função de distribuição \(K_C\) de \(C(U,V)\) é \[ K_C(t)=t-\dfrac{\varphi(t)}{\varphi'(t^+)}, \] e, portanto \[ \tau_C=3-4\int_0^1 K_C(t) \mbox{d}t = 1+4\int_0^1 \dfrac{\varphi(t)}{\varphi'(t^+)} \mbox{d}t, \] onde substituímos \(\varphi'(t^+)\) por \(\varphi'(t)\) no denominador do integrando, pois as funções côncavas são diferenciáveis em quase todos os lugares.


Como conseqüência de (4.10) e (4.11), a função de distribuição \(K_C\) de \(C(U,U)\) é chamada de função de distribuição de Kendall da copula \(C\) e é um análogo bivariado da transformação integral de probabilidade. Ver Genest and Rivest (2001), Nelsen et al. (2001) e Nelsen et al. (2003) para obter detalhes adicionais.


Exemplo 4.6.

  1. Seja \(C_\theta\) um embro da família Clayton de copulas. Significa que \[ C_\theta(u,\nu)=\left(\max\{u^{-\theta}+\nu^{-\theta}-1,0\}\right)^{-1/\theta}, \] sendo \(\varphi_\theta(t)=(t^{-\theta}-1)/\theta\). Então, para \(\theta\geq -1\), \[ \dfrac{\varphi_\theta(t)}{\varphi'_\theta(t)}=\dfrac{t^{\theta+1}-t}{\theta} \quad \mbox{quando} \quad \theta\neq 0 \quad \mbox{e} \quad \dfrac{\varphi_\theta(0)}{\varphi'_\theta(0)}=t\ln(t), \] de maneira que \[ \tau_\theta=\dfrac{\theta}{\theta+2}\cdot \] Podemos utilizar o pacote de funções copula da seguinte maneira para obtermos o mesmo resultado do \(\tau\) de Kendall. A vantegem agora é que poderemos explorar, nas próximas seções, outras formas de dependência.
y = cbind(Loss,ALAE)
library(copula)
gof.Clayton = gofCopula(claytonCopula(), y, estim.method="itau", N = 1)
gof.Clayton$parameter/(gof.Clayton$parameter+2)
## parameter 
## 0.3154175


  1. Seja \(C_\theta\) um menbro da família Gumbel-Hougaard de copulas. Significa que \[ C_\theta(u,\nu)=\exp\left(-\Big(\big(-\ln(u)\big)^\theta + \big(-\ln(\nu)\big)^\theta\Big)^{1/\theta} \right), \] sendo \(\varphi_\theta(t)=(-\ln(t))^\theta\). Então, para \(\theta\geq 1\), \[ \dfrac{\varphi_\theta(t)}{\varphi'_\theta(t)}=\dfrac{t\ln(t)}{\theta}, \] de maneira que \[ \tau_\theta=\dfrac{\theta-1}{\theta}\cdot \] Seguindo com a utilização do pacote de funções copula da seguinte maneira para obtermos o mesmo resultado do \(\tau\) de Kendall.
gof.Gumbel = gofCopula(gumbelCopula(), y, estim.method="itau", N = 1)
(gof.Gumbel$parameter-1)/gof.Gumbel$parameter
## parameter 
## 0.3154175


A forma para \(\tau_C\) dada por (4.7) geralmente não é passível de calculada, especialmente quando \(C\) é singular ou se \(C\) tem um componente absolutamente contínuo e singular. Para muitas copulas, a expressão \[ \tag{4.12} \tau_C = 1-4\iint_{\bf{I}^2}\dfrac{\partial C(u,\nu)}{\partial u} \dfrac{\partial C(u,\nu)}{\partial\nu}\mbox{d}u\mbox{d}\nu \] é mais tratável, consulte o Exemplo 4.7 abaixo. A equivalência das expressões em (4.7) e (4.12) é uma conseqüência do seguinte Teorema (Li et al. 2002).


Teorema 4.3:

Sejam \(C_1\) e \(C_2\) copulas. Então \[ \tag{4.13} \iint_{\bf{I}^2} C_1(u,\nu)\mbox{d}C_2(u,\nu) = \dfrac{1}{2}-\iint_{\bf{I}^2} \dfrac{\partial C_1(u,\nu)}{\partial\nu} \dfrac{\partial C_2(u,\nu)}{\partial\nu} \mbox{d}u\mbox{d}\nu \cdot \]


Demonstração.

Quando as copulas são absolutamente contínuas, (13) pode ser estabelecido pela integração por partes. Nesse caso, o lado esquerdo de (4.13) é dado por \[ \iint_{\bf{I}^2} C_1(u,\nu)\mbox{d}C_2(u,\nu) = \int_0^1 \int_0^1 C_1(u,\nu) \dfrac{\partial^2 C_2(u,\nu)}{\partial u\partial\nu} \mbox{d}u\mbox{d}\nu \cdot \] Avaliando a integral interna por portes fornece-nos \[ \begin{array}{rcl} \displaystyle \int_0^1 C_1(u,\nu) \dfrac{\partial^2 C_2(u,\nu)}{\partial u\partial\nu} & = & C_1(u,\nu) \left. \dfrac{\partial C_2(u,\nu)}{\partial \nu}\right|_{u=0}^{u=1} - \int_0^1 \dfrac{\partial C_1(u,\nu)}{\partial u}\dfrac{\partial C_2(u,\nu)}{\partial \nu} \mbox{d}u \\ & = & \displaystyle \nu - \int_0^1 \dfrac{\partial C_1(u,\nu)}{\partial u}\dfrac{\partial C_2(u,\nu)}{\partial \nu} \mbox{d}u \cdot \end{array} \] A integração em \(\nu\) de 0 a 1 agora produz (4.13). A prova no caso geral prossegue aproximando \(C_1\) e \(C_2\) por sequências de copulas absolutamente contínuas. Veja Li et al. (2002) para obter detalhes.



Exemplo 4.7.

Seja \(C_{\alpha,\beta}\) um membro da família de copulas Marshall-Olkin, ou seja, \[ C_{\alpha,\beta}=\left\{ \begin{array}{rcl} u^{1-\alpha}\nu & \mbox{quando} & u^\alpha\geq \nu^\beta \\ u\, \nu^{1-\beta} & \mbox{quando} & u^\alpha\leq \nu^\beta \end{array}\right., \] para \(0<\alpha,\beta<1\).

As derivadas parciais de \(C_{\alpha,\beta}\) não existem apenas na curva \(u^\beta=\nu^\beta\), de maneira que \[ \dfrac{\partial C_{\alpha,\beta}(u,\nu)}{\partial u}\dfrac{\partial C_{\alpha,\beta}(u,\nu)}{\partial\nu}=\left\{ \begin{array}{rcl} (1-\alpha)u^{1-2\alpha}\nu & \mbox{quando} & u^\alpha> \nu^\beta \\ (1-\beta)u\, \nu^{1-2\beta} & \mbox{quando} & u^\alpha< \nu^\beta \end{array}\right., \] e então \[ \iint_{\bf{I}^2} \dfrac{\partial C_{\alpha,\beta}(u,\nu)}{\partial u}\dfrac{\partial C_{\alpha,\beta}(u,\nu)}{\partial\nu}\mbox{d}u\mbox{d}\nu = \dfrac{1}{4}\left(1-\dfrac{\alpha\beta}{\alpha-\alpha\beta+\beta}\right), \] do qual obtemos \[ \tau_{\alpha,\beta}=\dfrac{\alpha\beta}{\alpha-\alpha\beta+\beta}\cdot \]



4.2.2. Medida de concordância de Spearman


Na definição da medida de concordância de Spearman \(\rho\) (Spearman 1904) é mais fácil começar com seu estimador. Considere a amostra aleatória \(((X_1,Y_1),(X_2,Y_2),\cdots,(X_n,Y_n)\). Denotemos por \(R(X_i)\) o posto de \(X_i\) entre \(X_1,X_2,\cdots,X_n\) e da mesma forma denotemos \(R(Y_i)\) como o posto de \(Y_i\) entre \(Y_1,Y_2,\cdots,Y_n\). A estimativa de \(\rho\) é simplesmente o coeficiente de correlação amostral com \(X_i\) e \(Y_i\) substituídos respectivamente por \(R(X_i)\) e \(R(Y_i)\).

Seja então \(\widehat{\rho}\) esse coeficiente de correlação amostral. Note que o denominador de \(\widehat{\rho}\) é uma constante e que a média amostral das classificações é \((n+1)/2\). Simplificação leva à expressão \[ \widehat{\rho} = \frac{\displaystyle \sum_{i=1}^n \Big( R(X_i)-\frac{n+1}{2}\Big)\Big(R(Y_i)-\frac{n+1}{2}\Big)} {\displaystyle \frac{n(n^2-1)}{12}}\cdot \]

Esta estatística é um coeficiente de correlação, portanto, assume valores entre \(\pm 1\) e é \(\pm 1\) se houver uma relação estritamente crescente ou decrescente entre \(X_i\) e \(Y_i\). Portanto, similar à medida de Kendall \(\tau\), ele estima a monotonicidade entre as amostras.

Pode ser mostrado que \[ \mbox{E}(\widehat{\rho}) = \frac{3}{n+1}\Big( \tau+\frac{n-2}{2\gamma -1}\Big), \] onde \(\gamma=P\big((X_2-X_1)(Y_3-Y_1)>0\big)\). O estimador de \(\rho\) não é tão fácil de interpretar quanto o do \(\tau\).

Se \(X\) e \(Y\) forem independentes, segue-se que \(\widehat{\rho}\) é uma estatística com distribuição livre de parámetros, isto devido a que a média é 0 e a variância \(1/(n−1)\). Aceitamos \[ H_A: \, X \; \mbox{e} \; Y \; \mbox{são dependentes} \] para grandes valores de \(|\widehat{\rho}|\). Este teste pode ser realizado usando a distribuição exata ou aproximada usando a estatística \(Z=\sqrt{n-1}\widehat{\rho}\).

Em aplicações, no entanto, a aproximação \(t\)-Student é frequentemente utilizada, onde \[ t_{obs} \, = \, \frac{\sqrt{n-2}\widehat{\rho}}{\sqrt{1-\widehat{\rho}^2}}\cdot \]

No R o cálculo deste estimador é obtido pela função cor.test com method = “spearman”. Isso calcula a estatística de teste e o p-valor, mas não um intervalo de confiança para \(\rho\). Embora o parámetro \(\rho\) seja difícil de interpretar, no entanto, os intervalos de confiança são importantes porque fornecem uma noção da força ou tamanho do efeito da estimativa.

cor.test( ~ Loss + ALAE, method = "spearman")
## 
##  Spearman's rank correlation rho
## 
## data:  Loss and ALAE
## S = 308321877, p-value < 2.2e-16
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
##      rho 
## 0.451872

Assim como o \(\tau\) de Kendall, a versão populacional da medida de associação conhecida como \(\rho\) de Spearman é baseada na concordância e discordância. Para obter a versão populacional desta medida (Kruskal 1958; Lehmann 1966), agora consideramos \((X_1,Y_1)\), \((X_2,Y_2)\) e \((X_3,Y_3)\) três vetores aleatórios independentes com uma função comum de distribuição conjunta \(H\), cujas marginais são novamente \(F\) e \(G\) e copula \(C\).

A versão populacional \(\rho_{X,Y}\) do \(\rho\) de Spearman é definida como proporcional à probabilidade de concordância menos a probabilidade de discordância para os dois vetores \((X_1,Y_1)\) e \((X_2,Y_3)\), ou seja, um par de vetores com as mesmas marginais, mas um vetor tem função de distribuição \(H\), enquanto os componentes dos outros são independentes: \[ \tag{4.14} \rho_{X,Y}=3\, \Big( P\big((X_1-X_2)(Y_1-Y_3)>0 \big)-P\big((X_1-X_2)(Y_1-Y_3)<0 \big) \Big)\cdot \]

O par \((X_3,Y_2)\) poderia ser igualmente utilizado. Note-se que enquanto a função de distribuição conjunta de \((X_1,Y_1)\) é \(H(x,y)\), a função de distribuição conjunta de \((X_2,Y_3)\) é \(F(x)G(y)\); porque \(X_2\) e \(Y_3\) são independentes.


Teorema 4.4:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então, a versão populacional do coeficiene \(\rho\) de Spearman para \(X\) e \(Y\) é dado por \[ \tag{4.15a} \rho_{X,Y}=\rho=2Q(C\Pi), \] que pode ser escrito como \[ \tag{4.15b} \rho_{X,Y}=\rho=12\iint_{{\bf I}^2} u\, \nu \mbox{d}C(u,\nu)-3 \] ou \[ \tag{4.15c} \rho_{X,Y}=\rho=12\iint_{{\bf I}^2} C(u,\nu) \mbox{d}u\mbox{d}\nu-3\cdot \]


Demonstração.

A copula de \(X_2\) e \(Y_3\) é \(\Pi\) e usando o Teorema 4.1 e a parte 1 do Corolário 4.1, temos imediatamente este resultado.


Assim, o \(\rho\) de Spearman é essencialmente o segundo “eixo de concordância” na Figura 1. O valor 3 que aparece nas expressões em (4.15) e (4.15a) é uma constante de “normalização”, porque como pode ser observado em (4.6), \(Q(C,\Pi)\in [–1/3,1/3]\). Como foi no caso do \(\tau\) de Kendall, vamos escrever \(\rho_\theta\) e \(\rho_{\alpha,\beta}\) em vez de \(\rho_{C_\theta}\) e \(\rho_{C_{\alpha,\beta}}\), respectivamente, quando a função copula \(C\) seja dada por \(C_\theta\) ou \(C_{\alpha,\beta}\).


Exemplo 4.8.

Seja \(C_{\alpha,\beta}\) um membro da família Fréchet de copulas, ende \(\alpha\geq 0\), \(\beta\geq 0\) e \(\alpha+\beta\leq 1\). Então \[ C_{\alpha,\beta}=\alpha M+(1-\alpha-\beta)\Pi +\beta\, W, \] da qual segue que, utilizando a expressão em (4.4) e o resultado do Exemplo 4.1, temos \[ \begin{array}{rcl} Q(C_{\alpha,\beta},\Pi) & = & \alpha Q(M,\Pi)+(1-\alpha-\beta)Q(\Pi,\Pi)+\beta\, Q(W,\Pi) \\[0.8em] & = & \alpha(1/3)+(1-\alpha-\beta)(0)+\beta\,(-1/3) = \dfrac{\alpha-\beta}{3}, \end{array} \] e, então, \[ \tau_{\alpha,\beta}=3Q(C_{\alpha,\beta},\Pi)=\alpha-\beta\cdot \]



Exemplo 4.9.

  1. Seja \(C_\theta\) um membro da família Farlie-Gumbel-Morgenstern de copulas, onde \(\theta\in [-1,1]\). Então, \[ C_\theta(u,\nu)=u\nu +\theta \, u\nu(1-u)(1-\nu), \] por isso, \[ \iint_{\bf{I}^2} C_\theta(u,\nu) \mbox{d}u\mbox{d}\nu = \dfrac{1}{4}+\dfrac{\theta}{36}, \] e, portanto, \(\rho_\theta=\theta/3\).

  2. Seja \(C_{\alpha,\beta}\) um membro da família de copulas Marshall-Olkin para \(0<\alpha,\beta<1\), \[ C_{\alpha,\beta}(u,\nu)=\left\{ \begin{array}{rcl} u^{1-\alpha} \nu & \mbox{quando} & u^\alpha\geq \nu^\beta \\[0.8em] u \, \nu^{1-\beta} & \mbox{quando} & u^\alpha\leq \nu^\beta \end{array}\right. \]

Então \[ \iint_{\bf{I}^2} C_{\alpha,\beta}(u,\nu)\mbox{d}u\mbox{d}\nu = \dfrac{1}{2}\left(\dfrac{\alpha+\beta}{2\alpha-\alpha\beta+2\beta}\right), \] de maneira que \[ \rho_{\alpha,\beta}=\dfrac{3\alpha\beta}{2\alpha-\alpha\beta+2\beta}\cdot \]


Qualquer conjunto de propriedades desejáveis para uma “medida de concordância” incluiria aquelas na definição a seguir Scarsini (1984).


Definição 4.1.

Uma medida numérica \(\kappa\) de associação entre duas variáveis aleatórias contínuas \(X\) e \(Y\), escrevemos \(\kappa_{X,Y}\) ou \(\kappa_C\) quando conveniente, cuja copula seja \(C\) é uma medida de concordância se satisfazer as seguintes propriedades:

  1. \(\kappa\) é definida para cada par \(X\), \(Y\) de variáveis aleatórias contínuas;

  2. \(-1\leq \kappa_{X,Y}\leq 1\), \(\kappa_{X,X}=1\) e \(\kappa_{X,-X}=-1\);

  3. \(\kappa_{X,Y}=\kappa_{Y,X}\);

  4. Se \(X\) e \(Y\) forem independentes, então \(\kappa_{X,Y}=\kappa_\Pi=0\);

  5. \(\kappa_{-X,Y}=\kappa_{X,-Y}=-\kappa_{X,Y}\);

  6. Se \(C_1\) e \(C_2\) são copulas tais que \(C_1 \prec C_2\), então \(\kappa_{C_1}\leq \kappa_{C_2}\);

  7. Se \(\{(X_n,Y_n)\}\) for uma sequência de variáveis aleatórias contínuas com copulas \(C_n\) e se \(\{C_n\}\) converge pontualmente para \(C\), então \[ \lim_{n\to\infty} \kappa_{C_n} = \kappa_C\cdot \]


Como consequência da Definição 4.1 acima, temos o seguinte teorema, cuja prova é um exercício.


Teorema 4.5:

Seja \(\kappa\) uma medida de concordância para duas variáveis aleatórias contínuas \(X\) e \(Y\). Então,

  1. Se \(Y\) for uma função crescente de \(X\) quase certamente, então \(\kappa_{X,Y}=\kappa_M=1\).

  2. Se \(Y\) for uma função decrescente de \(X\) quase certamente, então \(\kappa_{X,Y}=\kappa_W=-1\).

  3. Se \(\alpha\) e \(\beta\) forem funções estritamente monôtonas (crescentes ou descrescentes) quase certamente em \(\mbox{Posto}(X)\) e \(\mbox{Posto}(Y)\), respectivamente, então \(\kappa_{\alpha(X),\beta(Y)}=\kappa_{X,Y}\).


Demonstração.

Exercício.


No teorema seguinte, verificamos que tanto o \(\tau\) de Kendall como o \(\rho\) de Spearman são medidas de concordância de acordo com a definição acima.


Teorema 4.6:

Se \(X\) e \(Y\) são variáveis aleatórias contínuas cuja copula é \(C\), então as versões populacionais do \(\tau\) de Kendall (4.2) e \(\rho\) de Spearman’s (4.14) satisfazem as propriedades da Definição 4.1 e do Teorema 4.5 para uma medida de concordância.


Demonstração.

Tanto para \(\tau\) como para \(\rho\), as primeiras seis propriedades da Definição 4.1. decorrem diretamente das propriedades de \(Q\) no Teorema 4.1, no Corolário 4.1 e no Exemplo 5.1. Para a sétima propriedade, note-se que a condição de Lipschitz (1.8) implica que qualquer família de copulas é equicontínua, pelo que a convergência de \(\{C_n\}\) para \(C\) é uniforme.


O fato de que medidas de concordância, como \(\rho\) e \(\tau\), satisfazem o sexto critério na Definição 4.1 é uma razão pela qual “\(\prec\)” é chamado de ordenação de concordância. O \(\rho\) de Spearman é frequentemente chamado de coeficiente de correlação de “grau”. Os graus são os análogos populacionais de classificações, isto é, se \(x\) e \(y\) são observações de duas variáveis aleatórias \(X\) e \(Y\) com funções de distribuição \(F\) e \(G\), respectivamente, então os graus de \(x\) e \(y\) são dados por \(u = F(x)\) e \(\nu = G(y)\).

Observe que os graus, \(u\) e \(\nu\), são observações das variáveis aleatórias uniformes (0,1) \(U = F(X)\) e \(V = G(Y)\) cuja função de distribuição conjunta é \(C\). Como \(U\) e \(V\) têm cada um média 1/2 e variância 1/12, a expressão para \(\rho_C\) em (4.15b) pode ser reescrita na seguinte forma: \[ \begin{array}{rcl} \rho_{X,Y} & = & \displaystyle \rho_C=12\iint_{{\bf I}^2} u\, \nu \mbox{d}C(u,\nu)-3 = 12 \mbox{E}(UV)-3\\[0.8em] & = & \dfrac{\mbox{E}(UV)-1/4}{1/12} = \dfrac{\mbox{E}(UV)-\mbox{E}(U)\mbox{E}(V)}{\sqrt{\mbox{Var}(U)\mbox{E}(V)}}\cdot \end{array} \]

Como consequência, o \(\rho\) de Spearman para um par de variáveis aleatórias contínuas \(X\) e \(Y\) é idêntico ao coeficiente de correlação produto-momento de Pearson para os graus de \(X\) e \(Y\), ou seja, as variáveis aleatórias \(U = F(X)\) e \(V = G(Y)\).


Exemplo 4.10.

Seja \(C_\theta\), \(\theta\in{\bf I}\), um membro da família de copulas \[ C_\theta(u,\nu)=\left\{ \begin{array}{cc} \min\{u,\nu-\theta\} & \mbox{quando} \quad (u,\nu)\in [0,1-\theta]\times [\theta,1]\\[0.8em] \min\{u+\theta-1,\nu\} & \mbox{quando} \quad (u,\nu)\in [1-\theta,1]\times [0,\theta]\\[0.8em] W(u,\nu) & \mbox{caso contrário} \end{array}\right.\cdot \]

Se \(U\) e \(V\) são variáveis aleatórias uniformes (0,1) e função de distribuição conjunta é \(C_\theta\), então \(V = U \oplus \theta\) com probabilidade 1, onde \(\oplus\) denota a adição mod 1, e temos \[ \begin{array}{rcl} \mbox{E}(UV) & = & \displaystyle \int_0^1 u (u\oplus \theta)\mbox{d}u \\[0.8em] & = & \displaystyle \int_0^{1-\theta} u (u+\theta)\mbox{d}u + \int_{1-\theta}^1 u(u+\theta-1)\mbox{d}u \\[0.8em] & = & \dfrac{1}{3}-\dfrac{\theta(1-\theta)}{2}, \end{array} \] e por conseguinte, \[ \rho_\theta=12\mbox{E}(UV)-3 = 1-6\theta(1-\theta)\cdot \]


Outra interpretação do \(\rho\) de Spearman pode ser obtida a partir da sua representação em (4.15c). A integral nessa expressão representa o volume sob o gráfico da copula e sobre o quadrado unitário, pelo que \(\rho_C\) é um volume “à escala” sob o gráfico da copula, à escala para se situar no intervalo [-1,1].

De fato, (4.15c) também pode ser escrita como \[ \tag{4.16} \rho_C = 12 \iint_{{\bf I}^2} \left( C(u,\nu)-u\, \nu\right) \mbox{d}u\mbox{d}\nu, \] de modo que \(\rho_C\) é proporcional ao volume assinado entre os gráficos da copula \(C\) e da copula produto \(\Pi\).

Assim, \(\rho_C\) é uma medida da “distância média” entre a distribuição de \(X\) e \(Y\), representada por \(C\), e a independência, representada pela copula \(\Pi\). Exploraremos esta observação na seção 4.5 para criar e discutir medidas adicionais de associação.


4.2.3. A relação entre \(\tau\) de Kendall e \(\rho\) de Spearman


Embora tanto o \(\tau\) de Kendall como o \(\rho\) de Spearman meçam a probabilidade de concordância entre variáveis aleatórias com uma dada copula, os valores de \(\rho\) e \(\tau\) são frequentemente bastante diferentes. Nesta seção, iremos determinar quão diferentes podem ser \(\rho\) e \(\tau\).

Na Seção 4.3, investigaremos a relação entre as medidas de associação e as propriedades de dependência, a fim de explicar parcialmente as diferenças entre \(\rho\) e \(\tau\) que observamos aqui. Começamos com uma comparação de \(\rho\) e \(\tau\) para membros de algumas das famílias de copulas que considerámos nos exemplos e exercícios das seções anteriores.


Exemplo 4.11.

  1. No Exercício 88, temos uma família de copulas para a qual \(\rho = \tau\) em todo o intervalo [-1,1] de valores possíveis para estas medidas.

  2. Para a família Farlie-Gumbel-Morgenstern, os resultados dos Exemplos 4.4 e 4.9(a) dão \(3\tau = 2\rho\), mas só num intervalo limitado, \(\rho\leq 1/3\) e \(\tau\leq 2/9\). Um resultado semelhante é válido para copulas com seções cúbicas que satisfazem \(A_1B_2 = A_2B_1\), ver Exercício 120.

  3. Para a família Marshall-Olkin, os resultados dos Exemplos 4.7 e 4.9(b) produzem \(\rho = 3\tau/(2+\tau)\) para \(\rho\) e \(\tau\) ambos em [0,1].

  4. Para a família Raftery, os resultados do Exercício 118 produzem, novamente para \(\rho\) e \(\tau\) ambos em [0,1], \(\rho = 3\tau (8-5\tau)/(4-\tau)^2\).


Poderiam ser mostrados outros exemplos, mas fica evidente que a relação entre \(\rho\) e \(\tau\) varia consideravelmente de família para família. O teorema seguinte, devido a Daniels (1950), oferece desigualdades universais para estas medidas. A nossa prova é adaptada de Kruskal (1958).


Teorema 4.7:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas e sejam \(\tau\) e \(\rho\) os coeficientes de Kendal e Spearman, respectivamente. Então, \[ \tag{4.17} -1\leq 3\tau-2\rho\leq 1\cdot \]


Demonstração.

Sejam \((X_1,Y_1)\), \((X_2,Y_2)\) e \((X_3,Y_3)\) três vetores independentes com a mesma distribuição. Pela continuidade (1.2) e (1.14) são equivalentes a \[ \tag{4.18} \begin{array}{rcl} \tau & = & 2 P\big( (X_1-X_2)(Y_1-Y_2)>0\big)-1, \\[0.8em] \rho & = & 6 P\big((X_1-X_2)(Y_1-Y_3)>0\big)-3\cdot \end{array} \] No entanto, os subscritos em \(X\) e \(Y\) podem ser permutados ciclicamente para obter as seguintes formas simétricas para \(\tau\) e \(\rho\): \[ \tau=\dfrac{2}{3}\left( P\big((X_1-X_2)(Y_1-Y_2)>0 \big)+P\big((X_2-X_3)(Y_2-Y_3)>0 \big)+\right. \\[0.8em] \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \left. P\big((X_3-X_1)(Y_3-Y_1)>0 \big) \right)-1 \] e \[ \rho=\left( P\big((X_1-X_2)(Y_1-Y_3)>0 \big)+P\big((X_1-X_3)(Y_1-Y_2)>0 \big)+ \right. \\[0.8em] \qquad \qquad \qquad P\big((X_2-X_1)(Y_2-Y_3)>0 \big) +P\big((X_3-X_2)(Y_3-Y_1)>0 \big)+\\[0.8em] \qquad \qquad \qquad \qquad \left. P\big((X_2-X_3)(Y_2-Y_1)>0 \big)+P\big((X_3-X_1)(Y_3-Y_2)>0 \big) \right)-3\cdot \] Porque as expressões para \(\tau\) e \(\rho\) acima são agora invariantes sob qualquer permutação dos subscritos, podemos assumir que \(X_1 < X_2 < X_3\), no caso em que \[ \tau=\dfrac{2}{3}\left(P(Y_1<Y_2)+P(Y_2<Y_3)+P(Y_1<Y_3) \right)-1 \] e \[ \begin{array}{rcl} \rho & = & P(Y_1<Y_3)+P(Y_1<Y_2)+P(Y_2>Y_3)+P(Y_3>Y_1)+P(Y_2<Y_1)+P(Y_3>Y_2)-3\\[0.8em] & = & 2\big( P(Y_1<Y_3)\big)-1\cdot \end{array} \] Seja agora \(p_{ijk}\) a probabilidade condicional de \(Y_i < Y_j < Y_k\) dado que \(X_1 < X_2 < X_3\). Então os seis \(p_{ijk}\) somam um, e temos \[ \begin{array}{rcl} \tau & = & \dfrac{2}{3}\left((p_{123}+p_{132}+p_{312})+(p_{123}+p_{213}+p_{231})+(p_{123}+p_{132}+p_{213}) \right)-1 \\[0.8em] & = & p_{123}+\dfrac{1}{3}(p_{132}+p_{213})-\dfrac{1}{3}(p_{231}+p_{312})-p_{321}, \end{array} \] e \[ \tag{4.19} \rho=2(p_{123}+p_{132}+p_{213})-1=p_{123}+p_{132}+p_{213}-p_{231}-p_{312}-p_{321}\cdot \] Por conseguinte, \[ \begin{array}{rcl} 3\tau-2\rho & = & p_{123}-p_{132}-p_{213}+p_{231}+p_{312}-p_{321}\\[0.8em] & = & (p_{123}+p_{231}+p_{312})-(p_{132}+p_{213}+p_{321}) \end{array} \] de modo que \[ -1\leq 3\tau-2\rho\leq 1\cdot \]


O teorema seguinte fornece um segundo conjunto de desigualdades universais que relacionam \(\rho\) e \(\tau\). Deve-se a Durbin and Stuart (1951) e mais uma vez, a prova é adaptada de Kruskal (1958):


Teorema 4.8:

Sejam \(X\), \(Y\), \(\tau\) e \(\rho\) como no Teorema 4.6. Então, \[ \tag{4.20a} \dfrac{1+\rho}{2}\geq \left(\dfrac{1+\tau}{2}\right)^2 \] e \[ \tag{4.20b} \dfrac{1-\rho}{2}\geq \left(\dfrac{1-\tau}{2}\right)^2\cdot \]


Demonstração.

Novamente, sejam \((X_1,Y_1)\), \((X_2,Y_2)\) e \((X_3,Y_3)\) três vectores aleatórios independentes com uma função de distribuição comum \(H\). Se \(p\) denota a probabilidade de um par de três vectores ser concordante com o terceiro terceiro, então, por exemplo \[ \begin{array}{rcl} p & = & P\left( (X_2,Y_2) \mbox{ e } (X_3,Y_3) \mbox{ são concordantes com } (X_1,Y_1)\right)\\[0.8em] & = & \displaystyle \iint_{{\bf R}^2} P\left( (X_2,Y_2) \mbox{ e } (X_3,Y_3) \mbox{ são concordantes com } (x,y)\right)\mbox{d}H(x,y)\\[0.8em] & = & \displaystyle \iint_{{\bf R}^2} P\left( (X_2-x)(Y_2-y)>0\right)P\left( (X_3-x)(Y_3-y)>0\right)\mbox{d}H(x,y)\\[0.8em] & = & \displaystyle \iint_{{\bf R}^2} \Big(P\big( (X_2-x)(Y_2-y)>0\big)\Big)^2\mbox{d}H(x,y)\\[0.8em] & \geq & \displaystyle \left( \iint_{{\bf R}^2} P\big( (X_2-x)(Y_2-y)>0\big)\mbox{d}H(x,y)\right)^2\\[0.8em] & = & \left( P\big( (X_2-X_1)(Y_2-Y_1)>0\big)\right)^2 = \left( \dfrac{1+\tau}{2}\right)^2, \end{array} \] em que a desigualdade resulta do fato de \(\mbox{E}(Z^2)\geq \left(\mbox{E}(Z)\right)^2\) para a variável aleatória (condicional) \[ Z = P\Big( (X_2-X_1)(Y_2-Y_1) > 0 \, \Big| \, (X_1=x,Y_1=y)\Big) , \] e a igualdade final resulta de (4.18). Permutando os subscritos, obtém-se \[ p = \dfrac{1}{3}\Big( P\left( (X_2,Y_2) \mbox{ e } (X_3,Y_3) \mbox{ são concordantes com } (X_1,Y_1)\right) \Big.\\[0.8em] \qquad \qquad \qquad + P\left( (X_3,Y_3) \mbox{ e } (X_1,Y_1) \mbox{ são concordantes com } (X_2,Y_2)\right) \\[0.8em] \qquad \qquad \qquad \qquad + P\left( (X_1,Y_1) \mbox{ e } (X_2,Y_2) \mbox{ são concordantes com } (X_3,Y_3)\right)\Big)\cdot \]

Assim, se \(X_1 < X_2 < X_3\) e se, mais uma vez, deixarmos \(p_{ijk}\) denotar a probabilidade condicional de \(Y_i < Y_j < Y_k\) dado que \(X_1 < X_2 < X_3\), então \[ p = \dfrac{1}{3}\Big( (p_{123}+p_{132})+(p_{123})+(p_{123}+p_{213})\Big) = p_{123}+\dfrac{1}{3}p_{132}+\dfrac{1}{3}p_{213}\cdot \] Aplicando (4.19) obtemos \[ \dfrac{1+\rho}{2}=p_{123}+p_{132}+p_{213}\geq p\geq \left(\dfrac{1+\tau}{2}\right)^2, \] o que completa a prova de (4.20a). Para provar (4.20b), substitua “concordante” no argumento anterior por ‘discordante’.


As desigualdades nos dois teoremas anteriores combinam-se para produzir o seguinte resultado.


Corolário 4.3:

Sejam \(X\), \(Y\), \(\tau\) e \(\rho\) como no Teorema 4.6. Então, \[ \tag{4.21} \begin{array}{ccccl} \dfrac{3\tau-1}{2} & \leq & \rho & \leq & \dfrac{1+2\tau-\tau^2}{2}, \qquad \tau\geq 0\\[0.8em] \mbox{e} & & & & \\[0.8em] \dfrac{\tau^2+2\tau-1}{2} & \leq & \rho & \leq & \dfrac{1+3\tau}{2}, \qquad \tau\leq 0\cdot \end{array} \]


Demonstração.

Resulta das afirmações dos Teoremas 4.5 e 4.6.


Estes limites para os valores de \(\rho\) e \(\tau\) são ilustrados na Figura 4.2. Para qualquer par \(X\) e \(Y\) de variáveis aleatórias contínuas, os valores das versões populacionais do \(\tau\) de Kendall e do \(\rho\) de Spearman devem situar-se na região sombreada, que designamos por região \(\tau-\rho\).

Figura 4.2: Limites para \(\rho\) e \(\tau\) para pares de variáveis aleatórias contínuas.

Os limites do Corolário 4.3 podem ser melhorados? Para dar uma resposta parcial a esta pergunta, consideramos dois exemplos.


Exemplo 4.12.

  1. Sejam \(U\) e \(V\) variáveis aleatórias uniformes (0,1) tais que que \(V = U\oplus \theta\), onde \(\oplus\) denota novamente adição mod 1, isto é, a função de distribuição conjunta de \(U\) e \(V\) é a copula \(C_\theta\) do Exemplo 4.9, com \(\theta\in [0,1]\). No Exemplo 4.9 mostrámos que \(\rho_\theta = 1-6\theta (1-\theta)\) e no Exercício 4.4(a) vimos que \(\tau_\theta = (1-2\theta)^2\), logo, para esta família, \(\rho=(3\tau-1)/2\), para \(\tau\geq 0\). Assim, todos os pontos da parte linear do limite inferior da região sombreada na Figura 4.2 é atingível para algum par de variáveis aleatórias.

  2. Do mesmo modo, sejam \(U\) e \(V\) variáveis aleatórias uniformes (0,1) tais que que \(U\oplus V = \theta\), ou seja, a copula de \(U\) e \(V\) é \(C_\theta\) do Exemplo 3.4, com \(\theta\in [0,1]\). Dos Exercícios 4.4(b) e 4.7, temos \(\tau_\theta = - (1 - 2\theta)^2\) e \(\rho_\theta = 6\theta(1-\theta)-1\) e, portanto, para esta família, \(\rho = (1+3\tau)/2\), \(\tau\leq 0\). Assim, cada ponto da parte linear do limite superior da região sombreada da Figura 4.2 também é atingível



Exemplo 4.13.

  1. Seja \(C_n\), \(n\) um número inteiro positivo, um membro da família de copulas do Exercício 119 (a), para o qual o suporte consiste em \(n\) segmentos de reta, como ilustrado para \(n = 4\) na parte (a) da figura no Exercício 119. Quando \(\tau=(n-2)/n\), temos \(\rho = (1 + 2\tau - \tau^2)/2\). Assim, são atingíveis pontos selecionados na porção parabólica da fronteira superior da região sombreada da Figura 4.2.

  2. Do mesmo modo, seja \(\{C_n\}\), \(n\) um número inteiro positivo, um membro da família de copulas do Exercício 119 (b), para o qual o suporte consiste em \(n\) segmentos de reta, como ilustrado para \(n = 4\) na parte (b) da figura no Exercício 119. Quando \(\tau =-(n-2)/n\), temos \(\rho = (\tau^2 + 2\tau - 1)/2\). Assim, os pontos selecionados na porção parabólica da fronteira inferior da região sombreada da Figura 4.2 também são atingíveis.


Na Figura 4.3, reproduzimos a Figura 4.2 com a região \(\tau\)-\(\rho\) aumentada por ilustrações dos suportes de algumas das copulas dos dois exemplos anteriores, para as quais \(\rho\) e \(\tau\) se encontram no limite.

Figura 4.3: Limites para \(\rho\) e \(\tau\) para pares de variáveis aleatórias contínuas.

Concluímos esta secção com várias observações.

  1. Como consequência do Exemplo 4.12, a parte linear da fronteira da região \(\tau-\rho\) não pode ser melhorada. No entanto, as copulas do Exemplo 4.13 não produzem valores de \(\rho\) e \(\tau\) em todos os pontos da porção parabólica da fronteira, pelo que pode ser possível melhorar as desigualdades em (4.21) nesses pontos.

  2. Todas as copulas ilustradas na Figura 4.3 para as quais \(\rho\) e \(\tau\) estão na fronteira da região \(\tau-\rho\) são embaralhamentos de \(M\).

  3. Hutchinson and Lai (1990) descrevem o padrão da Figura 4.3 observando que …[para um dado valor de \(\tau\)] \(\rho\) muito elevado somente ocorre com correlação negativa localmente contrastada com correlação global positiva e \(\rho\) muito baixo somente com correlação global negativa contrastada com correlação positiva localmente.

  4. A relação entre \(\rho\) e \(\tau\) numa família de cOpulas de um parâmetro pode ser explorada para construir um teste, em amostras grandes, da hipótese de que a copula de uma distribuição bivariada pertence a uma determinada família. Ver Carriere (1994) para mais pormenores.


4.2.4. Outras medidas de concordância


Na década de 1910, Corrado Gini introduziu uma medida de associação \(g\) que designou por indice di cograduazione semplice: se \(p_i\) e \(q_i\) denotam as as classificações numa amostra de tamanho \(n\) de duas variáveis aleatórias contínuas \(X\) e \(Y\), respetivamente, então \[ \tag{4.22} g=\dfrac{1}{[n^2/2]} \left[ \sum_{i=1}^n |p_i+q_i-n-1|-\sum_{i=1}^n |p_i-q_i|\right] \] em que \([t]\) denota a parte inteira de \(t\).

Seja \(g\) o parâmetro populacional estimado por esta estatística e, como habitualmente, sejam \(F\) e \(G\) as funções de distribuição marginal de \(X\) e \(Y\), respetivamente, e seja \(U = F(X)\) e \(V = G(Y)\). Como \(p_i/n\) e \(q_i/n\) são observações de distribuições uniformes discretas no conjunto \(\{1/n,2/n,\cdots,\cdots,1\}\) (2.22) pode ser reescrita como \[ g=\dfrac{n^2}{[n^2/2]}\left[ \sum_{i=1}^n \Bigg| \dfrac{p_i}{n}+\dfrac{q_i}{n}-\dfrac{n+1}{n}\Bigg|-\sum_{i=1}^n \Bigg| \dfrac{p_i}{n}-\dfrac{q_i}{n}\Bigg|\right]\times \dfrac{1}{n}\cdot \]

Se passarmos agora ao limite quando \(n\) vai para infinito, obtemos \[ \gamma = 2\mbox{E}\Big( |U+V-1|-|U-V|\Big), \] isto é, \[ \tag{4.23} \gamma=2\iint_{\bf{I}^2} \Big(|u+\nu-1|-|u-\nu|\Big) \mbox{d}C(u,\nu), \] em que \(C\) é a copula de \(X\) e \(Y\).

No teorema seguinte, mostramos que \(\gamma\), tal como \(\rho_S\) e \(\tau_K\), é uma medida de associação baseada na concordância.


Teorema 4.9:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\). A versão populacional da medida de associação de Gini para \(X\) e \(Y\), que denotaremos por \(\gamma_{X,Y}\) ou \(\gamma_C\), é dada por \[ \tag{4.24} \gamma_{X,Y}=\gamma_{C}=Q(C,M)+Q(C,W)\cdot \]


Demonstração.

Provaremos que (2.24) é equivalênte a (2.23). Utilizando (2.4) e observando que \[ M(u,\nu)=\dfrac{1}{2}\left[ u+\nu-|u-\nu|\right], \] temos que \[ Q(C,M)=4\iint_{\bf{I}^2} M(u,\nu)\mbox{d}C(u,\nu)-1 = 2\iint_{\bf{I}^2} \Big[|u+\nu|-|u-\nu|\Big] \mbox{d}C(u,\nu)-1\cdot \] Mas porque qualquer copula é uma função de distribuição conjunta com marginais uniformes (0,1), \[ \iint_{\bf{I}^2} u\mbox{d}C(u,\nu)=\dfrac{1}{2} \qquad \mbox{e} \qquad \iint_{\bf{I}^2} \nu\mbox{d}C(u,\nu)=\dfrac{1}{2}, \] e, por conseguinte, \[ Q(C,M)=1-2\iint_{\bf{I}^2} |u-\nu|\mbox{d}C(u,\nu)\cdot \] Do mesmo modo, porque, \(W(u,\nu)=\dfrac{1}{2}\left[ u+\nu-|u+\nu-1|\right]\), temos \[ \begin{array}{rcl} Q(C,M) & = & \displaystyle 4\iint_{\bf{I}^2} M(u,\nu)\mbox{d}C(u,\nu)-1 \\[0.8em] & = & \displaystyle 2\iint_{\bf{I}^2} \Big[|u+\nu-1|-|u+\nu-1|\Big] \mbox{d}C(u,\nu)-1 \\[0.8em] & = & \displaystyle 2\iint_{\bf{I}^2} \big| u+\nu-1 \big| \mbox{d}C(u,\nu)-1, \end{array} \] do que resulta a conclusão.


De certa forma, o \(\rho= 3Q(C,\Pi)\) de Spearmen mede uma relação de concordância ou “distância” entre a distribuição de \(X\) e \(Y\), representada pela respetiva copula \(C\) e a independência, representada pela copula \(\Pi\). Por outro lado, o \(\gamma= Q(C,M) + Q(C,W)\) de Gini mede uma relação de concordância ou “distância” entre \(C\) e a dependência monótona, representada pelas copulas \(M\) e \(W\).

Note-se também que \(\gamma_C\) é equivalente à soma das medidas do terceiro e quarto “eixos de concordância” da Figura 4.1.

Usando a simetria de \(Q\) da primeira parte do Corolário 4.1, obtém-se a seguinte expressão para \(\gamma\), que mostra que \(\gamma\) depende da copula \(C\) apenas através das suas seções diagonal e diagonal secundária.


Corolário 4.3:

Sob as hipóteses do Teorema 4.9. \[ \tag{4.25} \gamma_C= 4\left( \int_0^1 C(u,1-u)\mbox{d}u-\int_0^1 \Big( u-C(u,u)\Big)\mbox{d}u \right)\cdot \]


Demonstração.

O resultado decorre diretamente de \[ Q(C,M)=4\iint_{{\bf I}^2} C(u,\nu)\mbox{d}M(u,\nu)-1=4\int_0^1 C(u,u)\mbox{d}u-1 \] e \[ Q(C,M)=4\iint_{{\bf I}^2} C(u,\nu)\mbox{d}M(u,\nu)-1=4\int_0^1 C(u,1-u)\mbox{d}u-1\cdot \]


Note-se que há uma interpretação geométrica dos integrais em (4.25), o segundo é a área entre os gráficos das seções diagonais \(\delta_M(u) = M(u,u) = u\) do limite superior de Fréchet-Hoeffding e \(\delta_C(u) = C(u,u)\) da copula \(C\); e o primeiro é a área entre os gráficos das seções diagonais secundárias \(C(u,1-u)\) de \(C\) e \(W(u,1- u) = 0\) do limite inferior de Fréchet-Hoeffding.

Concluímos esta seção com uma medida adicional de associação baseada na concordância. Suponhamos que, na expressão (4.3) para \(Q\), a probabilidade de concordância menos a probabilidade de discordância, usamos um vetor aleatório e um ponto fixo, em vez de dois vectores aleatórios. Ou seja, considere \[ P\big((X-x_0)(Y-y_0)>0\big)-P\big((X-x_0)(Y-y_0)<0 \big), \] para alguma escolha de um ponto \((x_0,y_0)\) em \({\bf R}^2\). Blomqvist (1950) propôs e estudou tal medida usando medianas populacionais para \(x_0\) e \(y_0\).

Esta medida, frequentemente chamada de coeficiente de correlação medial, será denotada por \(\beta\) e é dada por \[ \tag{4.26} \beta=\beta_{XY}=P\big((X-\widetilde{x})(Y-\widetilde{y})>0\big)-P\big((X-\widetilde{x})(Y-\widetilde{y})<0 \big), \] onde \(\widetilde{x}\) e \(\widetilde{y}\) são medianas de \(X\) e \(Y\), respectivamente.

Mas se \(X\) e \(Y\) forem contínuos com a função de distribuição conjunta \(H\) e marginais \(F\) e \(G\), respectivamente, e copula \(C\), então \(F(\widetilde{x}) = G(\widetilde{y}) = 1/2\) e temos \[ \begin{array}{rcl} \beta & = & 2P\big((X-\widetilde{x})(Y-\widetilde{y})>0\big)-1 \\[0.8em] & = & 2\Big( P\big(X<\widetilde{x},Y<\widetilde{y}\big)+P\big(X>\widetilde{x},Y>\widetilde{y}\big)\Big)-1\\[0.8em] & = & 2\Big(H(\widetilde{x},\widetilde{y})+\big(1-F(\widetilde{x})-G(\widetilde{y})+H(\widetilde{x},\widetilde{y})\big)\Big)-1 \\[0.8em] & = & 4 H(\widetilde{x},\widetilde{y})-1\cdot \end{array} \] Mas \(H(\widetilde{x},\widetilde{y})=C(1/2,1/2)\) e então \[ \tag{4.27} \beta=\beta_C=4C(1/2,1/2)-1\cdot \]

Embora o \(\beta\) de Blomqvist dependa da copula apenas por meio de seu valor no centro de \({\bf I}^2\), ele pode, no entanto, fornecer uma aproximação precisa do \(\rho\) de Spearman e do \(\tau\) de Kendall, como ilustra o exemplo a seguir.


Exemplo 4.14.

Seja \(C_\theta\), \(\theta\in [–1,1]\), um membro da família Ali-Mikhail-Haq (3.1.3) de copulas arquimedianas. No Exercício 117, obtivemos expressões, envolvendo logaritmos e a função dilogaritmo, para \(\rho\) e \(\tau\) para membros desta família. O \(\beta\) de Blomqvist é visto como \[ \beta=\beta_\theta=\dfrac{\theta}{4-\theta}\cdot \]

Note que \(\beta\in [-1/5,1/3]\). Se repararmetrizarmos as expressões no Exercício 117 para \(\rho_\theta\) e \(\tau_\theta\) substituindo \(\theta\) por \(4\beta/(1 + \beta)\) e expandirmos cada um dos resultados em uma série de Maclaurin, obteremos \[ \begin{array}{rcl} \rho & = & \dfrac{4}{3}\beta+\dfrac{44}{75}\beta^3+\dfrac{8}{25}\beta^4+\cdots \\[0.8em] \tau & = & \dfrac{8}{9}\beta+\dfrac{8}{15}\beta^3+\dfrac{16}{45}\beta^4+\cdots \end{array} \]

Portanto, \(4\beta/3\) e \(8\beta/9\) são aproximações razoáveis de segunda ordem para \(\rho\) e \(\tau\), respectivamente, e aproximações de ordem superior também são possíveis.


Assim como o \(\tau\) de Kendall e o \(\rho\) de Spearman, tanto o \(\gamma\) de Gini quanto o \(\beta\) de Blomqvist também são medidas de concordância de acordo com a Definição 4.1.


Teorema 4.10:

Se \(X\) e \(Y\) são variáveis aleatórias contínuas cuja copula é \(C\), então as versões populacionais do \(\gamma\) de Gini (4.24) e do \(\beta\) de Blomqvist (4.27) satisfazem as propriedades na Definição 4.1 e no Teorema 4.5 para uma medida de concordância.


Demonstração.

A prova é análoga à do Teorema 4.6.


No Teorema 2.3, vimos como os limites de Fréchet-Hoeffding — que são universais — podem ser estreitados quando informações adicionais, como o valor da copula em um único ponto em \((0,1)^2\), são conhecidas. O mesmo é frequentemente verdadeiro quando sabemos o valor de uma medida de associação.

Para qualquer \(t\in [–1,1]\), seja \({\bf T}_t\) o conjunto de copulas com um valor comum \(t\) do \(\tau\) de Kendall, ou seja, \[ \tag{4.28} {\bf T}_t=\left\{ C\in \mathcal{C} \, \Big| \, \tau(C)=t\right\}\cdot \]

Sejam \(\underline{{\bf T}}_t\) e \(\overline{{\bf T}}_t\), respectivamente, o ínfimo e o supremo pontuais de \({\bf T}_t\), ou seja, para cada \((u,\nu)\in {\bf I}^2\), \[ \tag{4.29a} \underline{{\bf T}}_t(u,\nu)=\inf \left\{ C(u,\nu) \, \Big| \, C\in {\bf T}_t\right\}\cdot \] e \[ \tag{4.29b} \overline{{\bf T}}_t(u,\nu)=\sup \left\{ C(u,\nu) \, \Big| \, C\in {\bf T}_t\right\}\cdot \]

Da mesma forma, sejam \({\bf P}_t\) e \({\bf B}_t\) os conjuntos de copulas com um valor comum \(t\) do \(\rho\) de Spearman e \(\beta\) de Blomqvist, respectivamente, ou seja, \[ \tag{4.30} {\bf P}_t=\left\{ C\in \mathcal{C} \, \Big| \, \rho(C)=t\right\} \qquad \mbox{e} \qquad {\bf B}_t=\left\{ C\in \mathcal{C} \, \Big| \, \beta(C)=t\right\} \] e defina \(\underline{{\bf P}}_t\), \(\overline{{\bf P}}_t\), \(\underline{{\bf B}}_t\) e \(\overline{{\bf B}}_t\) analogamente a (4.29a) e (4.29b). Esses limites podem ser avaliados explicitamente.


Teorema 4.11:

Sejam \(\underline{{\bf T}}_t\), \(\overline{{\bf T}}_t\), \(\underline{{\bf P}}_t\), \(\overline{{\bf P}}_t\), \(\underline{{\bf B}}_t\) e \(\overline{{\bf B}}_t\) denotando, respectivamente, o ínfimo e supremo pontuais dos conjuntos \({\bf T}_t\), \({\bf P}_t\) e \({\bf B}_t\) em (4.28) e (4.30). Então para qualquer \((u,\nu)\in{\bf I}^2\), \[ \begin{array}{rcl} \underline{{\bf T}}_t(u,\nu) & = & \max\left(W(u,\nu),\dfrac{1}{2}\Big((u+\nu)-\sqrt{(u-\nu)^2+1-t}\Big) \right), \\[0.8em] \overline{{\bf T}}_t(u,\nu) & = & \min\left(M(u,\nu),\dfrac{1}{2}\Big((u+\nu-1)-\sqrt{(u-\nu-1)^2+1+t}\Big) \right), \\[0.8em] \underline{{\bf P}}_t(u,\nu) & = & \max\left(W(u,\nu),\dfrac{u+\nu}{2}-p(u-\nu,1-t) \right), \\[0.8em] \overline{{\bf P}}_t(u,\nu) & = & \min\left(M(u,\nu),\dfrac{u+\nu-1}{2}+p(u+\nu-1,1-t) \right), \\[0.8em] \underline{{\bf B}}_t(u,\nu) & = & \max\left(W(u,\nu),\dfrac{t+1}{4}-\Big(\dfrac{1}{2}-u \Big)^+-\Big(\dfrac{1}{2}-\nu \Big)^+ \right), \\[0.8em] \overline{{\bf B}}_t(u,\nu) & = & \min\left(M(u,\nu),\dfrac{t+1}{4}+\Big(u-\dfrac{1}{2}\Big)^++\Big(\nu-\dfrac{1}{2}\Big)^+ \right), \\[0.8em] \end{array} \] onde \[ p(a,b) = \dfrac{1}{6}\left( \Big(9b+3\sqrt{9b^2-3a^6} \Big)^{1/3}+\Big(9b-3\sqrt{9b^2-3a^6} \Big)^{1/3} \right) \cdot \] Os limites acima são copulas e, portanto, se \(X\) e \(Y\) são variáveis aleatórias contínuas com função de distribuição conjunta \(H\) e funções de distribuição marginais \(F\) e \(G\), respectivamente, e tais que \(\tau_{X,Y} = t\), então \[ \underline{{\bf T}}_t\big(F(x),G(y)\big)\leq H(x,y)\leq \overline{{\bf T}}_t\big(F(x),G(y)\big) \] para todo \((x,y)\in{\bf R}^2\) e esses limites são funções de distribuição conjunta. Similarmente quando \(\rho_{X,Y} = t\) e \(\beta_{X,Y} = t\).


Demonstração.

Ver Nelsen et al. (2001); Nelsen and Úbeda Flores (2004).


Para mais detalhes, incluindo propriedades dos seis limites no Teorema 4.11 e uma comparação de sua eficácia relativa no estreitamento dos limites de Fréchet-Hoeffding, veja Nelsen et al. (2001); Nelsen and Úbeda Flores (2004).


4.3. Propriedades da dependência


Sem dúvida, a propriedade da dependência mais comumente encontrada é, na verdade, uma propriedade de “falta de dependência” — independência. Se \(X\) e \(Y\) são variáveis aleatórias contínuas com função de distribuição conjunta \(H\), então a independência de \(X\) e \(Y\) é uma propriedade da função de distribuição conjunta \(H\) — ou seja, que ela é fatorada no produto de suas marginais.

Assim, \(X\) e \(Y\) são independentes precisamente quando \(H\) pertence a um subconjunto particular do conjunto de todas as funções de distribuição conjunta, o subconjunto caracterizado pela copula \(\Pi\), veja o Teorema 1.7. Na Seção 1.5, observamos que uma variável aleatória é quase certamente uma função monótona da outra sempre que a função de distribuição conjunta for igual a um de seus limites de Fréchet-Hoeffding, ou seja, a copula é \(M\) ou \(W\). Portanto, uma “propriedade de dependência” para pares de variáveis aleatórias pode ser considerada um subconjunto do conjunto de todas as funções de distribuição conjunta.

Assim como a propriedade de independência corresponde ao subconjunto cujos membros têm a copula \(\Pi\) e similarmente para dependência funcional monótona e as copulas \(M\) e \(W\), muitas propriedades de dependência podem ser descritas identificando as copulas, ou propriedades simples das copulas, que correspondem às funções de distribuição no subconjunto. Nesta seção, examinaremos propriedades de copulas que “descrevem” outras formas de dependência — dependência que fica “entre” os extremos de independência e dependência funcional monótona.

Começamos com algumas propriedades de dependência “positivas” e “negativas” — propriedades de dependência positivas expressando a noção de que valores “grandes” ou “pequenos” das variáveis aleatórias tendem a ocorrer juntos, e propriedades de dependência negativas expressando a noção de que valores “grandes” de uma variável tendem a ocorrer com valores “pequenos” da outra. Veja Barlow and Proschan (1981); Drouet and Kotz (2001); Hutchinson and Lai (1990); Joe (1997); Tong (1980) e as referências neles contidas para uma discussão mais aprofundada de muitas das propriedades de dependência que apresentamos nesta seção.


4.3.1. Dependência de quadrante



Definição 4.2. (Lehmann 1966)

As variáveis aleatórias \(X\) e \(Y\) são ditas dependentes de quadrante positivo (\(\mbox{PQD}\)) se, para todos \((x,y)\in{\bf R}^2\), \[ \tag{4.31} P\big(X\leq x,Y\leq y \big)\geq P\big(X\leq x\big) P\big(Y\leq y \big) \] ou equivalentemente \[ \tag{4.32} P\big(X> x,Y> y \big)\geq P\big(X> x\big)P\big(Y> y \big)\cdot \]


Quando (4.31) ou (4.32) vale, escreveremos \(\mbox{PQD}(X,Y)\). A dependência de quadrante negativo é definida analogamente invertendo o sentido das desigualdades em (4.31) e (4.32), e escrevemos \(\mbox{NQD}(X,Y)\).

Intuitivamente, \(X\) e \(Y\) são \(\mbox{PQD}\) se a probabilidade de que sejam simultaneamente pequenos (ou simultaneamente grandes) for pelo menos tão grande quanto seria se fossem independentes.


Exemplo 4.15. (Barlow and Proschan 1981)

Embora em muitos estudos de confiabilidade, os componentes sejam assumidos como tendo tempos de vida independentes, pode ser mais realista assumir algum tipo de dependência entre os componentes.

Por exemplo, um sistema pode ter componentes que estão sujeitos ao mesmo conjunto de tensões ou choques, ou nos quais a falha de um componente resulta em uma carga aumentada nos componentes sobreviventes. Em tal sistema de dois componentes com tempos de vida \(X\) e \(Y\), podemos desejar usar um modelo no qual, independentemente das formas das distribuições marginais de \(X\) e \(Y\), pequenos valores de \(X\) tendem a ocorrer com pequenos valores de \(Y\), ou seja, um modelo para o qual \(X\) e \(Y\) são \(\mbox{PQD}\).


Se \(X\) e \(Y\) têm função de distribuição conjunta \(H\), com marginais contínuas \(F\) e \(G\), respectivamente, e copula \(C\), então (4.31) é equivalente a \[ \tag{4.33} H(x,y)\geq F(x)G(y)\qquad \forall (x,y)\in{\bf R}^2 \] e a \[ \tag{4.34} C(u,\nu)\geq u\, \nu \qquad \forall (x,y)\in{\bf I}^2\cdot \]

Na sequência, quando variáveis aleatórias contínuas \(X\) e \(Y\) são \(\mbox{PQD}\), também diremos que sua função de distribuição conjunta \(H\), ou sua copula \(C\), é \(\mbox{PQD}\).

Observe que, assim como a independência, a dependência de quadrante (positiva ou negativa) é uma propriedade da copula de variáveis aleatórias contínuas e, consequentemente, é invariante sob transformações estritamente crescentes das variáveis aleatórias.

Observe também que há outras interpretações de (4.34). Primeiro, se \(X\) e \(Y\) são \(\mbox{PQD}\), então o gráfico da copula de \(X\) e \(Y\) fica sobre ou acima do gráfico da copula de independência \(\Pi\). Em segundo lugar, (4.34) é o mesmo que \(C\succ\Pi\), ou seja, \(C\) é maior que \(\Pi\), lembre-se da Seção 1.8.

De fato, a ordem de concordância \(\succ\) é às vezes chamada de ordem “mias \(\mbox{PQD}\)”. Muitas das famílias de copulas de um parâmetro totalmente ordenadas que encontramos nos Capítulos 1 e 2 incluem \(\Pi\) e, portanto, têm subfamílias de copulas \(\mbox{PQD}\) e copulas \(\mbox{NQD}\). Por exemplo, se \(C_\theta\) for um membro da família Mardia (Exercício 4), da família FGM (2.15), da família Ali-Mikhail-Haq (2.32) ou da família Frank (3.1.5), então \(C_\theta\) é \(\mbox{PQD}\) para \(\theta\geq 0\) e \(\mbox{NQD}\) para \(\theta\leq 0\) porque cada família é positivamente ordenada e \(C_0 = \Pi\).

Algumas das consequências importantes para medidas de associação para variáveis aleatórias dependentes contínuas de quadrante positivo são resumidas no teorema a seguir.


Teorema 4.12:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\), marginais \(F\) e \(G\), respectivamente, e copula \(C\). Se \(X\) e \(Y\) são \(\mbox{PQD}\), então \[ 3\tau_{X,Y}\geq \rho_{X,Y}\geq 0, \quad \gamma_{X,Y}\geq 0 \quad \mbox{e} \quad \beta_{X,Y}\geq 0\cdot \]


Demonstração.

A primeira desigualdade decorre de \(Q(C,C)\geq Q(C,\Pi)\geq Q(\Pi,\Pi)\); as partes restantes do Corolário 4.3.


Embora \(\mbox{PQD}\) seja uma propriedade “global” — (4.33) deve ser válida em todos os pontos em \({\bf R}^2\) — podemos pensar na desigualdade “localmente”. Ou seja, em pontos \((x,y)\in{\bf R}^2\) onde \(H(x,y) – F(x)G(y)\geq 0\), \(X\) e \(Y\) são “localmente” \(\mbox{PQD}\); enquanto em pontos \((x,y)\in{\bf R}^2\) onde \(H(x,y) – F(x)G(y)\leq 0\), \(X\) e \(Y\) são “localmente” \(\mbox{NQD}\).

Equivalentemente, em pontos \((u,v)\in {\bf I}^2\) onde \(C(u,\nu) – u\, \nu\geq 0\), \(X\) e \(Y\) são localmente \(\mbox{PQD}\); enquanto em pontos \((u,\nu)\in{\bf I}^2\) onde \(C(u,\nu) – u\, \nu \leq 0\), \(X\) e \(Y\) são localmente \(\mbox{NQD}\). Mas lembre-se de (4.16) que uma forma do \(\rho\) de Spearman é \[ \rho_C=12\iint_{{\bf I}^2} \Big( C(u,\nu)-u\, \nu\Big)\mbox{d}u\mbox{d}\nu, \] e, portanto, \(\rho_C\) ou, para ser mais preciso, \(\rho_C/12\), pode ser interpretado como uma medida de dependência do quadrante “médio”, tanto positiva quanto negativa, para variáveis aleatórias cuja copula é \(C\).


4.3.2. Monotonicidade da cauda


A expressão (4.31) para dependência de quadrante positiva pode ser escrita como \[ P\big(Y\leq y \, | \, X\leq x \big)\geq P(Y\leq y) \] ou como \[ P\big(Y\leq y \, | \, X\leq x \big)\geq P\big(Y\leq y \, | \, X\leq \infty\big)\cdot \]

Uma condição mais forte seria exigir que para cada \(y\in{\bf R}\), a função de distribuição condicional \(P\big(Y\leq y\, | \, X\leq x\big)\) seja uma função não crescente de \(x\). Se \(X\) e \(Y\) representam tempos de vida de componentes em um contexto de confiabilidade, então isso diz que a probabilidade de \(Y\) ter um tempo de vida curto diminui, para ser preciso, não aumenta conforme o tempo de vida de \(X\) aumenta.

Esse comportamento das caudas esquerdas das distribuições de \(X\) e \(Y\), e um comportamento similar para as caudas direitas com base em (4.32) é capturado na seguinte definição (Esary and Proschan 1972).


Definição 4.3.

Sejam \(X\) e \(Y\) variáveis aleatórias.

  1. \(Y\) é cauda esquerda decrescente em \(X\), que denotamos \(\mbox{LTD}(Y|X)\), se \[ \tag{4.35} P\big(Y\leq y \, | \, X\leq x \big) \quad \mbox{é uma função não crescente de } x \mbox{ para todo } y\cdot \]

  2. \(X\) é cauda esquerda decrescente em \(Y\), que denotamos \(\mbox{LTD}(X|Y)\), se \[ \tag{4.36} P\big(X\leq x \, | \, Y\leq y \big) \quad \mbox{é uma função não crescente de } y \mbox{ para todo } x\cdot \]

  3. \(Y\) é a cauda direita aumentando em \(X\), que denotamos \(\mbox{RTI}(Y|X)\), se \[ \tag{4.37} P\big(Y > y \, | \, X> x \big) \quad \mbox{é uma função não decrescente de } x \mbox{ para todo } y\cdot \]

  4. \(Y\) é a cauda direita aumentando em \(X\), que denotamos \(\mbox{RTI}(X|Y)\), se \[ \tag{4.38} P\big(X > x \, | \, Y> y \big) \quad \mbox{é uma função não decrescente de } y \mbox{ para todo } x\cdot \]


Claro, se a distribuição conjunta de \(X\) e \(Y\) for \(H\), com marginais \(F\) e \(G\), respectivamente, então podemos escrever \(H(x,y)/F(x)\) quando \(F(x) > 0\) em vez de \(P\big(Y\leq y\, | \, X\leq x\big)\) em (4.35) e similarmente em (4.36); \(\overline{H}(x,y)/\overline{F}(x)\) em vez de \(P\big(Y > y \, | \, X > x\big)\) em (4.37) e similarmente em (4.38).

Os termos “cauda esquerda decrescente” e “cauda direita crescente” são de Esary and Proschan (1972) onde, como é frequentemente o caso, “decrescente” significa não crescente e “crescente” significa não decrescente.

Existem propriedades de dependência negativa semelhantes, conhecidas como cauda esquerda crescente e cauda direita decrescente, definidas analogamente pela troca das palavras “não crescente” e “não decrescente” na Definição 4.3.

Cada uma das quatro condições de monotonicidade da cauda implica dependência de quadrante positiva. Por exemplo, se \(\mbox{LTD}(Y|X)\), então \[ P\big( Y\leq y\, | \, X\leq x\big)\geq P\big(Y\leq y \, | \, X\leq \infty \big)=P(Y\leq y) \] e então \[ P\big( X\leq x, Y\leq y\big)=P(X\leq x) P\big(Y\leq y \, | \, X\leq x \big)\geq P(X\leq x)P(Y\leq y) \] de modo que \(\mbox{PQD}(X,Y)\). Da mesma forma, se \(\mbox{RTI}(Y|X)\), \[ P\big( Y> y\, | \, X> x\big)\geq P\big(Y> y \, | \, X>-\infty \big)=P(Y> y) \] e então \[ P\big( X> x, Y> y\big)=P(X> x) P\big(Y> y \, | \, X> x \big)\geq P(X> x)P(Y> y) \] e assim \(\mbox{PQD}(X,Y)\) pelo Exercício 5.22(a).


Teorema 4.13:

Sejam \(X\) e \(Y\) variáveis aleatórias. Se \(X\) e \(Y\) satisfazem quaisquer uma das quatro propriedades na Definição 4.3, então X e Y são positivamente quadrante dependentes.


Demonstração.

Exercício.


Entretanto, a dependência positiva do quadrante não implica nenhuma das quatro propriedades de monotonicidade da cauda — veja Exercício 5.30. O próximo teorema mostra que, quando as variáveis aleatórias são contínuas, a monotonicidade da cauda é uma propriedade da copula.


Teorema 4.14:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. \(\mbox{LTD}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), \(C(u,\nu)/u\) não é crescente em \(u\),

  2. \(\mbox{LTD}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), \(C(u,\nu)/\nu\) não é crescente em \(\nu\),

  3. \(\mbox{RTI}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), \(\big(1-u-\nu+C(u,\nu)\big)/(1-u)\) não é decrescente em \(u\), ou equivalentemente, se \(\big(\nu-C(u,\nu)\big)/(1-u)\) não é crescente em \(u\);

  4. \(\mbox{RTI}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), \(\big(1-u-\nu+C(u,\nu)\big)/(1-\nu)\) é não decrescente em \(\nu\), ou equivalentemente, se \(\big(u-C(u,\nu)\big)/(1-\nu)\) é não crescente em \(\nu\).


Demonstração.

A prova segue imediatamente da observação de que funções de distribuição univariadas são não decrescentes.


Verificar se uma dada copula satisfaz uma ou mais das condições do Teorema 4.14 pode ser frequentemente tedioso. Como consequência do Teorema 1.3, temos os seguintes critérios para monotonicidade de cauda em termos das derivadas parciais de \(C\).


Corolário 4.4:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. \(\mbox{LTD}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), \(\partial C(u,\nu)/\partial u\leq C(u,\nu)/u\) para quase todos os \(u\);

  2. \(\mbox{LTD}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), \(\partial C(u,\nu)/\partial \nu\leq C(u,\nu)/\nu\) para quase todos os \(\nu\);

  3. \(\mbox{RTI}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), \(\partial C(u,\nu)/\partial u\geq \big(\nu-C(u,\nu)\big)/(1-u)\) para quase todos os \(u\);

  4. \(\mbox{RTI}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), \(\partial C(u,\nu)/\partial\nu\geq \big(u-C(u,\nu)\big)/(1-\nu)\) para quase todos os \(\nu\).


Demonstração.

Exercício.


Na seção anterior, vimos que havia uma interpretação geométrica para a copula de variáveis aleatórias dependentes do quadrante positivo — o gráfico da copula deve estar sobre ou acima do gráfico de \(\Pi\).

Existem interpretações geométricas semelhantes do gráfico da copula quando as variáveis aleatórias satisfazem uma ou mais das propriedades de monotonicidade da cauda — interpretações que envolvem o formato de regiões determinadas pelas seções horizontais e verticais da copula.

Para ilustrar isso, primeiro introduzimos alguma nova notação. Para cada \(u_0\in{\bf I}\), seja \[ S_1(u_0)=\left\{ (u_0,u,\nu)\in{\bf I}^3 \, \Big| \, 0\leq \nu\leq 1, \, 0\leq z \leq C(u_0,\nu)\right\}, \] isto é, \(S_1(u_0)\) consiste nos pontos no cubo unitário \({\bf I}^3\) abaixo do gráfico da seção vertical em \(u = u_0\), ou seja, situados em um plano perpendicular ao eixo \(u\) no ou abaixo do gráfico \(z = C(u_0,\nu)\).

Similarmente, para cada \(\nu_0\in{\bf I}\), seja \[ S_2(\nu_0)=\left\{ (u,\nu_0,x)\in{\bf I}^3 \, \Big| \, 0\leq u\leq 1, \, 0\leq z \leq C(u,\nu_0)\right\}, \] isto é, \(S_2(\nu_0)\) consiste nos pontos no cubo unitário \({\bf I}^3\) abaixo do gráfico da seção horizontal em \(\nu = \nu_0\), ou seja, situados em um plano perpendicular ao eixo \(\nu\), no eixo ou abaixo do gráfico \(z = C(u,\nu_0)\). A região sombreada na Figura 4.4 representa \(S_2(\nu_0)\) para \(C = M\) e \(\nu_0 = 0.4\).

Figura 4.4: Um exemplo de \(S_2(\nu_0)\) para \(C = M\) e \(\nu_0 = 0.4\).

Além disso, dizemos que uma região plana \(S\) é semelhante a uma estrela em relação ao ponto \(P\) em \(S\) se para cada ponto \(Q\) em \(S\), todos os pontos no segmento de reta \(PQ\) estiverem em \(S\). Na Figura 4.4, a região sombreada \(S_2(0.4)\) é semelhante a uma estrela em relação a \(P_1 = (0,0.4,0)\) e \(P_2 = (1,0.4,0.4)\).

O próximo teorema expressa os critérios para monotonicidade da cauda em termos das formas das regiões \(S_1(u)\) e \(S_2(\nu)\) determinadas pelas seções verticais e horizontais da copula.


Teorema 4.15:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. \(\mbox{LTD}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), a região \(S_2(\nu)\) é estrelar com relação ao ponto \((0,\nu,0)\in S_2(\nu)\).

  2. \(\mbox{LTD}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), a região \(S_1(u)\) é estrelar com relação ao ponto \((u,0,0)\in S_1(u)\).

  3. \(\mbox{RTI}(Y|X)\) se, e somente se, para qualquer \(\nu\in {\bf I}\), a região \(S_2(\nu)\) é estrelar com relação ao ponto \((1,\nu,\nu)\in S_2(\nu)\).

  4. \(\mbox{RTI}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), a região \(S_1(u)\) é estrelar com relação ao ponto \((u,1,u)\in S_1(u)\).


Demonstração.

Provamos a parte 1, deixando a prova das partes restantes como um exercício. Assuma \(\mbox{LTD}(Y|X)\) e fixe \(\nu\in{\bf I}\). Para mostrar que \(S_2(\nu)\) é estrelado em relação ao ponto \((0,\nu,0)\), mostraremos que para \(0 < t < 1\), o segmento de reta que une \((0,\nu,0)\) a \((t,\nu,C(t,\nu))\) está dentro de \(S_2(\nu)\). Considere os pontos \(\lambda t\) e \(t\) para \(0 <\lambda < 1\). Como \(\lambda t < t\), \(C(\lambda t,\nu)/\lambda t\geq C(t,\nu)/t\); porque \(C(u,\nu)/u\) não é crescente em \(u\), ou equivalentemente, \(C(\lambda t,\nu)\geq \lambda C(t,\nu)\). Portanto, \[ C(\lambda t+(1-\lambda)0,\nu)\geq \lambda C(t,\nu)+(1-\lambda)C(0,\nu), \] de modo que cada ponto no segmento de reta que une \((0,\nu,0)\) a \((t,\nu,C(t,\nu))\) está dentro de \(S_2(\nu)\). Por outro lado, suponha que \(S_2(\nu)\) seja semelhante a uma estrela em relação a \((0,\nu,0)\). Seja \(0\leq u_1 < u_2\leq 1\). Como o segmento de reta que une \((0,\nu,0)\) a \((u_2,\nu,C(u_2,\nu))\) está dentro de \(S_2(\nu)\), temos \[ \begin{array}{rcl} C(u_1,\nu) & = & C\big((u_1/u_2)u_2+(1-u_1/u_2)0,\nu \big) \\[0.8em] & \geq & (u_1/u_2)C(u_2,\nu)+(1-u_1/u_2)C(0,\nu)=(u_1/u_2)C(u_2.\nu), \end{array} \] e assim \(C(u_1,\nu)/u_1\geq C(u_2,\nu)/u_2\). Portanto \(\mbox{LTD}(Y|X)\).


Uma consequência importante da monotonicidade da cauda é o seguinte teorema (Capéraà and Genest 1993), no qual os limites para \(\rho\) de Spearman e \(\tau\) de Kendall no Teorema 4.8 podem ser estreitados quando uma variável aleatória tem cauda esquerda decrescente e cauda direita crescente simultaneamente na outra.


Teorema 4.16:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas. Se \(\mbox{LTD}(Y|X)\) e \(\mbox{RTI}(Y|X)\), então \(\rho_{X,Y}\geq \tau_{X,Y}\geq 0\) e similarmente se \(\mbox{LTD}(X|Y)\) e \(\mbox{RTI}(X|Y)\).


Demonstração.

A prova prossegue ao longo de linhas semelhantes às das provas dos Teoremas 4.6 e 4.7 e pode ser encontrada em Capéraà and Genest (1993).


Como qualquer uma das quatro propriedades de monotonicidade de cauda implica dependência quadrante positiva, o Teorema 4.12 pode ser invocado para fortalecer a desigualdade no teorema anterior para \[ 3\tau_{X,Y}\geq \rho_{X,Y} \geq \tau_{X,Y}\geq 0\cdot \] No entanto, a dependência quadrante positiva sozinha é insuficiente para garantir \(\rho_{X,Y}\geq \tau_{X,Y}\), como mostra o exemplo a seguir.


Exemplo 4.16.

Sejam \(U\) e \(V\) variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é a copula diagonal construída a partir da diagonal \(\delta(t)=t^2\), isto é, \[ C(u,\nu)=\min\big\{u,\nu,(u^2+\nu^2)/2\big\}\cdot \] Veja oos Exemplos 2.5 e 2.17(c).

Porque \(u\geq u\, \nu\), \(\nu\geq u\,\nu\) e \((u^2+\nu^2)/2\geq u\, \nu\), \(U\) e \(V\) são positivamente quadrante dependentes. No entanto, é pode-se verificar que \[ P\big(U\leq 1/2 \, | \, V\leq 1/2 \big)=1/2 \qquad \mbox{e} \qquad P\big(U\leq 1/2 \, | \, V\leq \sqrt{3}/2 \big)=\sqrt{3}/3\approx 0.577 \] de modo que \(U\) não seja cauda esquerda decrescente em \(V\), e \[ P\big(U> 1/2 \, | \, V> 1-\sqrt{3}/2 \big)=\sqrt{3}/3\approx 0.577 \qquad \mbox{e} \qquad P\big(U> 1/2 \, | \, V> 1/2 \big)=1/2, \] de modo que \(U\) não é cauda direita aumentando em \(V\). Por simetria, \(V\) não é cauda esquerda diminuindo em \(U\), nem \(V\) não é cauda direita aumentando em \(U\).

Além disso, do Exercício 111, \[ \tau=4\int_0^1 t^2 \mbox{d}t-1=\dfrac{1}{3} \] e de (4.15c), \[ \rho=12\iint_{{\bf I}^2} C(u,\nu)\mbox{d}u\mbox{d}\nu -3=5-\dfrac{3\pi}{2}\approx 0.288, \] e então \(\rho<\tau\).



4.3.3. Monotonicidade estocástica


Na seção anterior, estudamos a monotonicidade de \[ P\big(Y > y\, | \, X > x\big) \] e expressões similares. Substituir \(P\big(Y > y\, | \, X > x\big)\) por \(P\big(Y > y\, | \, X =x\big)\) produz outras formas de dependência conhecidas coletivamente como “monotonicidade estocástica”:


Definição 4.4.

Sejam \(X\) e \(Y\) variáveis aleatórias.

  1. \(Y\) é estocasticamente crescente em \(X\), que denotamos \(\mbox{SI}(Y|X)\), se \[ \tag{4.39} P\big(Y > y\, | \, X =x\big) \mbox{ é uma função não decrescente de } x \mbox{ para todo } y\cdot \]

  2. \(X\) é estocasticamente crescente em \(Y\), que denotamos \(\mbox{SI}(X|Y)\), se \[ \tag{4.40} P\big( X > x \, | \, Y = y \big) \mbox{ é uma função não decrescente de } y \mbox{ para todo } x\cdot \]


Duas propriedades de dependência negativa, \(\mbox{SD}(Y|X)\), \(Y\) é estocasticamente decrescente em \(X\) e \(\mbox{SD}(X|Y)\), \(X\) é estocasticamente decrescente em \(Y\), são definidas analogamente pela substituição de “não decrescente” por “não crescente” em (4.39) e (4.40).


Exemplo 4.17. (Barlow and Proschan 1981)

Suponha que \(X\) e \(Y\) sejam variáveis aleatórias com a distribuição exponencial bivariada Marshall-Olkin com parâmetros \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\), conforme apresentado na Seção 2.1.1. A probabilidade de sobrevivência condicional é \[ P\big(Y>y \, | \, X=x \big)= \left\{ \begin{array}{cc} \dfrac{\lambda_1}{\lambda_1+\lambda_2}\exp\Big(-\lambda_{12}(y-x)-\lambda_2 y \Big), & x\leq y.\\[0.8em] \exp\Big(-\lambda_2 y \Big), & x>y\cdot \\\end{array}\right. \]

Como essa probabilidade de sobrevivência condicional é não decrescente em \(x\), então \(Y\) é estocasticamente crescente em \(X\), denotada por \(\mbox{SI}(Y|X)\).


O termo “aumento estocástico” é de Shaked (1977) e Barlow and Proschan (1981). No entanto, em Lehmann (1966) essa propriedade é chamada de dependência de regressão positiva, um termo usado por outros autores também com a notação \(\mbox{PRD}(Y|X)\) e \(\mbox{PRD}(X|Y)\) em vez de \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\).

Embora tenhamos obtido as duas propriedades \(\mbox{SI}\) das propriedades \(\mbox{RTI}\), elas também podem ser obtidas das propriedades \(\mbox{LTD}\), porque \[ P\big( Y\leq y \, | \, X = x\big) = 1-P\big(Y > y\, | \, X = x\big)\cdot \] Portanto \(\mbox{SI}(Y|X)\) se \(P\big(Y\leq y \, | \, X = x\big)\) for uma função não crescente de \(x\) para todo \(y\) e similarmente para \(\mbox{SI}(X|Y)\).

No próximo teorema, mostramos que quando as variáveis aleatórias são contínuas, a monotonicidade estocástica, assim como a monotonicidade da cauda e a dependência quadrante, são propriedades da copula.


Teorema 4.17:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. \(\mbox{SI}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\) e para quase todo \(u\), \(\partial C(u,\nu)/\partial u\) não é crescente em \(u\);

  2. \(\mbox{SI}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\) e para quase todo \(\nu\), \(\partial C(u,\nu)/\partial\nu\) não é crescente em \(\nu\).


Demonstração.

Como as funções de distribuição marginal \(F\) e \(G\), respectivamente, de \(X\) e \(Y\) são não decrescentes, \(P\big(Y\leq y \, | \, X = x\big)\) é uma função não crescente de \(x\) para todo \(y\) se, e somente se, \(P\big(V\leq \nu \, | \, U = u\big)\) é uma função não crescente de \(u\) para todo \(\nu\), onde \(U = F(X)\) e \(V = G(Y)\) são variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é a copula \(C\). Mas, como mostrado em (1.26), \[ P\big(V\leq \nu \, | \, U = u\big)=\partial C(u,\nu)/\partial u\cdot \]


A seguinte interpretação geométrica da monotonicidade estocástica segue agora (Roberts and Varberg 1973).


Corolário 4.5:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. \(\mbox{SI}(Y|X)\) se, e somente se, para qualquer \(\nu\in{\bf I}\), \(C(u,\nu)\) é uma função côncava de \(u\),

  2. \(\mbox{SI}(X|Y)\) se, e somente se, para qualquer \(u\in{\bf I}\), \(C(u,\nu)\) é uma função côncava de \(\nu\).


Demonstração.

Exercício.



Exemplo 4.18.

Seja Cq um membro da família Plackett (2.28). Então \[ \dfrac{\partial^2}{\partial u^2} C_\theta(u,\nu)=\dfrac{-2\theta(\theta-1)\nu(1-\nu)}{\Big(\big(1+(\theta-1)(u+\nu) \big)^2-4u\, \nu \theta(\theta-1) \Big)^{3/2}}, \] de modo que \(\partial^2 C_\theta(u,\nu)/\partial u^2\leq 0\) para \(\theta\geq 1\), portanto \(C_\theta(u,\nu)\) é uma função côncava de \(u\) para \(\theta\geq 1\). Segue-se que, se \(X\) e \(Y\) são variáveis aleatórias contínuas com copula \(C_\theta\), então \(\mbox{SI}(Y|X)\) e, por simetria, \(\mbox{SI}(X|Y)\) também, para \(\theta\geq 1\). Lembre-se de que para esta família, \(C_1 = \Pi\), \(C_\infty = M\).


As propriedades de monotonicidade estocástica implicam as propriedades de monotonicidade da cauda.


Teorema 4.18:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então

  1. se \(\mbox{SI}(Y|X)\), então \(\mbox{LTD}(Y|X)\) e \(\mbox{RTI}(Y|X)\),

  2. se \(\mbox{SI}(X|Y)\), então \(\mbox{LTD}(X|Y)\) e \(\mbox{RTI}(X|Y)\).


Demonstração.

Assumamos \(\mbox{SI}(Y|X)\), fixemos \(\nu\) e, novamente, seja \(S_2(\nu)\) ser o conjunto de pontos no cubo unitário \({\bf I}^3\) situado em um plano perpendicular ao eixo \(\nu\) ou abaixo do gráfico da copula. Como \(C(u,\nu)\) é uma função côncava de \(u\), segue-se que \(S_2(\nu)\) é semelhante a uma estrela em relação a \((0,\nu,0)\) e \((1,\nu,\nu)\) em \(S_2(\nu)\), portanto \(\mbox{LTD}(Y|X)\) e \(\mbox{RTI}(Y|X)\). A segunda parte da prova é análoga.


O inverso do Teorema 4.18 é falso — as propriedades de monotonicidade da cauda não implicam monotonicidade estocástica — veja o Exercício 139.

Outro par de propriedades de dependência, também derivadas da monotonicidade da cauda, são as propriedades de “monotonicidade do conjunto de cantos”, introduzidas em Harris (1970). Como \(\mbox{LTD}(Y|X)\) é definido em termos de \(P\big(Y\leq y \, | \, X\leq x\big)\) e \(\mbox{LTD}(X|Y)\) em termos de \(P\big(X\leq x \, | \, Y\leq y\big)\), somos levados a considerar o comportamento da probabilidade conjunta \[ P\big(X\leq x ,Y\leq y \, | \, X\leq x',Y\leq y'\big) \] e similarmente para as propriedades da cauda direita):


Definição 4.5

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas.

  1. \(X\) e \(Y\) são conjuntos de canto esquerdo decrescentes, que denotamos \(\mbox{LCSD}(X,Y)\), se \[ \tag{4.41} P\big( X\leq x,Y\leq y \, | \, X\leq x',Y\leq y'\big) \mbox{ é não decrescente em } x' \mbox{ e em } y'; \] para todos os \(x\) e \(y\);

  2. \(X\) e \(Y\) são conjuntos de canto direito crescentes, que denotamos \(\mbox{RCSI}(X,Y)\), se \[ \tag{4.42} P\big( X > x,Y > y \, | \, X > x',Y > y'\big) \mbox{ é não decrescente em } x' \mbox{ e em } y'; \] para todos os \(x\) e \(y\).


Duas propriedades de dependência negativa, \(\mbox{LCSI}(X,Y)\). \(X\) e \(Y\) são conjuntos de canto esquerdo crescentes e \(\mbox{RCSD}(X|Y)\), \(X\) e \(Y\) são conjuntos de canto direito decrescentes são definidas analogamente pela troca das palavras “não decrescente” e “não crescente” em (4.41) e (4.42).

Como consequência imediata, temos que as propriedades de monotonicidade do conjunto de canto implicam as propriedades de monotonicidade da cauda correspondentes.


Teorema 4.19:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas.

  1. Se \(\mbox{LCSD}(X,Y)\), então \(\mbox{LTD}(Y|X)\) e \(\mbox{LTD}(X|Y)\);

  2. Se \(\mbox{RCSI}(X,Y)\), então \(\mbox{RTI}(Y|X)\) e \(\mbox{RTI}(X|Y)\).


Demonstração.

Para a parte 1, defina \(x = \infty\) e \(y' = \infty\) para obter \(\mbox{LTD}(Y|X)\), e defina \(y = \infty\) e \(x' = \infty\) para obter \(\mbox{LTD}(XΩY)\). A parte 2 é semelhante.


O inverso do Teorema 4.19 é falso — as propriedades de monotonicidade da cauda não implicam monotonicidade do conjunto de cantos — veja Exercício 140.

O teorema a seguir fornece critérios simples para \(\mbox{LCSD}(X,Y)\) e \(\mbox{RCSI}(X,Y)\) em termos de desigualdades para a distribuição conjunta e função de sobrevivência de \(X\) e \(Y\).


Teorema 4.20:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\):

  1. \(\mbox{LCSD}(X,Y)\) se, e somente se, \[ \tag{4.43} H(x,y)H(x',y')\geq H(x,y')H(x',y) \] para todos os \(x\), \(y\), \(x'\), \(y'\) em \({\bf R}\) tais que \(x\leq x'\) e \(y\leq y'\).

  2. RCSI(X,Y) se e somente se \[ \tag{4.44} \overline{H}(x,y)\overline{H}(x',y')\geq \overline{H}(x,y')\overline{H}(x',y) \] para todos os \(x\), \(y\), \(x'\), \(y'\) em \({\bf R}\) tais que \(x\leq x'\) e \(y\leq y'\).


Demonstração.

Provamos a parte 1, a prova da parte 2 é semelhante. Primeiro, assuma \(\mbox{LCSD}(X,Y)\). Assim, \[ P\big( X\leq x ,Y\leq y \, | \, X\leq x',Y\leq y'\big) \] é não crescente em \(x'\) e em \(y'\) para todos os \(x\) e \(y\), de modo que para \(y = \infty\), \(P\big(X\leq x \, | \, X\leq x',Y\leq y'\big)\) é não crescente em \(x'\) e em \(y'\) para todos os \(x\). Portanto, se \(x\leq x'\), então \[ \dfrac{P\big(X\leq x, Y\leq y'\big)}{P\big(X\leq x', Y\leq y' \big)} \] é mão crescente em \(y'\). Assim, para \(y\leq y'\), \[ \tag{4.45} \dfrac{P\big(X\leq x, Y\leq y\big)}{P\big(X\leq x', Y\leq y \big)}\geq \dfrac{P\big(X\leq x, Y\leq y'\big)}{P\big(X\leq x', Y\leq y' \big)}, \] que é equivalente a (4.43).

Por outro lado, suponha que (4.45) seja válido. Segue-se que \(P\big(X\leq x\, | \, X\leq x',Y\leq y'\big)\) é não crescente em \(x'\) e em \(y'\) para todo \(x\) e que \(P\big(Y\leq y \, | \, X\leq x',Y\leq y'\big)\) é não crescente em \(x'\) e em \(y'\) para todo \(y\). Se \(x\leq x'\) e \(y\leq y'\), então \(P\big(X\leq x,Y\leq y\, | \, X\leq x',Y\leq y'\big)\) é trivialmente não crescente em \(x'\) e em \(y'\). Se \(x > x'\) e \(y> y'\), então \[ P\big(X\leq x,Y\leq y\, | \, X\leq x',Y\leq y'\big) = P\big(Y\leq y\, | \, X\leq x',Y\leq y'\big), \] que acabamos de mostrar que é não crescente em \(x'\) e em \(y'\). O caso \(x\leq x'\) e \(y > y'\) é semelhante, e quando \(x > x'\) e \(y > y'\), \(P\big(X\leq x ,Y\leq y \, | \, X\leq x',Y\leq y'\big) = 1\). Portanto \(\mbox{LCSD}(X,Y)\), como afirmado.


Os critérios no Teorema 4.19 para \(\mbox{LCSD}(X,Y)\) e \(\mbox{RCSI}(X,Y)\) podem ser sucintamente expressos usando a noção de funções “totalmente positivas”. Uma função \(f\) de \(\overline{{\bf R}}^2\) para \({\bf R}\) é totalmente positiva de ordem dois (Karlin 1968), abreviada \(\mbox{TP}_2\), se \(f(x,y)\geq 0\) em \(\overline{{\bf R}}^2\) e sempre que \(x\leq x'\) e \(y\leq y'\), \[ \tag{4.46} \left| \begin{array}{cc} f(x,y) & f(x,y') \\[0.8em] f(x',y) & f(x',y')\end{array}\right|\geq 0\cdot \] O termo “ordem dois” refere-se ao tamanho da matriz.

Quando a desigualdade em (4.46) é invertida, dizemos que \(f\) é regular reversa de ordem dois, ou regra reversa de ordem dois, abreviado \(\mbox{RR}_2\). Em termos de positividade total, temos o seguinte resultado.


Corolário 4.6:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\). Então \(\mbox{LCSD}(X,Y)\) se, e somente se, \(H\) for \(\mbox{TP}_2\) e \(\mbox{RCSI}(X,Y)\) se, e somente se, \(H\) for \(\mbox{TP}_2\).


Demonstração.

Exercício.



Exemplo 4.19.

Sejam \(X\) e \(Y\) variáveis aleatórias com a distribuição exponencial bivariada Marshall-Olkin apresentada na Seção 2.1.1, com parâmetros \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\). Se \(\overline{H}\) denota a função de sobrevivência conjunta de \(X\) e \(Y\), então \[ \overline{H}(x,y)=\exp\left(-\lambda_1 x-\lambda_2 y-\lambda_{12}\max\{x,y\} \right)\cdot \]

Então \[ \overline{H}(x,y)\overline{H}(x',y')=\exp\left(-\lambda_1 (x+x')-\lambda_2 (y+y')-\lambda_{12}\big(\max\{x,y\}+\max\{x',y'\}\big) \right) \] e \[ \overline{H}(x',y)\overline{H}(x,y')=\exp\left(-\lambda_1 (x+x')-\lambda_2 (y+y')-\lambda_{12}\big(\max\{x',y\}+\max\{x,y'\}\big) \right)\cdot \] Então, se \(0\leq x\leq x'\) e \(0\leq y\leq y'\), então \[ \max\{x,y\}+\max\{x',y'\}\leq \max\{x',y\}+\max\{x,y'\}\cdot \] Segue-se que \(\overline{H}(x,y)\overline{H}(x',y')\geq \overline{H}(x',y)\overline{H}(x,y')\) e portanto \(\mbox{RCSI}(X,Y)\).


Em termos de copula e copula de sobrevivência de \(X\) e \(Y\), temos o seguinte resultado.


Corolário 4.7:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então \(\mbox{LCSD}(X,Y)\) se, e somente se, \(C\) for \(\mbox{TP}_2\) e \(\mbox{RCSI}(X,Y)\) se, e somente se, \(\widehat{C}\) for \(\mbox{TP}_2\).


Demonstração.

Exercício.


Os teoremas 4.14, 4.18 e 4.19 produzem as implicações ilustradas na Figura 4.5 entre as várias propriedades de dependência apresentadas até agora. Os exercícios 137, 139 e 140 mostram que nenhuma das implicações são equivalências.

Figura 4.5: Implicações entre as várias propriedades de dependência.

A propriedade de dependência final que discutimos nesta seção é a dependência da razão de verossimilhança (Lehmann 1966). Ela difere daquelas consideradas acima porque é definida em termos da função de densidade conjunta em vez de funções de distribuição condicional.


Definição 4.6

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de densidade conjunta \(h(x,y)\). Então \(X\) e \(Y\) são positivamente dependentes da razão de verossimilhança, denotada como \(\mbox{PLR}(X,Y)\), se \(h\) satisfaz \[ \tag{4.47} h(x,y)h(x',y')\geq h(x,y')h(x',y), \] para todos os \(x\), \(y\), \(x'\), \(y'\) em \(\overline{{\bf R}}\) tais que \(x\leq x'\) e \(y\leq y'\), isto é, \(h\) é \(\mbox{TP}_2\).


Alguns autores usam a notação \(\mbox{TP}_2(X,Y)\) em vez de \(\mbox{PLR}(X,Y)\). Essa propriedade deriva seu nome do fato de que a desigualdade em (4.47) é equivalente ao requisito de que a densidade condicional de \(Y\) dado \(x\) tenha uma razão de verossimilhança monótona.

A dependência da razão de verossimilhança negativa é definida analogamente, invertendo o sentido da desigualdade em (4.47) ou seja, \(h\) é \(\mbox{RR}_2\). Das propriedades de dependência discutidas até agora, a dependência da razão de verossimilhança positiva é a mais forte, implicando todas as propriedades na Figura 4.5. Para provar essa afirmação, precisamos apenas provar o Teorema 4.21.


Teorema 4.21:

Sejam \(X\) e \(Y\) variáveis aleatórias com uma função de distribuição absolutamente contínua. Se \(\mbox{PLR}(X,Y)\), então \(\mbox{SI}(Y|X)\), \(\mbox{SI}(X|Y)\), \(\mbox{LCSD}(X,Y)\) e \(\mbox{RCSI}(X,Y)\).


Demonstração.

(Barlow and Proschan 1981). Seja \(h\) a função de densidade conjunta, \(f\) e \(g\) denotando as densidades marginais respectivas de \(X\) e \(Y\), e assuma \(\mbox{PLR}(X,Y)\). Então se \(x\leq x'\) e \(t\leq t'\), \[ h(x,t)h(x',t')\geq h(x,t')h(x',t), \] de modo que se dividirmos ambos os lados da desigualdade por \(f(x)f(x')\) e integrarmos com relação a \(t\) de \(–\infty\) até \(y\) e com relação a \(t'\) de \(y\) até \(\infty\), onde \(y\) é arbitrário, temos \[ P\big(Y\leq y \, | \, X = x\big)P\big(Y > y\, | \, X = x'\big)\geq P\big(Y\leq y \, | \, X = x'\big) P\big(Y > y \, | \, X = x'\big)\cdot \] Adicionando \(P\big(Y > y \, | \, X = x'\big)P\big(Y > y \, | \, X = x\big)\) a ambos os lados, a desigualdade simplifica para \(P\big(Y > y \, | \, X = x'\big)\geq P\big(Y > y \, | \, X = x\big)\), ou seja, \(P\big(Y > y \, | \, X = x\big)\) é não decrescente em \(x\) para todo \(y\), de modo que \(\mbox{SI}(Y|X)\). A prova de que \(\mbox{PLR}(X,Y)\) implica \(\mbox{SI}(X|Y)\) é semelhante.

Para mostrar que \(\mbox{PLR}(X,Y)\) implica \(\mbox{LCSD}(X,Y)\), primeiro notamos que se \(x\leq x'\) e \(y\leq y'\), então \[ P\big(X\leq x,Y\leq y \, | \, X\leq x',Y\leq y'\big) \] é trivialmente não crescente em \(x'\) e em \(y'\) e se \(x > x'\) e \(y > y'\), então \[ P\big(X\leq x,Y\leq y \, | \, X\leq x',Y\leq y'\big) = 1\cdot \] Assumamos que \(x > x'\) e \(y\leq y'\), no caso em que \[ P\big(X\leq x,Y\leq y \, | \, X\leq x',Y\leq y'\big) = P\big(Y\leq y \, | \, X\leq x',Y\leq y'\big)\cdot \] Como isso é claramente não crescente em \(y'\), precisamos apenas mostrar que \[ P\big(Y\leq y \, | \, X\leq x',Y\leq y'\big)=P\big(X\leq x',Y\leq y\big)/P(X\leq x',Y\leq y'\big) \] é não crescente em \(x'\), ou seja, que para \(x'\leq x''\), \[ \tag{4.48} \dfrac{P\big(X\leq x',Y\leq y\big)}{P\big(X\leq x',Y\leq y'\big)}\geq \dfrac{P\big(X\leq x'',Y\leq y\big)}{P\big(X\leq x'',Y\leq y'\big)}\cdot \]

Suponha \(\mbox{PLR}(X,Y)\), de modo que se \(s\leq s'\) e \(t\leq t'\), \[ h(s,t)h(s',t')\geq h(s,t')h(s',t)\cdot \] Integrando ambos os lados dessa desigualdade com relação a \(s\) de \(–\infty\) até \(x'\), com relação a \(s'\) de \(x'\) até \(x''\), com relação a \(t\) de \(–\infty\) até \(y\) e com relação a \(t'\) de \(y\) até \(y''\) produz \[ P\big(X\leq x',Y\leq y\big)P\big(x'\leq X\leq x'',y<Y\leq y'\big)\geq \\[0.8em] \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad P\big(X\leq x',y<Y\leq y'\big)P\big(x'\leq X\leq x'',Y\leq y\big)\cdot \] Se adicionarmos \(P\big(X\leq x',Y\leq y\big)P\big(x'\leq X\leq x'',Y\leq y\big)\) a ambos os lados, a desigualdade simplifica para \[ P\big(X\leq x',Y\leq y\big)P\big(X\leq x'',Y\leq y'\big)\geq \\[0.8em] \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad P\big(X\leq x',Y\leq y'\big)P\big(X\leq x'',Y\leq y\big), \] que é equivalente a (4.48). O caso \(x\leq x'\) e \(y > y'\) é similar, o que completa a prova de que \(\mbox{PLR}(X,Y)\) implica \(\mbox{LCSD}(X,Y)\). A prova de que \(\mbox{PLR}(X,Y)\) implica \(\mbox{RCSI}(X,Y)\) é análoga.


Embora a dependência positiva da razão de verossimilhança seja uma propriedade “global”, pode-se vê-la “localmente”, como fizemos com a dependência quadrante positiva, veja o parágrafo seguinte ao Teorema 4.12. Ou seja, para qualquer \(x\), \(y\), \(x'\), \(y'\) em \({\bf R}\) tal que \(x\leq x'\) e \(y\leq y'\), avaliamos a densidade \(h\) nos quatro pontos \((x,y)\), \((x,y')\), \((x',y)\) e \((x',y')\) e quando \[ h(x,y)h(x',y')-h(x,y')h(x',y)\geq 0, \] \((X,Y)\) é “localmente positivamente dependente da razão de verossimilhança” ou \(h\) é “localmente” \(\mbox{TP}_2\).

Quando a desigualdade é invertida, \((X,Y)\) é “localmente negativamente dependente da razão de verossimilhança” ou \(h\) é “localmente” \(\mbox{RR}_2\). No próximo teorema, relacionamos a dependência da razão de verossimilhança local ao \(\tau\) de Kendall:


Teorema 4.22:

Sejam \(X\) e \(Y\) variáveis aleatórias com função de densidade conjunta \(h\) e seja \[ T=\int_{-\infty}^\infty \int_{-\infty}^\infty \int_{-\infty}^{y'} \int_{-\infty}^{x'} \Big( h(x,y)h(x',y')-h(x,y')h(x',y)\Big)\mbox{d}x \mbox{d}y\mbox{d}x' \mbox{d}y'\cdot \] Então o \(\tau\) de Kendall para \(X\) e \(Y\) é dado por \(\tau_{X,Y} = 2T\).


Demonstração.

Sejam \(C\), \(F\), \(G\), \(f\) e \(g\) a copula, as funções de distribuição marginal e as densidades marginais de \(X\) e \(Y\), respectivamente, e defina \(u=F(x)\), \(u'=F(x')\), \(\nu=G(y)\) e \(\nu'=G(y')\).

Também seja \[ c(u,\nu)=\partial^2 C(u,\nu)/\partial u\partial\nu \qquad \mbox{e} \qquad h(x,y)=c\big( F(x),G(y))f(x)g(y)\cdot \] Então \[ \tag{4.49} T=\int_{-\infty}^\infty \int_{-\infty}^\infty \int_{-\infty}^{\nu'} \int_{-\infty}^{u'} \Big( c(u,\nu)c(u',\nu')-c(u,\nu')c(u',\nu)\Big)\mbox{d}\nu \mbox{d}\nu\mbox{d}u' \mbox{d}\nu'\cdot \] A integral dupla interna é prontamente avaliada para produzir \[ \tag{4.50} \begin{array}{rcl} T & = & \displaystyle \int_0^1 \int_0^1 \left(C(u',\nu')\dfrac{\partial^2}{\partial u' \partial\nu'}C(u',\nu')-\dfrac{\partial}{\partial u'}C(u',\nu')\dfrac{\partial}{\partial \nu'}C(u',\nu') \right)\mbox{d}u'\mbox{d}\nu'\\[0.8em] & = & \displaystyle \iint_{{\bf I}^2} C(u,\nu)\mbox{d}C(u,\nu)-\iint_{{\bf I}^2} \dfrac{\partial}{\partial u} C(u,\nu)\dfrac{\partial}{\partial \nu} C(u,\nu)\mbox{d}u\mbox{d}\nu\cdot \end{array} \] Mas de (4.7) a primeira integral é \((\tau_{X,Y}+1)/4\) e de (4.9) a segunda integral é \((1-\tau_{X,Y})/4\) e a conclusão agora segue.


Lembre-se de que na Seção 4.3.1 observamos que o \(\rho\) de Spearman pode ser interpretado como uma medida de dependência de quadrante “média”, e da discussão acima vemos que o \(\tau\) de Kendall pode ser interpretado como uma medida de dependência de razão de verossimilhança “média”.

Das propriedades de dependência discutidas neste capítulo, a dependência de quadrante é a mais fraca, enquanto a dependência de razão de verossimilhança é a mais forte. Assim, as duas medidas de associação mais comumente usadas estão relacionadas a duas propriedades de dependência bastante diferentes, um fato que pode explicar parcialmente as diferenças entre os valores de \(\rho\) e \(\tau\) que observamos em vários dos exemplos e exercícios em seções anteriores deste capítulo.

A noção de dependência de razão de verossimilhança positiva pode ser estendida a variáveis aleatórias cuja função de distribuição conjunta não é absolutamente contínua. Para fazer isso, precisamos de alguma nova notação: sejam \(J\) e \(K\) denotarem intervalos em \(\overline{{\bf R}}\). Então escreveremos \(H(J,K)\) para \(P\big(X\in J,Y\in K\big)\). Também escrevemos \(J < K\) sempre que \(s\in J\) e \(t\in K\) implicam \(s < t\).


Definição 4.7 (Block, Savits, and Shaked 1982; Kimeldorf and Sampson 1987)

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\). Então \(X\) e \(Y\) são positivamente dependentes da razão de verossimilhança se \(H\) satisfaz \[ \tag{4.51} H(J_2,K_2)H(J_1,K_1)\geq H(J_1,K_2)H(J_2,K_1), \] para todos os intervalos \(J_1\), \(J_2\), \(K_1\) e \(K_2\) em \(\overline{{\bf R}}\) tais que \(J_1<J_2\) e \(K_1<K_2\).


Pode-se verificar que quando \(H\) tem uma densidade \(h\), então as Definições 4.6 e 4.7 são equivalentes. Além disso, (4.51) pode ser expressa em termos da copula \(C\) de \(X\) e \(Y\), porque \[ H(J,K) = C\big(F(J),G(K)\big), \] onde para quaisquer dois intervalos \([u_1,u_2]\) e \([\nu_1,\nu_2]\), \[ C\big([u_1,u_2],[\nu_1,\nu_2]\big) = C(u_2,\nu_2) – C(u_1,\nu_2) – C(u_2,\nu_1) + C(u_1,\nu_1)\cdot \]

Usando a Definição 4.7, é possível provar uma extensão do Teorema 4.22 sem a suposição de que \(X\) e \(Y\) têm uma densidade conjunta — elas precisam apenas ser contínuos. Para fazer isso, usamos a copula \(C\) de \(X\) e \(Y\) para construir uma medida de dependência de razão de verossimilhança positiva “local” análoga àquela que aparece no integrando de (4.49).

Começamos particionando o intervalo [0,1] no eixo \(u\) da maneira usual: escolha pontos \(\{u_p\}_{p=0}^n\) tais que \[ 0=u_1<u_1<\cdots<u_n=1 \] e seja \(J_p=[u_{p-1},u_p]\). Da mesma forma, particione [0,1] no eixo \(\nu\) em intervalos \(K_q=[\nu_{q-1},\nu_q]\) para \(1\leq q\leq m\) gerando assim uma partição \(P\) de \({\bf I}^2\) em \(mn\) retângulos \(J_p\times K_q\).

Seja \(||P||\) a norma de \(P\). Para cada uma das \(\binom{n}{2}\binom{m}{2}\) escolhas de intervalos \(J_r\), \(J_p\), \(K_s\) e \(K_q\), com \(1\leq r < p\leq n\) e \(1\leq s< q\leq m\), a quantidade \[ C\big(J_p,K_q\big)C\big(J_r,K_s\big)-C\big(J_p,K_s\big)C\big(J_r,K_q\big) \] mede a dependência da razão de verossimilhança positiva (ou negativa) “local”.

Análoga a (4.49), agora definimos \[ T=\lim_{||P||\to 0} \displaystyle \sum_{p=2}^n \sum_{q=2}^m \sum_{r=1}^{p-1} \sum_{s=1}^{q-1} \left(C\big(J_p,K_q\big)C\big(J_r,K_s\big)-C\big(J_p,K_s\big)C\big(J_r,K_q\big) \right)\cdot \]

A dupla soma interna em \(T\) produz \[ \tag{4.52} T=\lim_{||P||\to 0} \displaystyle \sum_{p=2}^n \sum_{q=2}^m \left(C\big(u_p,\nu_q\big)C\big(u_{p-1},\nu_{q-1}\big)-C\big(u_{p-1},\nu_q\big)C\big(u_p,\nu_{q-1}\big) \right)\cdot \]

Pode-se mostrar Nelsen (1992) que \(T\) existe e \(\tau_{X,Y} = 2T\), como no Teorema 4.22.


4.4. Outras medidas de associação


Na Seção 4.2, discutimos quatro medidas de associação baseadas na noção de concordância. Existem muitas outras medidas não paramétricas de associação que dependem da copula das variáveis aleatórias. Na Seção 4.4.1, discutimos uma classe de medidas, conhecidas como medidas de dependência, que são baseadas em uma “distância” entre a copula de um par de variáveis aleatórias \(X\) e \(Y\) e a copula de “independência” \(\Pi\).

Na Seção 4.4.2, consideramos medidas derivadas do \(\gamma\) de Gini, medidas que são baseadas em “distâncias” entre a copula de \(X\) e \(Y\) e as copulas \(M\) e \(W\) dos limites de Fréchet.


4.4.1. Medidas de dependência


Na Definição 4.1, apresentamos uma lista de sete propriedades para uma classe de medidas de associação — aquelas conhecidas como “medidas de concordância”.

No Teorema 4.6 e no Corolário 4.3, vimos que o \(\tau\) de Kendall, o \(\rho\) de Spearman, o \(\gamma\) de Gini e o \(\beta\) de Blomqvist são medidas de concordância. Mas um defeito dessas medidas é que para a quarta propriedade na Definição 4.1, que afirma que se as variáveis aleatórias são independentes, então a medida é igual a zero, o inverso não se sustenta. Abundam os exemplos em que uma medida de concordância é zero, mas as variáveis aleatórias são dependentes.

Nesta seção, consideraremos medidas de associação que são comumente chamadas de “medidas de dependência” (Rényi 1959; Schweizer and Wolff 1981; Jogdeo 1982; Lancaster 1982). Lembre-se de que as medidas de concordância medem como valores “grandes” de uma variável tendem a ser associados a valores “grandes” da outra (e “pequenos” a “pequenos”) e, consequentemente, atingem seus valores extremos quando a copula das variáveis aleatórias é \(M\) (onde a medida é +1) ou \(W\) (onde a medida é –1). Por outro lado, nas palavras de Lancaster (1982), “uma medida de dependência indica de alguma forma definida o quão intimamente \(X\) e \(Y\) estão relacionados, com extremos em independência mútua e dependência (monótona).”

Aqui está então um conjunto mínimo de propriedades desejáveis para uma medida não paramétrica de dependência; é adaptado de conjuntos de propriedades discutidos em Rényi (1959); Schweizer and Wolff (1981); Jogdeo (1982) e Lancaster (1982).


Definição 4.8

Uma medida numérica \(\delta\) de associação entre duas variáveis aleatórias contínuas \(X\) e \(Y\) cuja copula é \(C\) é uma medida de dependência se ela satisfaz as seguintes propriedades, escrevemos \(\delta_{X,Y}\) ou \(\delta_C\) se for conveniente:

  1. \(\delta\) é definida para cada par de variáveis aleatórias contínuas \(X\) e \(Y\);

  2. \(\delta_{X,Y} = \delta_{Y,X}\);

  3. \(0\leq \delta_{X,Y}\leq 1\);

  4. \(\delta_{X,Y} = 0\) se, e somente se, \(X\) e \(Y\) forem independentes;

  5. \(\delta_{X,Y} = 1\) se, e somente se. cada um de \(X\) e \(Y\) for quase certamente uma função estritamente monótona da outra;

  6. se \(\alpha\) e \(\beta\) são quase certamente funções estritamente monótonas em \(\mbox{Img}(X)\) e \(\mbox{Img}(Y)\); respectivamente, então ${(X),(Y)} = {X,Y};

  7. se \(\{(X_n,Y_n)\}\) for uma sequência de variáveis aleatórias contínuas com cpulas \(C_n\) e se \(\{C_n\}\) converge pontualmente para \(C\), então \(\lim_{n\to\infty} \delta_{C_n} = \delta_C\).


Nosso primeiro exemplo de tal medida está intimamente relacionado ao \(\rho\) de Spearman. Lembre-se de (4.16) que para variáveis aleatórias contínuas \(X\) e \(Y\) com copula \(C\), o \(\rho\) de Spearman pode ser escrito como \[ \rho_{X,Y}=\rho_C=12\iint_{{\bf I}^2} \Big(C(u,\nu)-u\, \nu \Big)\mbox{d}u\mbox{d}\nu\cdot \]

Conforme observado anteriormente, \(\rho_C\) é proporcional ao sinal do volume entre os gráficos da copula \(C\) e a copula do produto \(\Pi\). Se na integral acima, substituirmos a diferença \(\Big(C(u,\nu)-u\, \nu \Big)\) entre \(C\) e \(P\) pela diferença absoluta \(\big|C(u,\nu)-u\, \nu\big|\), então temos uma medida baseada na distância \(L_1\) entre os gráficos de \(C\) e \(\Pi\).

Esta medida (Schweizer and Wolff 1981; Wolff 1977), que é conhecida como \(\sigma\) de Schweizer e Wolff, é dada por \[ \tag{4.53} \sigma_{X,Y}=\sigma_C=12\iint_{{\bf I}^2} \big|C(u,\nu)-u\, \nu \big|\mbox{d}u\mbox{d}\nu\cdot \]


Teorema 4.23:

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Então a quantidade \(\sigma_C\) definida em (4.53) é uma medida de dependência, ou seja, ela satisfaz as sete propriedades da Definição 4.8.


Demonstração.

(Schweizer and Wolff 1981). Pode-se ver, a partir de sua definição, que \(\sigma\) satisfaz as duas primeiras propriedades. A terceira propriedade também é possível ser estabelecida para \(\sigma\), mostrando primeiro que para qualquer copula \(C\), \[ \tag{4.54} \iint_{{\bf I}^2} \big|C(u,\nu)-u\, \nu \big|\mbox{d}u\mbox{d}\nu\leq \dfrac{1}{12}\cdot \] A quarta propriedade decorre do Teorema 1.7 e a quinta dos Teoremas 1.10 e 1.11 e da observação de que a igualdade se mantém em (4.54) se, e somente se, \(C\) for \(M\) ou \(W\). Se tanto \(\alpha\) quanto \(\beta\) forem quase certamente estritamente crescentes, \(\sigma\) satisfaz a sexta propriedade como consequência do Teorema 1.8. Se \(\alpha\) for quase certamente estritamente crescente e \(\beta\) quase certamente estritamente decrescente, \(\sigma\) satisfaz a sexta propriedade como consequência do Teorema 1.9 e da observação de que \[ C_{\alpha(X),\beta(Y)}(u,\nu)-\Pi(u,\nu) = \Pi(1–u,\nu)–C_{X,Y}(1–u,\nu)\cdot \]

Os casos restantes, para a sexta propriedade, são semelhantes. Para a sétima propriedade, notamos que a condição de Lipschitz (1.8) implica que qualquer família de copulas é equicontínua, portanto a convergência de \(\{C_n\}\) para \(C\) é uniforme.


Claro, é imediato que se \(X\) e \(Y\) são \(\mbox{PQD}\), então \(\sigma_{X,Y} = \rho_{X,Y}\) e que se \(X\) e \(Y\) são \(\mbox{NQD}\), então \(\sigma_{X,Y} = -\rho_{X,Y}\). Portanto, para muitas das famílias totalmente ordenadas de copulas apresentadas em capítulos anteriores; por exemplo, Plackett, Farlie-Gumbel-Morgenstern e muitas famílias de copulas arquimedianas, \(\sigma_{X,Y} = |\rho_{X,Y}|\).

Mas para variáveis aleatórias \(X\) e \(Y\) que não são nem \(\mbox{PQD}\) nem \(\mbox{NQD}\), ou seja, variáveis aleatórias cujas copulas não são maiores nem menores que \(\Pi\), \(\sigma\) é frequentemente uma medida melhor que \(\rho\), como os exemplos a seguir em Wolff (1977) e Schweizer and Wolff (1981)] ilustram.


Exemplo 4.20.

Sejam \(X\) e \(Y\) variáveis aleatórias com a distribuição uniforme circular apresentada na Seção 2.1.2. Como \(X\) e \(Y\) são simetricamente conjuntos, as medidas de concordância \(\tau\), \(\rho\), \(\beta\) e \(\gamma\) são todas 0; veja Exercício 5.20.

Mas claramente \(X\) e \(Y\) não são independentes e, portanto, uma medida de dependência como \(\sigma\) será positiva.

A copula \(C\) de \(X\) e \(Y\) é dada por (2.5), da qual pode-se ver que \[ \begin{array}{rcl} C(u,\nu) & \geq & u\, \nu \; \mbox{ para } \; (u,v)\in [0,1/2]^2\cap [1/2,1]^2, \\[0.8em] C(u,\nu) & \leq & u\, \nu \; \mbox{ em outro lugar em } {\bf I}^2 \cdot \end{array} \] Avaliar a integral em (4.53) produz \(\sigma_{X,Y}=1/4\).



Exemplo 4.21.

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula \(C_\theta\), \(\theta\in [0,1]\) é um membro da família de copulas introduzida no Exemplo 2.3. Lembre-se de que a massa de probabilidade de \(C_\theta\) é distribuída em dois segmentos de reta, um unindo \((0,0)\) a \((\theta,1)\) e o outro unindo \((\theta,1)\) a \((1,0)\), conforme ilustrado na Figura 2.2(a).

No Exercício 5.6, vemos que \(\tau_\theta =\rho_\theta=2\theta - 1\) de modo que quando \(\theta = 1/2\), \(\tau_{1/2} = \rho_{1/2} = 0\). No entanto, \(X\) e \(Y\) não são independentes — na verdade, \(Y\) é uma função de \(X\).

Para cada \(\theta\in [0,1]\), \(C_\theta(u,\nu)\geq u\, \nu\) para \(u\in [0,\theta]\) e \(C_\theta(u,\nu)\leq u\, \nu\) para \(u\in [\theta,1]\) e segue de (4.53) que \[ \sigma_\theta=1-2\theta(1-\theta)=\dfrac{1}{2}\big( 1+(2\theta-1)^2\big)=\dfrac{1}{2}\big(1+\rho_\theta^2\big)\cdot \] Observe que \(\sigma_0=\sigma_1=1\) e \(\sigma_{1/2}=1/2\).


Como Schweizer and Wolff (1981) observam, “…qualquer medida adequadamente normalizada de distância entre as superfícies \(z = C(u,\nu)\) e \(z = u\, \nu\), ou seja, qualquer distância \(L_p\), deve produzir uma medida simétrica não paramétrica de dependência.”

Para qualquer \(p\), \(1\leq p < \infty\), a distância \(L_p\) entre \(C\) e \(\Pi\) é dada por \[ \tag{4.55} \left(\kappa_p \iint_{{\bf I}^2} \big|C(u,\nu)-u\, \nu \big|^p\mbox{d}u\mbox{d}\nu \right)^{1/p}, \] onde \(\kappa_p\) é uma constante escolhida de modo que a quantidade em (4.55) seja 1 quando \(C = M\) ou \(W\), de modo que as propriedades 3 e 5 na Definição 4.8 sejam satisfeitas.

As mesmas técnicas usadas na demonstração do Teorema 4.23 podem ser usadas para mostrar que para cada \(p\), \(1 < p < \infty\), a quantidade em (4.5) é uma medida de dependência. Por exemplo, quando \(p = 2\), temos \[ \tag{4.56} \Phi_{X,Y}=\Phi_C=\left(90 \iint_{{\bf I}^2} \big|C(u,\nu)-u\, \nu \big|^2\mbox{d}u\mbox{d}\nu \right)^{1/2}\cdot \]

O quadrado desta medida de dependência, ou seja, \(\Phi_{X,Y}^2\), é chamado de “índice de dependência” (Hoeffding 1940), enquanto \(\Phi_{X,Y}\), mas sem a constante de normalização 90, foi discutido em Blum, Kiefer, and Rosenblatt (1961). Quando \(p = \infty\), a distância \(L_\infty\) entre \(C\) e \(\Pi\) é \[ \tag{4.57} \Lambda_{X,Y}=\Lambda_C=4\sup_{u,\, \nu\in{\bf I}} \big|C(u,\nu)-u\, \nu \big|\cdot \]

Pode ser demonstrado que esta quantidade satisfaz todas as propriedades na Definição 4.8, exceto a quinta. Veja Exercício 5.40.


Exemplo 4.22.

Sejam \(X\), \(Y\) e \(C_\theta\), \(\theta\in [0,1]\), como no Exemplo 4.21. Cálculos análogos àqueles naquele exemplo para \(\sigma_\theta\) produzem \[ \Phi_\theta=\sqrt{1-3\theta(1-\theta)}=\dfrac{1}{2}\big(1+3\theta(2\theta-1)^2 \big)^{1/2}=\dfrac{1}{2}\big(1+3\rho_\theta^2 \big)^{1/2}\cdot \] Note que \(\Phi_0 = \Phi_1 = 1\) e \(\Phi_{1/2}=1/2\).

Para avaliar \(\Lambda_\theta\) para esta família, primeiro notamos que para \(u\in [0,\theta]\), \(C_\theta(u,\nu)\geq u\, \nu\) e que \(C_\theta(u,\nu) – u\, \nu\) atinge seu máximo na linha \(\nu = u/\theta\). Cálculos elementares então produzem um valor máximo de \(\theta\) no ponto \((\theta/2,1/2)\).

Para \(u\in [\theta,1]\), \(C_\theta(u,\nu)\leq u\, \nu\) e \(u\, \nu-C_\theta(u,\nu)\) tem um valor máximo \(1-\theta\) no ponto \(\big((1+\theta)/2,1/2\big)\). Portanto \[ \Lambda_\theta=\max\{\theta,1-\theta\}=\dfrac{1}{2}\big(1+|2\theta-1|\big)=\dfrac{1}{2}\big(1+|\rho_\theta| \big)\cdot \]

Assim como \(\sigma_\theta\) e \(\Phi_\theta\), \(\Lambda_0=\Lambda_1= 1\) e \(\Lambda_{1/2}=1/2\).



4.4.2. Medidas baseadas no coeficiente de Gini


Como consequência da expressão \(\big|C(u,\nu)-u\, \nu \big|\) em (4.54), (4.56) e (4.57), medidas de dependência como \(\sigma_C\), \(\Phi_C\) e \(\Lambda_C\) medem “distâncias” da independência, ou seja, distâncias entre \(C\) e \(\Pi\). Alternativamente, poderíamos olhar para uma “distância” da dependência monótona completa, ou seja, distâncias entre \(C\) e \(M\) ou \(W\), ou ambos.

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\), marginais \(F\) e \(G\) e copula \(C\). Na Seção 4.2.4, vimos em (4.23) que a medida de concordância entre \(X\) e \(Y\) conhecida como \(\gamma\) de Gini pode ser expressa como \[ \gamma_C=2\iint_{{\bf I}^2} \big(|u+\nu-1|-|u-\nu|\big)\mbox{d}C(u,\nu)\cdot \]

Na obtenção deste resultado, notamos que se definirmos \(U = F(X)\) e \(V = G(Y)\), então \(U\) e \(V\) são variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é \(C\), e \[ \tag{4.58} \gamma_C=2\mbox{E}\big(|U+V-1|-|U-V|\big)\cdot \]

Há uma interpretação natural de (4.48) em termos de distâncias esperadas entre \((U,V)\) e as duas diagonais de \({\bf I}^2\). Lembre-se de que para \(p\geq 1\), a distância \(L_p\) entre os pontos \((a,b)\) e \((c,d)\) em \({\bf R}^2\) é \[ \Big( |a-c|^p+|b-d|^p\Big)^{1/p}\cdot \]

A diagonal principal de \({\bf I}\) é \(\{(t,t) \, | \, t\in {\bf I}\}\), ou seja, o suporte de \(M\); enquanto a diagonal secundária é \(\{(t,1-t) \, | \, t\in{\bf I}\}\), o suporte de \(W\). Então se \((u,\nu)\) representa um ponto em \({\bf I}^2\), então \(|u-v|\) é a distância \(L_1\) entre \((u,\nu)\) e o pé \(\big((u+\nu)/2,(u+\nu)/2\big)\) da perpendicular de \((u,\nu)\) à diagonal principal de \({\bf I}^2\) e \(|u+\nu-1|\) é a distância \(L_1\) entre \((u,\nu)\) e o pé \(\big((u-\nu+1)/2,(\nu-u+1)/2\big)\) da perpendicular de \((u,\nu)\) à diagonal secundária de \({\bf I}^2\).

Assim \(\gamma_C\) em (4.58) é o dobro da diferença das distâncias \(L_1\) esperadas de \((U,V)\) da dependência positiva “perfeita” e negativa “perfeita”.

No Exercício 5.16, vemos que o \(\rho\) de Spearman pode ser escrito como \[ \rho_C=3\iint_{{\bf I}^2} \big((u+\nu-1)^2-(u-\nu)^2 \big)\mbox{d}C(u,\nu), \] do qual se segue que, para \(U = F(X)\) e \(V = G(Y)\), então \[ \tag{4.59} \rho_C=3\mbox{E}\Big( (U+V-1)^2+(U-V)^2\Big)\cdot \]

Assim, \(\rho_C\) é proporcional à diferença das distâncias \(L_2\) esperadas ao quadrado de \((U,V)\), da dependência positiva “perfeita” e negativa “perfeita” (Long and Krzysztofowicz 1996). Outras distâncias \(L_p\) produzem outras medidas de associação (Conti 1993).

Outra forma para o \(\gamma\) de Gini é dada por (4.25): \[ \tag{4.60} \gamma_C=4\left(\int_0^1 C(u,1-u)\mbox{d}u-\int_0^1 \big(u-C(u,u)\big)\mbox{d}u \right)\cdot \]

A segunda integral acima é a distância \(L_1\) entre a seção diagonal \(\delta_M(u) = M(u,u) = u\) da copula do limite superior de Fréchet e a seção diagonal \(\delta_C(u) = C(u,u)\) de \(C\), enquanto a primeira integral é a distância \(L_1\) entre a seção diagonal secundária \(W(u,1–u) = 0\) da copula do limite inferior de Fréchet e a seção diagonal secundária de \(C\).

Empregar outras distâncias \(L_p\) entre as seções diagonais de \(C\) e \(M\) e as seções diagonais secundárias de \(C\) e \(W\) produz outras medidas. Por exemplo, usar distâncias \(L_\infty\) produz a versão populacional do coeficiente de correlação de classificação \(R_g\) em Gideon and Hollister (1987): \[ R_g=2\sup_{0<u<1} \Big(C(u,1-u) \Big) - 2\sup_{0<u<1} \Big(1-C(u,u)\Big)\cdot \]


4.5. Dependência de cauda


Muitos dos conceitos de dependência introduzidos na Seção 4.3 são projetados para descrever como valores grandes (ou pequenos) de uma variável aleatória aparecem com valores grandes (ou pequenos) da outra. Outro conceito é a dependência de cauda, que mede a dependência entre as variáveis no quadrante superior direito e no quadrante inferior esquerdo de \({\bf I}^2\).


Definição 4.9

Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com funções de distribuição \(F\) e \(G\), respectivamente. O parâmetro de dependência da cauda superior \(\lambda_U\) é o limite (se existir) da probabilidade condicional de que \(Y\) seja maior que o 100º percentil de \(G\), dado que \(X\) seja maior que o 100º percentil de \(F\) quando \(t\) se aproxima de 1, ou seja, \[ \tag{4.61} \lambda_U=\lim_{t\to 1^-} P\left(Y>G^{(-1)}(t) \, \Big| \, X>F^{(-1)}(t)\right)\cdot \]


Da mesma forma, o parâmetro de dependência da cauda inferior \(\lambda_L\) é o limite (se existir) da probabilidade condicional de que \(Y\) seja menor ou igual ao 100º percentil de \(G\), dado que \(X\) seja menor ou igual ao 100º percentil de \(F\) quando \(t\) se aproxima de 0, ou seja, \[ \tag{4.62} \lambda_L=\lim_{t\to 0^+} P\left(Y\leq G^{(-1)}(t) \, \Big| \, X\leq F^{(-1)}(t)\right)\cdot \]

Esses parâmetros são não paramétricos e dependem apenas da copula de \(X\) e \(Y\), como demonstra o teorema a seguir.


Teorema 4.24:

Sejam \(X\), \(Y\), \(F\), \(G\), \(\lambda_U\) e \(\lambda_L\) como na Definição 4.9 e seja \(C\) a copula de \(X\) e \(Y\), com seção diagonal \(\delta_C\). Se os limites em (4.61) e (4.62) existirem, então \[ \tag{4.63} \lambda_U=2-\lim_{t\to 1^-} \dfrac{1-C(t,t)}{1-t}=2-\delta_C'(1^-) \] e \[ \tag{4.64} \lambda_L=2-\lim_{t\to 0^+} \dfrac{C(t,t)}{t}=\delta_C'(0^+)\cdot \]


Demonstração.

Estabelecemos (4.63), a prova de (4.64) é semelhante. \[ \begin{array}{rcl} \lambda_U & = & \displaystyle \lim_{t\to 1^-} P\left(Y>G^{(-1)}(t) \, \Big| \, X>F^{(-1)}(t)\right)\\[0.8em] & = & \displaystyle \lim_{t\to 1^-} P\left(G(Y)> t \, \Big| \, F(X)> t\right)\\[0.8em] & = & \displaystyle \lim_{t\to 1^-}\dfrac{\overline{C}(t,t)}{1-t} = \lim_{t\to 1^-} \dfrac{1-2t+C(t,t)}{1-t}\\[0.8em] & = & \displaystyle 2-\lim_{t\to 1^-}\dfrac{1-C(t,t)}{1-t}=2-\delta_C'(1^-)\cdot \end{array} \]


Se \(\lambda_U\) estiver em (0,1], dizemos que \(C\) tem dependência de cauda superior; se \(\lambda_U = 0\), dizemos que \(C\) não tem dependência de cauda superior e similarmente para \(\lambda_L\).


Exemplo 4.23.

Os parâmetros de dependência de cauda \(\lambda_U\) e \(\lambda_L\) são facilmente avaliados para algumas das famílias de copulas encontradas anteriormente: \[ \begin{array}{lcc}\hline \mbox{Família} & \lambda_L & \lambda_U \\[0.8em]\hline \mbox{Fréchet} \quad (\mbox{Exercício 2.4}) & \alpha & \alpha \\[0.8em] \mbox{Cuadras-Augé} \quad (\mbox{Exercício 2.5}) & 0 & \theta \\[0.8em] \mbox{Marshall-Olkin} \quad (2.3) & 0 & \min\{\alpha,\beta\} \\[0.8em] \mbox{Raftery} \quad (\mbox{Exercício 3.6}) & 2\theta/(\theta+1) & 0 \\[0.8em] \mbox{Plackett} \quad (2.28) & 0 & 0 \\\hline \end{array} \]


Para uma copula arquimediana, os parâmetros de dependência da cauda podem ser expressos em termos de limites envolvendo o gerador e seu inverso.


Corolário 4.8:

Seja \(C\) uma copula arquimediana com gerador \(\varphi\in\Omega\). Então \[ \lambda_U=2-\lim_{t\to 1⁻} \dfrac{1-\varphi^{(-1)}\big(2\varphi(t)\big)}{1-t}=2-\lim_{x\to 0^+} \dfrac{1-\varphi^{(-1)}(2x)}{1-\varphi^{(-1)}(x)} \] e \[ \lambda_L=\lim_{t\to 0⁺} \dfrac{\varphi^{(-1)}\big(2\varphi(t)\big)}{t}=\lim_{x\to 0^+} \dfrac{\varphi^{(-1)}(2x)}{\varphi^{(-1)}(x)}\cdot \]


Demonstração.

Ver Nelsen, Quesada Molina, and Rodríguez Lallena (1997).



Exemplo 4.24.

Usando o Teorema 2.24 e o Corolário 4.8, os parâmetros de dependência da cauda \(\lambda_U\) e \(\lambda_L\) podem ser avaliados para todas as famílias de copulas arquimedianas na Tabela 3.1, para os valores de \(\theta\) na coluna “\(\theta\in\)”): \[ \begin{array}{lcc}\hline \mbox{Família } (3.1.\#) & \lambda_L & \lambda_U \\[0.8em]\hline 3, 5, 7-11, 13, 17, 22 & 0 & 0 \\[0.8em] 2, 4, 6, 15, 21 & 0 & 2-2^{1/\theta}\\[0.8em] 18 & 0 & 1 \\[0.8em] 1 \; (\theta\geq 0) & 2^{-1/\theta} & 0 \\[0.8em] 12 & 2^{-1/\theta} & 2-2^{1/\theta} \\[0.8em] 16 & 1/2 & 0 \\[0.8em] 14 & 1/2 & 2-2^{1/\theta}\\[0.8em] 19, 20 & 1 & 0 \\\hline \end{array} \]

Os valores dos parâmetros podem ser diferentes para um caso limite. Por exemplo, a copula denotada \(\Pi/(\Sigma-\Pi)\) tem \(\lambda_L = 1/2\) embora seja um caso limite nas famílias (3.1.3), (3.1.8) e (3.1.19); e \(M\) tem \(\lambda_U = 1\) embora seja um caso limite nas famílias (3.1.1), (3.1.5), (3.1.13), etc.


A dependência da cauda pode ser observada em vários dos gráficos de dispersão das simulações de copula arquimediana nas Figuras 3.2 a 3.9. Ela aparece como um “pico” pronunciado nos pontos de dados no canto superior direito ou inferior esquerdo do gráfico.

Quando uma família de dois parâmetros de copulas arquimedianas é uma família de potência interna ou externa associada a um gerador \(\varphi\in\Omega\), os parâmetros de dependência da cauda são determinados pelos parâmetros da copula gerada por \(\varphi\).


Teorema 4.25:

Seja \(\varphi\in\Omega\) gerar a copula \(C\) com parâmetros de dependência de cauda superior e inferior \(\lambda_U\) e \(\lambda_L\) e sejam \(C_{\alpha,1}\) e \(C_{1,\beta}\) denotarem as copulas geradas por \[ \varphi_{\alpha,1}(t) = \varphi(t^\alpha) \qquad \mbox{e} \qquad \varphi_{1,\beta}(t) = \big(\varphi(t)\big)^\beta, \] respectivamente. Então os parâmetros de dependência de cauda superior e inferior de \(C_{\alpha,1}\) são \(\lambda_U\) e \(\lambda_L^{1/\alpha}\), respectivamente, e os parâmetros de dependência de cauda superior e inferior de \(C_{1,\beta}\) são \(2-\big(2-\lambda_U\big)^{1/\beta}\) e \(\lambda_L^{1/\beta}\), respectivamente.


Demonstração.

Ver Nelsen, Quesada Molina, and Rodríguez Lallena (1997).



Exemplo 4.25.

No Exemplo 3.22, construímos uma família de dois parâmetros \(C_{\alpha,\beta}\) em (3.22) a partir do gerador \(\varphi(t) = (1/t)-1\), que gera a copula denotada como \(\Pi/(\Sigma-\Pi)\) com \(\lambda_U = 0\) e \(\lambda_L=1/2\). Portanto, o parâmetro de dependência da cauda superior \(\lambda_{U,\alpha,\beta}\) para \(C_{\alpha,\beta}\) é \(\lambda_{U,\alpha,\beta} = 2-2^{1/\beta}\) e o parâmetro de dependência da cauda inferior \(\lambda_{L,\alpha,\beta}\) para \(C_{\alpha,\beta}\) é \(\lambda_{L,\alpha,\beta} = 2^{-1/(\alpha\beta)}\).

Este par de equações é invertível, então para encontrar um membro da família (3.22) com um parâmetro de dependência da cauda superior predeterminado \(\lambda_U^*\) e um parâmetro de dependência da cauda inferior predeterminado \(\lambda_L^*\), defina \(\alpha=-\ln(2-\lambda_U^*)/\ln(\lambda_L^*)\) e \(\beta=\ln(2)/\ln(2-\lambda_U^*)\).



4.6. Regressão Mediana


Além das medidas de associação e propriedades de dependência, a regressão é um método para descrever a dependência de uma variável aleatória em relação a outra.

Para variáveis aleatórias \(X\) e \(Y\), a curva de regressão \(y = \mbox{E}(Y|x)\) especifica um valor “típico” (a média) de \(Y\) para cada valor de \(X\) e a curva de regressão \(x = \mbox{E}(X|y)\) especifica um valor “típico” de \(X\) para cada valor de \(Y\). Em geral, no entanto, \(\mbox{E}(Y|x)\) e \(\mbox{E}(X|y)\) são paramétricos e, portanto, não têm expressões simples em termos de funções de distribuição e copulas.

Uma alternativa à média para especificar valores “típicos” de \(Y\) para cada valor de \(X\) é a mediana, o que leva à noção de regressão mediana Mardia (1970); Conway (1986).


Definição 4.10

Sejam \(X\) e \(Y\) variáveis aleatórias. Para \(x\) no intervalo de variação de \(X\), seja \(y = \widetilde{y}(x)\) denotando uma solução para a equação \(P\big(Y\leq y \, | \, X=x\big)=1/2\). Então o gráfico de \(y = \widetilde{y}(x)\) é a curva de regressão mediana de \(Y\) em \(X\).


Claro, a curva de regressão mediana \(x = \widetilde{x}(y)\) de \(X\) em \(Y\) é definida analogamente em termos de \(P\big(X\leq x \, | \, Y=y\big)\), então no restante desta seção apresentamos resultados apenas para a regressão mediana de \(Y\) em \(X\).

Agora suponha que \(X\) e \(Y\) sejam contínuos, com função de distribuição conjunta \(H\), funções de distribuição marginal \(F\) e \(G\), respectivamente e copula \(C\). Então \(U = F(X)\) e \(V = G(Y)\) são variáveis aleatórias uniformes (0,1) com função de distribuição conjunta \(C\). Como consequência de (1.26), temos \[ \tag{4.64} P\big(Y\leq y \, | \, X=x\big)=P\big(V\leq G(y) \, | \, U=F(x)\big)=\left. \dfrac{\partial C(u,\nu)}{\partial u} \right|_{u=F(x)\\\nu=G(y)}, \] que produz o seguinte algoritmo para encontrar curvas de regressão mediana para variáveis aleatórias contínuas. Para encontrar a curva de regressão mediana \(y =\widetilde{y}(x)\) de \(Y\) em \(X\):

  1. Definir \(\partial C(u,\nu)/\partial u=1/2\);

  2. Resolva a curva de regressão \(\nu = \widetilde{\nu}(u)\) (de \(V\) em \(U\));

  3. Substitua \(u\) por \(F(x)\) e \(\nu\) por \(G(y)\).


Exemplo 4.26.

Sejam \(U\) e \(V\) variáveis aleatórias uniformes cuja função de distribuição conjunta \(C_\theta\) é um membro da família Plackett (2.28) para \(\theta\in [0,\infty]\). Assim \[ \dfrac{\partial C(u,\nu)}{\partial u}=\dfrac{\theta\nu+(1-\theta)C(u,\nu)}{1+(\theta-1)\big(u+\nu-2C(u,\nu) \big)}, \] de modo que definindo \(\partial C(u,\nu)/\partial u = 1/2\) e simplificando, produz \[ (\theta+1)\nu=1+(\theta-1)u\cdot \]

Assim, a curva de regressão mediana de \(V\) em \(U\) é a linha em \({\bf I}^2\), conectando os pontos \(\big(0,1/(\theta+1)\big)\) e \(\big(1,\theta/(\theta+1)\big)\). Observe os casos especiais: quando \(\theta = 0\), \(C_0 = W\) e a linha de regressão mediana é \(\nu = 1-u\), o suporte de \(W\); quando \(\theta = \infty\), \(C_\infty = M\) e a linha de regressão mediana é \(\nu = u\), o suporte de \(M\); e quando \(\theta = 1\), \(C_1 = \Pi\) e a linha de regressão mediana é \(\nu = 1/2\).

A inclinação da regressão mediana é \((\theta-1)/(\theta+1)\). Lembre-se da Seção 2.3.1, veja também Exercício 5.17, que para a família Plackett, \(\theta\) representa uma “razão de chances”. Quando \(\theta\) é uma razão de chances em uma tabela \(2\times 2\), a expressão \((\theta-1)/(\theta+1)\) é conhecida como “Q de Yule” ou “coeficiente de associação de Yule”.

Se \(X\) e \(Y\) são variáveis aleatórias contínuas com funções de distribuição \(F\) e \(G\), respectivamente, e copula \(C_\theta\), então a curva de regressão mediana é linear em \(F(x)\) e \(G(y)\): \[ (\theta+1)G(y)=1+(\theta-1)F(x)\cdot \]



Exemplo 4.27.

Seja \(C\) uma copula arquimediana com gerador \(\varphi\in\Omega\). De \(\varphi(C) = \varphi(u)+\varphi(\nu)\) obtemos \[ \varphi'(C)\partial C(u,\nu)/\partial u = \varphi'(u)\cdot \] Definindo \(\partial C(u,\nu)/\partial u = 1/2\) e resolvendo para \(\nu\) produz a curva de regressão mediana de \(V\) em \(U\) para copulas arquimedianas: \[ \nu=\varphi^{(-1)}\Big(\varphi\big(\varphi'^{(-1)}(2\varphi'(u)) \big)-\varphi(u)\Big)\cdot \]

Por exemplo, para a família Clayton (3.1.1) com \(\varphi(t)=(t^{-\theta}-1)/\theta\), \(\theta>-1\), \(\theta\neq 0\), temos \[ \nu=u\Big(\big(2^{\theta/(\theta+1)} \big)+u^\theta \Big)^{1/\theta}\cdot \]



4.7. Copulas empíricas


Nesta seção, mostraremos que há expressões para as versões amostrais de várias medidas de associação análogas àquelas cujas versões populacionais foram discutidas nas Seções 4.2 e 4.3.

As versões populacionais podem ser expressas em termos de copulas — as versões amostrais agora serão expressas em termos de copulas empíricas e a função de frequência da copula empírica correspondente.


Definição 4.11

Seja \(\{(x_k,y_k)\}_{k=1}^n\) uma amostra de tamanho \(n\) de uma distribuição bivariada contínua. A copula empírica é a função \(C_n\) dada por \[ C_n(i/n,j/n)=\dfrac{\mbox{número de pares } (x,y) \mbox{ na amostra tais que } x\leq x_{(i)} \mbox{ e } y\leq y_{(i)}}{n}, \] onde \(x_{(i)}\) e \(y_{(j)}\), \(1\leq i,j\leq n\), denotam estatísticas de ordem da amostra.


A função de frequência \(c_n\), da copula empírica, é dada por \[ c_n(i/n,j/n)=\left\{ \begin{array}{cc} 1/n, & \mbox{se } (x_{(i)},y_{i}) \mbox{ é um elemento da amostra} ;\\[0.8em] 0, & \mbox{caso contrário} \end{array}\right. \]

Observe que \(C_n\) e \(c_n\) são relacionados por \[ C_n(i/n,j/n)=\sum_{p=1}^i \sum_{q=1}^j c_n(p/n,q/n) \] e \[ c_n(i/n,j/n)=C_n(i/n,j/n)-C_n((i-1)/n,j/n)-\\[0.8em] \qquad \qquad \qquad \qquad \qquad \qquad \qquad \qquad C_n(i/n,(j-1)/n)+C_n((i-1)/n,(j-1)/n)\cdot \]

Copulas empíricas foram introduzidas e estudadas pela primeira vez por Deheuvels (1979), que as chamou de funções de dependência empíricas. Lembre-se das versões populacionais de \(\rho\) de Spearman, \(\tau\) de Kendall e \(\gamma\) de Gini de (4.16), (4.19) e (4.25), respectivamente, para variáveis aleatórias contínuas \(X\) e \(Y\) com copula \(C\): \[ \begin{array}{rcl} \rho & = & \displaystyle 12 \iint_{{\bf I}^2} \Big(C(u,\nu)-u\, \nu \Big)\mbox{d}u\mbox{d}\nu,\\[0.8em] \tau & = & \displaystyle 2\int_0^1 \int_0^1 \int_0^{\nu'} \int_0^{u'} \Big(c(u,\nu)c(u',\nu')-c(u,\nu')c(u',\nu) \Big)\mbox{d}u\mbox{d}\nu\mbox{d}u'\mbox{d}\nu' \end{array} \] e \[ \gamma = 4 \displaystyle \left(\int_0^1 C(u,1-u)\mbox{d}u-\int_0^1 \big(u-C(u,\nu)\big)\mbox{d}u \right) \cdot \]

No próximo teorema, apresentamos as versões amostrais correspondentes, usamos letras latinas para as estatísticas amostrais.


Teorema 4.26:

Sejam \(C_n\) e \(c_n\), respectivamente, a copula empírica e a função de frequência da copula empírica para a amostra \(\{(x_k,y_k)\}_{k =1}^n\). Se \(r\), \(t\) e \(g\) denotam, respectivamente, as versões amostrais do \(\rho\) de Spearman, \(\tau\) de Kendall e \(\gamma\) de Gini, então \[ \tag{4.65} r=\dfrac{12}{n^2-1}\sum_{i=1}^n \sum_{j=1}^n \Big( C_n(i/n,j/n)-(i/n)(j/n)\Big), \] \[ \tag{4.66} t=\dfrac{2n}{n-1}\sum_{i=2}^n \sum_{j=2}^n \sum_{p=1}^{i-1} \sum_{q=1}^{j-1} \Big(c_n(i/n,j/n)c_n(p/n,q/n)-c_n(i/n,q/n)c_n(p/n,j/n) \Big) \] e \[ \tag{4.67} g= \dfrac{2n}{[n^2/2]} \left(\sum_{i=1}^{n-1} C_n(i/n,1-i/n) -\sum_{i=1}^n \Big(i/n-C_n(i/n,i/n) \Big)\right)\cdot \]


Demonstração.

Mostraremos que as expressões acima são equivalentes às expressões para \(r\), \(t\) e \(g\) que são geralmente encontradas na literatura. A expressão usual para \(r\) é Kruskal (1958); Lehmann (1975), \[ \tag{4.68} r=\dfrac{12}{n(n^2-1)}\left(\sum_{k=1}^n kR_k-\dfrac{n(n+1)^2}{4} \right), \] onde \(R_k = m\) sempre que \((x_{(k)},y_{(m)})\) for um elemento da amostra. Para mostrar que (4.65) é equivalente a (4.68), precisamos apenas mostrar que \[ \tag{4.69} \sum_{i=1}^n \sum_{j=1}^n C_n(i/n,j/n)=\dfrac{1}{n}\sum_{k=1}^n kR_k\cdot \] Observe que um par particular \((x_{(k)},y_{(m)})\) na amostra contribui com \(1/n\) para a soma dupla em (4.69) para cada par de subscritos \((i,j)\) com \(i\geq k\) e \(j\geq m\). Ou seja, a contribuição total para a soma dupla em (4.69) por um par particular \((x_{(k)},y_{(m)})\) é \(1/n\) vezes \((n – k + 1)(n – m + 1)\), o número total de pares \((i,j)\) tais que \(i\geq k\) e \(j\geq m\). Portanto, escrevendo \(R_k\) para \(m\) e somando em \(k\), temos \[ \sum_{i=1}^n \sum_{j=1}^n C_n(i/n,j/n)=\dfrac{1}{n}\sum_{k=1}^n (n-k+1)(n-R_k+1)=\dfrac{1}{n}\sum_{k=1}^n kR_k, \] como alegado.

Em seguida, mostramos que (4.66) é equivalente ao \(\tau\) de Kendall em (4.1), ou seja, a diferença entre o número de pares concordantes e discordantes na amostra dividida pelo número total \(\binom{n}{2}\) de pares de elementos da amostra. Observe que o somatório em (4.66) reduz para \((1/n)^2\) sempre que a amostra contém \((x_{(p)},y_{(q)})\) e \((x_{(i)},y_{(j)})\), um par concordante porque \(x_{(p)}<x_{(i)}\) e \(y_{(q)}<y_{(j)}\); reduz para \(-(1/n)^2\) sempre que a amostra contenha \((x_{(p)},y_{(j)})\) e \((x_{(i)},y_{(q)})\), um par discordante; e é 0 caso contrário. Assim, a soma quádrupla em (4.66) é \((1/n)^2\) vezes a diferença entre o número de pares concordantes e discordantes, o que é equivalente a (4.1). Avaliar a soma dupla interna em (4.66) produz \[ \displaystyle t=\dfrac{2n}{n-1}\sum_{i=2}^n\sum_{j=2}^n \left(C_n(i/n,j/n)C_n((i-1)/n,(j-1)/n)-\\ \qquad \qquad \qquad \qquad \qquad \qquad \qquad C_n(i/n,(j-1)/n)C_n((i-1)/n,j/n) \right), \] uma versão amostral de (4.50) e (4.52). Para mostrar que (4.67) é equivalente à versão amostral do \(\gamma\) de Gini em (4.25), precisamos apenas mostrar que \[ \tag{4.70} \sum_{i=1}^n |p_i-q_i|=2n\sum_{i=1}^n \big(i/n-C_n(i/n,i/n)\big) \] e \[ \tag{4.71} \sum_{i=1}^n |n+1-p_i-q_i|=2n\sum_{i=1}^{n-1} C_n(i/n,(n-i)/n)\big), \] onde, lembre-se, \(p_i\) e \(q_i\) denotam as classificações ou postos de \(x_i\) e \(y_i\), respectivamente. A amostra \(\{(x_k,y_k)\}_{k =1}^n\) pode ser escrita como \(\{(x_{(p_i)},y_{(q_i)})\}_{i=1}^n\). Como \(nC_n(i/n,i/n)\) é o número de pontos \((x_{(p_i)},y_{(q_i)})\) na amostra para os quais \(p_i\leq i\) e \(q_i\leq i\), o ponto amostral \((x_{(p_i)},y_{(q_i)})\) é contado \(n-\max\{p_i,q_i\}+1\) vezes na soma \(n\sum_{i=1}^n C_n(i/n,i/n)\). Assim \[ \displaystyle 2n \sum_{i=1}^n \big(i/n-C_n(i/n,i/n) \big) = n(n+1)-2\sum_{i=1}^n \big((n+1)-\max\{p_i,q_i\} \big) \\ \qquad \qquad \qquad \qquad \qquad \qquad \Big(2\sum_{i=1}^n \max\{p_i,q_i\}\Big)-n(n+1)=\sum_{i=1}^n \big(2\max\{p_i,q_i\}-(p_i+q_i) \big)\cdot \] Mas, \(2\max\{u,\nu\}-(u+\nu)=|u-\nu|\) e então \[ 2n\sum_{i=1}^n \big(i/n-C_n(i/n,i/n) \big)=\sum_{i=1}^n |p_i-q_i|\cdot \] A verificação de (4.71) é semelhante.


Copulas empíricas também podem ser usadas para construir testes não paramétricos para independência. Veja Deheuvels (1979), Deheuvels (1981b) e Deheuvels (1981a) para detalhes.


4.8. Dependência multivariada


Como Barlow and Proschan (1981) observam, “as noções de dependência positiva no caso multivariado são mais numerosas, mais complexas e suas inter-relações são menos bem compreendidas”.

Isso também é verdade para o papel desempenhado por \(n\)-copulas no estudo da dependência multivariada. No entanto, muitas das propriedades de dependência encontradas em seções anteriores deste capítulo têm extensões naturais para o caso multivariado.

Examinaremos apenas algumas e forneceremos referências para outras. Em três ou mais dimensões, em vez de quadrantes, temos “ortantes”, e a generalização da dependência de quadrante é conhecida como dependência ortante.


Definição 4.12

Seja \(\pmb{X}=(X_1,X_2,\cdots,X_n)\) um vetor aleatório \(n\)-dimensional.

  1. \(\pmb{X}\) é positivamente dependente do ortante inferior, denotado \(\mbox{PLOD}\), se para todo \(\pmb{x}=(x_1,x_2,\cdots,x_n)\in{\bf R}^n\), \[ \tag{4.72} P(\mbox{X}\leq \pmb{x})\geq \prod_{i=1}^n P(X_i\leq x_i)\cdot \]

  2. \(\pmb{X}\) é positivamente dependente do ortante superior, denotado \(\mbox{PUOD}\), se para todo \(\pmb{x}=(x_1,x_2,\cdots,x_n)\in{\bf R}^n\), \[ \tag{4.73} P(\mbox{X}> \pmb{x})\geq \prod_{i=1}^n P(X_i> x_i)\cdot \]

  3. \(\pmb{X}\) é positivamente ortante dependente \((\mbox{POD})\) se para todo \(\pmb{x}=(x_1,x_2,\cdots,x_n)\) em \({\bf R}^n\), tanto (4.72) quanto (4.73) são verdadeiros.


Dependência ortante inferior negativa \((\mbox{NLOD})\), dependência ortante superior negativa \((\mbox{NUOD})\) e a dependência ortante negativa \((\mbox{NOD})\) são definidas analogamente, invertendo o sentido das desigualdades em (4.72) e (4.73).

Para \(n = 2\), (4.72) e (4.73) são equivalentes a (4.31) e (4.32), respectivamente. Como consequência do Exercício 5.21, \(\mbox{PLOD}\) e \(\mbox{PUOD}\) são os mesmos para \(n = 2\). No entanto, este não é o caso para \(n\geq 3\).


Exemplo 4.28.

Seja \(\pmb{X}\) um vetor aleatório tridimensional que assume os quatro valores (1,1,1), (1,0,0), (0,1,0) e (0,0,1), cada um com probabilidade 1/4. Agora podemos verificar que \(\pmb{X}\) é $, mas não \(\mbox{PLOD}\).

Note que \(P(\pmb{X}\in \pmb{0}) = 0\) enquanto \(P(X_1\leq 0)P(X_2\leq 0)P(X_3\leq 0) = 1/8\).


Se \(\pmb{X}\) tem uma função de distribuição conjunta \(n\)-dimensional \(H\), marginais contínuas \(F_1,F_2,\cdots,F_n\) e \(n\)-copula \(C\), então (4.72) é equivalente a \[ H(x_1,x_2,\cdots,x_n)\geq F_1(x_1)F_2(x_2)\cdots F_n(x_n) \] para todo \(\pmb{x}=(x_1,x_2,\cdots,x_n)\in{\bf R}^n\) e a \[ C(u_1,u_2,\cdots,u_n)\geq u_1 u_2 \cdots u_n \] para todo \(\pmb{u}=(u_1,u_2,\cdots,u_n)\in{\bf I}^n\), ou seja, \(C(\pmb{u})\geq \Pi^n(\pmb{u})\).

Analogamente, (4.73) é equivalente a \[ \overline{H}(x_1,x_2,\cdots,x_n)\geq \overline{F}_1(x_1)\overline{F}_2(x_2)\cdots \overline{F}_n(x_n) \] para todo \(\pmb{x}=(x_1,x_2,\cdots,x_n)\in{\bf R}^n\) e \[ \overline{C}(u_1,u_2,\cdots,u_n)\geq (1-u_1)(1-u_2)\cdots (1-u_n) \] para todo \(\pmb{u}=(u_1,u_2,\cdots,u_n)\in{\bf I}^n\) onde \(\overline{C}\) denota a função de sobrevivência conjunta \(n\)-dimensional correspondente a \(C\),ou seja, \(\overline{C}(\pmb{u})\geq \Pi^n(\pmb{u})\).

Estreitamente relacionada à noção de dependência ortante está a concordância multivariada. Lembre-se, veja Seção 1.8, que no caso bivariado, uma copula \(C_1\) é mais concordante que ou mais \(\mbox{PQD}\) que \(C_2\) se \(C_1(u,\nu)\geq C_2(u,\nu)\) para todo \((u,\nu)\in {\bf I}^2\). A versão multivariada é similar.


Definição 4.13

Sejam \(C_1\) e \(C_2\) \(n\)-copulas e sejam \(\overline{C}_1\) e \(\overline{C}_2\) as funções de sobrevivência conjunta \(n\)-dimensionais correspondentes.

  1. \(C_1\) é mais \(\mbox{PLOD}\) que \(C_2\) se para todo \(\pmb{u}\in{\bf I}^n\), \(C_1(\pmb{u})\geq C_2(\pmb{u})\);

  2. \(C_1\) é mais \(\mbox{PUOD}\) que \(C_2\) se para todo \(\pmb{u}\in{\bf I}^n\), \(\overline{C}_1(\pmb{u})\geq \overline{C}_2(\pmb{u})\);

  3. \(C_1\) é mais \(\mbox{POD}\) que \(C_2\) ou \(C_1\) é mais concordante que \(C_2\), se para todo \(\pmb{u}\in{\bf I}^n\), tanto \(C_1(\pmb{u})\geq C_2(\pmb{u})\) quanto \(\overline{C}_1(\pmb{u})\geq \overline{C}_2(\pmb{u})\) são válidos.


No caso bivariado, as partes 1 e 2 da definição acima são equivalentes (veja Exercício 2.30), no entanto, esse não é o caso em dimensões superiores.

Muitas das medidas de concordância na Seção 4.2 têm versões multivariadas. Em geral, no entanto, cada medida de concordância bivariada tem várias versões multidimensionais. Veja Joe (1990) e Nelsen (1996) para detalhes. Há também versões multivariadas de algumas das medidas de dependência na Seção 4.4.1.

Por exemplo, a versão \(n\)-dimensional do \(\sigma\) de Schweizer and Wolff para uma \(n\)-copula \(C\), que denotamos por \(\sigma_C^n\), é dada por \[ \sigma_C^n=\dfrac{2^n(n+1)}{2^n-(n+1)} \idotsint_{{\bf I}^n}{\Big|C_n(\pmb{u}-u_1 u_2 \dots u_n\Big| \, \mbox{d}u_1 \, \mbox{d}u_2 \, \dots \, \mbox{d}u_n} \]

Veja Wolff (1977) e Wolff (1981) para detalhes.

Extensões de algumas das outras propriedades de dependência para o caso multivariado são semelhantes. Uma nota sobre notação: para \(\pmb{x}\in {\bf R}^n\), uma frase como “não decrescente em \(\pmb{x}\)” significa não decrescente em cada componente \(x_i\), \(i = 1,2,\cdots, n\) e se \(A\) e \(B\) forem subconjuntos disjuntos não vazios de \(\{1, 2,\cdots, n\}\), então \(\pmb{X}_A\) e \(\pmb{X}_B\) denotam os vetores \[ (X_i \, | \, i\in A) \qquad \mbox{e} \qquad (X_i \, | \, i\in B), \] respectivamente, onde \(X_i\in\pmb{X}\). A definição a seguir são de Brindley and Thompson Jr. (1972); Harris (1970) e Joe (1997).


Definição 4.14

Seja \(\pmb{X}=(X_1,X_2,\cdots,X_n)\) um vetor aleatório \(n\)-dimensional e sejam os conjuntos \(A\) e \(B\) particionarem \(\{1,2,\cdots, n\}\).

  1. \(\mbox{LTD}(\pmb{X}_B \, | \, \pmb{X}_A)\) se \(P(\pmb{X}_B\leq \pmb{x}_B \, | \, \pmb{X}_A\leq \pmb{x}_A)\) é não decrescente em \(\pmb{x}_A\) para todo \(\pmb{x}_B\);

  2. \(\mbox{RTI}(\pmb{X}_B \, | \, \pmb{X}_A)\) se \(P(\pmb{X}_B> \pmb{x}_B \, | \, \pmb{X}_A> \pmb{x}_A)\) é não decrescente em \(\pmb{x}_A\) para todo \(\pmb{x}_B\);

  3. \(\mbox{SI}(\pmb{X}_B \, | \, \pmb{X}_A)\) se \(P(\pmb{X}_B> \pmb{x}_B \, | \, \pmb{X}_A= \pmb{x}_A)\) é não decrescente em \(\pmb{x}_A\) para todo \(\pmb{x}_B\);

  4. \(\mbox{LCSD}(\pmb{X})\) se \(P(\pmb{X}\leq \pmb{x} \, | \, \pmb{X}\leq \pmb{x}')\) é não decrescente em \(\pmb{x}'\) para todo \(\pmb{x}\);

  5. \(\mbox{RCSI}(X)\) se \(P(\pmb{X}> \pmb{x}\, | \, \pmb{X}> \pmb{x}')\) é não decrescente em \(\pmb{x}'\) para todo \(\pmb{x}\).


Duas propriedades adicionais de dependência multivariada são expressáveis em termos da propriedade estocástica crescente (Joe 1997). Quando \(\mbox{SI}(\pmb{X}_B\, | \, \pmb{X}_A)\) vale para todos os conjuntos singleton \(A\), ou seja, \(A = \{i\}\), \(i = 1,2,\cdots,n\); então \(\pmb{X}\) é dependente positivo através da ordenação estocástica \((\mbox{PDS})\) e quando \(\mbox{SI}(\pmb{X}_B \, | \, \pmb{X}_A)\) vale para todos os conjuntos singleton \(B = \{i\}\) e \(A = \{1,2,\cdots,i– 1\}\), \(i = 2,3,\cdots,n\), então \(\pmb{X}\) é condicional crescente em sequência \((\mbox{CIS})\).

Note que para \(n = 2\), tanto \(\mbox{PDS}\) quanto \(\mbox{CIS}\) são equivalentes a \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\). No caso bivariado, as propriedades de monotonicidade do conjunto de cantos eram expressáveis em termos de positividade total, veja Corolário 4.6. O mesmo é verdade no caso multivariado com a seguinte generalização da positividade total: Uma função \(f\) de \(\overline{{\bf R}}^n\) para \({\bf R}\) é multivariada totalmente positiva de ordem dois \((\mbox{MTP}_2)\) se \[ f(\pmb{x}\vee \pmb{y})f(\pmb{x}\wedge \pmb{y}) \geq f(\pmb{x})f(\pmb{y}) \] para todo \(\pmb{x},\pmb{y}\in \overline{{\bf R}}^n\) onde \[ \begin{array}{rcl} \pmb{x}\vee \pmb{y} & = & \big(\max\{x_1,y_1\},\max\{x_2,y_2\},\cdots,\max\{x_n,y_n\}\big), \\[0.8em] \pmb{x}\wedge \pmb{y} & = & \big(\min\{x_1,y_1\},\min\{x_2,y_2\},\cdots,\min\{x_n,y_n\}\big)\cdot \\[0.8em] \end{array} \] Por fim, \(\pmb{X}\) é positivamente dependente da razão de verossimilhança se sua densidade conjunta \(n\)-dimensional \(h\) for \(\mbox{MTP}_2\).

Para implicações entre esses (e outros) conceitos de dependência, veja Block and Ting (1981); Joe (1997) e Block, Costigan, and Sampson (1997). Encerramos esta seção com a observação importante de que a relação simétrica entre propriedades de dependência positiva e negativa que se mantém em duas dimensões não se transfere para o caso \(n\)-dimensional.

Em duas dimensões, se o vetor \((X,Y)\) satisfaz alguma propriedade de dependência positiva, então o vetor \((X,-Y)\) satisfaz a propriedade de dependência negativa correspondente e similarmente para o vetor \((-X,Y)\). Além disso, como consequência do Teorema 1.9, se \(C\) é a copula de \((X,Y)\), então \(C'(u,\nu) = u–C(u,1-\nu)\) é a copula de \((X,-Y)\) e pode-se mostrar que para todo \(u,\nu{\bf I}\), \[ C(u,\nu)-\Pi(u,\nu) = \Pi(u,1-\nu)-C'(u,1-\nu) \] e \[ M(u,\nu)-C(u,\nu) = C'(u,1-\nu)-W(u,1-\nu); \] isto é, o gráfico de \(C'\) é um “reflexo torcido” em \(\Pi\) do gráfico de \(C\) e \(C'\) tem uma relação com \(W\) análoga à relação entre \(C\) e \(M\).

Não há análogo para essas relações em \(n\) dimensões, \(n\geq 3\). De fato, à medida que \(n\) aumenta, os gráficos de \(z = W^n(\pmb{u})\) e \(z=\Pi^n(\pmb{u})\) são muito mais próximos um do outro do que os gráficos de \(z = M^n(\pmb{u})\) e \(z = \Pi^n(\pmb{u})\).

É um exercício de cálculo multivariável mostrar que o \(n\)-volume entre os gráficos de \(M^n\) e \(\Pi^n\) é dado por \[ a_n=\idotsint_{{\bf I}^n}{\Big( M^n(\pmb{u}-\Pi^n(\pmb{u}\Big) \, \mbox{d}u_1 \, \mbox{d}u_2 \, \dots \, \mbox{d}u_n}=\dfrac{1}{n+1}-\dfrac{1}{2^n} \] e o \(n\)-volume entre os gráficos de \(\Pi^n\) e \(W^n\) é dado por \[ b_n=\idotsint_{{\bf I}^n}{\Big(\Pi^n(\pmb{u})-W^n(\pmb{u}\Big) \, \mbox{d}u_1 \, \mbox{d}u_2 \, \dots \, \mbox{d}u_n} =\dfrac{1}{2^n}-\dfrac{1}{(n+1)!} \] e, portanto, \[ \lim_{n\to\infty} \dfrac{b_n}{a_n}=0\cdot \]

Para uma discussão mais aprofundada sobre conceitos de dependência multivariada negativa, veja Block, Savits, and Shaked (1982).


4.9. Exercícios



4.1- Demonstre o Corolário 4.1.


4.2- Sejam \(X\) e \(Y\) variáveis aleatórias com a distribuição exponencial bivariada Marshall-Olkin Marshall-Olkin de parâmetros \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\), ou seja, a função de sobrevivência \(H\) de \(X\) e \(Y\) é dada por (para \(x,y\geq 0\)) \[ \overline{H}(x,y)=\exp\left( -\lambda_1 x -\lambda_2 y-\lambda_{12}\max\{x,y\}\right)\cdot \]

  1. Mostre que o coeficiente de correlação normal, do produto de momentos de Pearson, de \(X\) e \(Y\) é dado por \[ \dfrac{\lambda_{12}}{\lambda_1+\lambda_2+\lambda_{12}}\cdot \]

  2. Mostre que o \(\tau\) de Kendall e o coeficiente de correlação de Pearson são numericamente iguais para os membros desta família (Edwardes 1993).


4.3- Prove que uma expressão alternativa (Joe 1997) para o \(\tau\) de Kendall, para uma copula Arquimediana \(C\) com gerador \(\varphi\) é \[ \tau_C=1-4\int_0^\infty u\left(\dfrac{\mbox{d}}{\mbox{d}u}\varphi^{[-1]}(u) \right)^2\mbox{d}u\cdot \]


4.4-

  1. Seja \(C_\theta\), \(\theta\in [0,1]\), um membro da família de copulas introduzida no Exercício 46, ou seja, a massa de probabilidade de \(C_\theta\) está uniformemente distribuída por dois segmentos de reta, um que une \((0,\theta)\) a \((1-\theta,1)\) e o outro que une \((1-\theta,0)\) a \((1,\theta)\), como ilustrado na Figura 2.7(b). Mostre que o \(\tau\) de Kendall para um membro desta família é dado por \[ \tau_\theta=(1-2\theta)^2\cdot \]

  2. Seja \(C_\theta\), \(\theta\in [0,1]\), um membro da família de copulas introduzida no Exemplo 2.4, ou seja, a massa de probabilidade de \(C_\theta\) está uniformemente distribuída por dois segmentos de reta, um que une \((0,\theta)\) a \((\theta,0)\) e o outro unindo \((\theta,1)\) a \((1,\theta)\), como ilustrado na Fig. 2.4(a). Mostre que o \(\tau\) de Kendall para um membro desta família é dado por \[ \tau_\theta = -(1-2\theta)^2\cdot \]


4.5- Seja \(C\) uma copula diagonal, ou seja, seja \[ C(u,\nu)=\min\left\{u,\nu,(1/2)\big(\delta(u)+\delta(\nu)\big)\right\}, \] em que \(\delta\) satisfaz (2.24abc).

  1. Mostre que o \(\tau\) de Kendall é dado por \[ \tau_C=4\int_0^1 \delta(t)\mbox{d}t-1\cdot \]

  2. Para as copulas diagonais, o coeficiente \(\tau\) de Kendall tem uma interpretação geométrica. Porque \(\max\{2t-1,0\}\leq \delta(t)\leq t\) para \(t\) em \({\bf I}\) para qualquer diagonal \(\delta\) (Exercício 1.8), então o gráfico de \(\delta\) está em \(\Delta OAB\), como ilustrado na figura abaixo. Mostre que \(\tau_C\) é igual à fração da área de \(\Delta OAB\) que está abaixo do gráfico de \(y = \delta(t)\).


4.6- Seja \(C_\theta\), \(\theta\in [0,1]\), um membro da família de copulas introduzida no Exemplo 2.3, ou seja, a massa de probabilidade de \(C_\theta\) está distribuída por dois segmentos de reta, um que une (0,0) a \((\theta,1)\) e outro que une \((\theta,1)\) a (1,0), como ilustrado na Figura 2.3(a). Mostre que o \(\tau\) de Kendall e o \(\rho\) de Spearman para qualquer membro desta família são são dados por \[ \tau_\theta=\rho_\theta=2\theta-1\cdot \]


4.7- Seja \(C_\theta\), \(\theta\in [0,1]\), um membro da família de copulas introduzida no Exemplo 2.4, ou seja, a massa de probabilidade de \(C_\theta\) é uniformemente distribuída em dois segmentos de reta, um unindo \((0,\theta)\) a \((\theta,0)\) e o outro unindo \((\theta,1)\) a \((1,\theta)\), conforme ilustrado na Figura 2.5(a). Mostre que o \(\rho\) de Spearman para qualquer membro desta família é dado por \[ \rho_\theta=6\theta(1-\theta)-1\cdot \]
4.8- Seja \(C_\theta\) um membro da família de copulas de Plackett (2.28) para \(\theta > 0\). Mostre que o \(\rho\) de Spearman para este \(C_\theta\) é \[ \rho_\theta=\dfrac{\theta+1}{\theta-1}-\dfrac{2\theta}{(\theta-1)^2}\ln(\theta)\cdot \]

Não parece haver uma expressão de forma fechada para o \(\tau\) de Kendall para membros desta família.


4.9- Seja \(C_\theta\), \(\theta\in\overline{\bf R}\), um membro da família de Frank (3.1.5) de copulas arquimedianas. Mostre que \[ \tau_\theta=1-\dfrac{4}{\theta}\big(1-D_1(\theta)\big) \qquad \mbox{e} \qquad \rho_\theta=1-\dfrac{12}{\theta}\big(D_1(\theta)-D_2(\theta)\big), \] onde \(D_k(x)\) é a função de Debye, que é definida para qualquer inteiro positivo \(k\) por \[ D_k(x)=\dfrac{k}{x^k}\int_0^x \dfrac{t^k}{e^t-1}\mbox{d}t\cdot \] Nelsen (1986). Para uma discussão sobre a estimaçã do parâmetro \(\theta\) para uma copula de Frank a partir de uma amostra usando a versão amostral do \(\rho\) de Spearman ou do \(\tau\) de Kendall, veja Genest (1987).


4.10- Seja \(C_\theta\), \(\theta\in [–1,1]\), um membro da família Ali-Mikhail-Haq (3.1.3) de copulas arquimedianas.

  1. Mostre que \[ \tau_\theta=\dfrac{3\theta-2}{3\theta}-\dfrac{2(1-\theta)^2}{3\theta^2}\ln(1-\theta) \] e \[ \rho_\theta=\dfrac{12(1+\theta)}{\theta^2}\mbox{dialog}(1-\theta)-\dfrac{24(1-\theta)}{\theta^2}\ln(1-\theta)-\dfrac{3(\theta+12)}{\theta}, \] onde \(\mbox{dilog}(x)\) é a função dilogaritmo definida por \[ \mbox{dialog}(x)=\int_1^x \dfrac{\ln(t)}{1-t}\mbox{d}t\cdot \]

  2. Mostre que \[ \rho_\theta\in [33-48\ln(2),4\pi^2-39]\approx [-0.2711,0.4784] \] e \[ \tau_\theta\in [(5-8\ln(2))/3,1/3]\approx [-0.1817,0.3333]\cdot \]


4.11- Seja \(C_\theta\), \(\theta\in [0,1]\), um membro da família Raftery de copulas, \[ C_\theta(u,\nu)=M(u,\nu)+\dfrac{1-\theta}{1+\theta}\big(u\, \nu \big)^{1/(1-\theta)}\Big(1-\big(\max\{u,\nu\}\big)^{-(1+\theta)/(1-\theta)} \Big)\cdot \] Mostre que \[ \tau_\theta=\dfrac{2\theta}{3-\theta} \qquad \mbox{e} \qquad \rho_\theta=\dfrac{\theta(4-3\theta)}{(2-\theta)^2}\cdot \]


4.12-

  1. Seja \(C_n\), \(n\) um inteiro positivo, a soma ordinal de \(\{W,W,\cdots,W\}\) com relação à partição regular \({\bf I}_n\) de \({\bf I}\) em \(n\) subintervalos, ou seja, \[ C_n(u,\nu)=\left\{ \begin{array}{cc} \max\{(k-1)/n,u+\nu-k/n\}, & (u,\nu)\in [(k-1)/n,k/n]^2, \; k=1,2,\cdots,n\\[0.8em] \min\{u,\nu\}, & \mbox{caso contrário} \end{array}\right.\cdot \] O suporte de \(C_n\) consiste em \(n\) segmentos de reta, unindo os pontos \(\big((k-1)/n,k/n\big)\) e \(\big(k/n,(k-1)/n\big)\), \(k = 1,2,\cdots,n\), conforme ilustrado na figura abaixo (a) para \(n = 4\).

    Mostre que \[ \tau_n=1-\dfrac{2}{n} \qquad \mbox{e} \qquad \rho_n=1-\dfrac{2}{n^2}\cdot \] Observe que cada copula nesta família também é um embaralhamento de \(M\) dado por \(M\big(n, {\bf I}_n,(1,2,\cdots,n),–1\big)\).

  2. Seja \(C'_n\), \(n\) um inteiro positivo, o embaralhamento de \(M\) dado por \(M\big(n, {\bf I}_n,(n,n–1,\cdots,1),1\big)\), ou seja, \[ C'_n(u,\nu)=\left\{ \begin{array}{cc} \min\{u-(k-1)/n,\nu-(n-k)/n\}, & (u,\nu)\in [(k-1)/n,k/n] \\[0.8em] & \times [(n-k+1)/n,(n-k)/n],\\[0.8em] & k=1,2,\cdots,n\\[0.8em] \max\{u+\nu-1,0\}, & \mbox{caso contrário} \end{array}\right.\cdot \] O suporte de \(C'_n\) consiste em \(n\) segmentos de reta, unindo os pontos \(\big((k-1)/n,(n-k)/n\big)\) e \(\big(k/n,(n-k+1)/n\big)\), \(k = 1,2,\cdots,n\), conforme ilustrado na figura acima (b) para \(n = 4\). Mostre que \[ \tau_n=\dfrac{2}{n}-1 \qquad \mbox{e} \qquad \rho_n=\dfrac{2}{n^2}-1\cdot \]


4.13- Seja \(C\) uma copula com seções cúbicas em \(u\) e \(\nu\), ou seja, seja \(C\) dada por \[ C(u,\nu)=u\, \nu+u\, \nu(1-u)(1-\nu)\big(A_1\nu(1-u)+A_2(1-\nu)(1-u)+B_1u\, \nu+B_2u(1-\nu)\big), \] onde as constantes \(A_1\), \(A_2\), \(B_1\) e \(B_2\) satisfazem as condições no Teorema 2.7. Mostre que \[ \rho=\dfrac{A_1+A_2+B_1+B_2}{12} \qquad \mbox{e} \qquad \tau=\dfrac{A_1+A_2+B_1+B_2}{18}+\dfrac{A_2B_1-A_1B_2}{450}\cdot \]


4.14- Sejam \(C_0\), \(C_1\) copulas e sejam \(\rho_0\), \(\rho_1\), \(\tau_0\) e \(\tau_1\) os valores do \(\rho\) de Spearman e do \(\tau\) de Kendall para \(C_0\) e \(C_1\), respectivamente. Seja \(C_\theta\) a soma ordinal de \(\{C_1,C_0\}\) em relação a \(\{[0,\theta],[\theta,1]\}\), para \(\theta\in [0,1]\). Sejam \(\rho_\theta\) e \(\tau_\theta\) os valores do \(\rho\) de Spearman e do \(\tau\) de Kendall para \(C_\theta\). Mostre que \[ \rho_\theta=\theta^3 \rho_1+(1-\theta)^3\rho_0 +3\theta(1-\theta) \] e \[ \tau_\theta=\theta^2 \tau_1+(1-\theta)^2 \tau_0+2\theta(1-\theta)\cdot \]


4.15- Seja \(C\) uma copula de valor extremo dada por (2.37). Mostre que \[ \tau_C=\int_0^1\dfrac{t(1-t)}{A(t)}\mbox{d}A'(t) \qquad \mbox{e} \qquad \rho_C=12\int_0^1 \big(A(t)+1 \big)^{-2}\mbox{d}t-3\cdot \] (Capéraà, Fougères, and Genest 1997)


4.16- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Mostre que uma expressão alternativa para o \(\rho\) de Spearman para \(X\) e \(Y\) é \[ \rho=3\iint_{{\bf I}^2} \left(\big(u+\nu-1 \big)^2 -(u-\nu)^2\right)\mbox{d}C(u,\nu)\cdot \] Gini referiu-se a esta expressão para \(\rho\) como o “indice di cograduazione quadratico”.


4.17- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\). Estabeleça as seguintes desigualdades entre \(\beta\) de Blomqvist e \(\tau\) de Kendall, \(\rho\) de Spearman e \(\gamma\) de Gini: \[ \begin{array}{rcl} \dfrac{1}{4}(1+\beta)^2-1 \leq & \tau & \leq 1-\dfrac{1}{4}(1-\beta)^2, \\[0.8em] \dfrac{3}{16}(1+\beta)^3-1 \leq & \rho & \leq 1-\dfrac{3}{16}(1-\beta)^3, \\[0.8em] \dfrac{3}{8}(1+\beta)^2 \leq & \gamma & \leq 1-\dfrac{3}{8}(1-\beta)^2\cdot \end{array} \] Dica: Utilize o Teorema 2.3.


4.18- Seja \(C_\theta\) um membro da família de copulas de Plackett (2.28) para \(\theta> 0\).

  1. Mostre que o \(\beta\) de Blomqvist para esta família é \[ \beta_\theta=\dfrac{\sqrt{\theta}-1}{\sqrt{\theta}+1}\cdot \] Lembre-se (veja Seção 2.3.1) que para a família Plackett, \(\theta\) representa uma “razão de chances”. Quando \(\theta\) é uma razão de chances em uma tabela \(2\times 2\), a expressão \(\big(\sqrt{\theta}-1\big)\Big/\big(\sqrt{\theta}+1\big)\) é conhecida como “Y de Yule” ou “coeficiente de coligação de Yule”.

  2. Mostre que \(4\beta_\theta/3\) é uma aproximação de segunda ordem para \(\rho_\theta\) para esta família, veja Exercício 4.8.


4.19- Seja \(C_\theta\), \(\theta\in{\bf R}\), um membro da família de Frank (3.1.5) de copulas arquimedianas. No Exercício 4.9, obtivemos expressões envolvendo funções de Debye para \(\rho_\theta\) e \(\tau_\theta\) para membros desta família.

  1. Mostre que o \(\beta\) de Blomqvist é \[ \beta=\beta_\theta=\dfrac{4}{\theta}\ln\Big(\cosh(\theta/4) \Big)\cdot \]

  2. Mostre que as expansões da série de Maclaurin para \[ \begin{array}{rcl} \rho_\theta & = & \dfrac{1}{6}\theta-\dfrac{1}{450}\theta^3+\dfrac{1}{23520}\theta^5-\cdots \\[0.8em] \tau_\theta & = & \dfrac{1}{9}\theta-\dfrac{1}{900}\theta^3+\dfrac{1}{59920}\theta^5-\cdots\\[0.8em] \beta_\theta & = & \dfrac{1}{8}\theta-\dfrac{1}{768}\theta^3+\dfrac{1}{46080}\theta^5-\cdots\\[0.8em] \end{array} \] de modo que para valores moderados do parâmetro \(\theta\), \(4\beta/3\) e \(8\beta/9\) são aproximações razoáveis para \(\rho\) e \(\tau\), respectivamente.


4.20- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula \(C\) satisfaz uma (ou ambas) das equações funcionais no Exercício 30 para simetria conjunta. Mostre que \[ \tau_{X,Y}=\rho_{X,Y}=\gamma_{X,Y}=\beta_{X,Y}=0\cdot \]


4.21- Outra medida de associação entre duas variáveis é a regra de rodapé de Spearman, para a qual a versão amostral é \[ f=1-\dfrac{3}{n^2-1}\sum_{i=1}^n |p_i-q_i|, \] onde \(p_i\) e \(q_i\) novamente denotam os postos de uma amostra de tamanho \(n\) de duas variáveis aleatórias contínuas \(X\) e \(Y\), respectivamente.

  1. Mostre que a versão populacional da regra de rodapé, que denotaremos \(\phi\), é dada por \[ \phi=1-3\iint_{{\bf I}^2} |u-\nu|\mbox{d}C(u,\nu)=\dfrac{1}{2}\Big(3Q(C,M)-1\Big), \] onde \(C\) é novaente a copula de \(X\) e \(Y\).

  2. Mostre que \(\phi\) não satisfaz as propriedades 2 e 5 na Definição 4.1 e, portanto, não é uma “medida de concordância” de acordo com essa definição.


4.22-

  1. Mostre que (4.31) e (4.32) são equivalentes.

  2. Mostre que (4.33) é equivalente a \[ \overline{H}(x,y)\geq \overline{F}(x)\overline{G}(y) \qquad \forall (x,y)\in{\bf R}^2\cdot \]


4.23-

  1. Sejam \(X\) e \(Y\) variáveis aleatórias com função de distribuição conjunta \(H\) e marginais \(F\) e \(G\). Mostre que \(\mbox{PQD}(X,Y)\) se, e somente se, para qualquer \((x,y)\in{\bf R}^2\), \[ H(x,y)\Big(1-F(x)-G(y)+H ( x , y )\Big)\geq \Big( F ( x ) - H ( x , y )\Big)\Big(G ( y ) - H ( x , y )\Big), \] isto é, o produto das duas probabilidades correspondentes aos dois quadrantes sombreados na figura abaixo é, pelo menos, tão grande quanto o produto das duas probabilidades correspondentes aos dois quadrantes não sombreados.

  2. Dê uma interpretação da dependência do quadrante em termos da razão do produto cruzado (2.26) para variáveis aleatórias contínuas.

  3. Mostre que a versão copula deste resultado para variáveis aleatórias contínuas é: \(\mbox{PQD}(X,Y)\) se, e somente se, para qualquer \((u,\nu)\in{\bf I}^2\), \[ C ( u ,\nu )\Big(1- u -\nu + C ( u ,\nu )\Big)\geq \Big( u - C ( u , \nu)\Big)\Big( \nu - C ( u ,\nu )\Big); \] e dê uma interpretação semelhante à da figura acima.


4.24-

  1. Mostre que se \(X\) e \(Y\) são \(\mbox{PQD}\), então \(-X\) e \(Y\) são \(\mbox{NQD}\), \(X\) e \(-Y\) são \(\mbox{NQD}\) e \(-X\) e \(-Y\) são \(\mbox{PQD}\).

  2. Mostre que se \(C\) é a copula de variáveis aleatórias \(\mbox{PQD}\), então \(\widehat{C}\) também é.


4.25- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\), marginais \(F\) e \(G\) e copula \(C\). Considere a variável aleatória \(Z = H(X,Y) – F(X)G(Y)\).

  1. Mostre que \(\mbox{E}(Z) = (3\tau_C-\rho_C)/12\).

  2. Mostre que \(\omega_C = 6\mbox{E}(Z) = (3\tau_C-\rho_C)/2\) pode ser interpretado como uma medida de dependência de quadrante “esperada” para a qual \(\omega_M = 1\), \(\omega_P = 0\) e \(\omega_W = –1\).

  3. Mostre que \(\omega_C\) falha em ser uma medida de concordância de acordo com a Definição 4.8.


4.26- Lema de Hoeffding (Hoeffding 1940; Lehmann 1966; Shea 1983). Sejam \(X\) e \(Y\) variáveis aleatórias com função de distribuição conjunta \(H\) e marginais \(F\) e \(G\), tais que \(\mbox{E}(|X|)\), \(\mbox{E}(|Y|)\) e \(\mbox{E}(|XY|)\) são todas finitos. Prove que \[ \mbox{Cov}(X,Y) = \iint_{{\bf R}^2} \Big( H(x,y)-F(x)G(y)\Big) \mbox{d}x\mbox{d}y\cdot \]


4.27- Sejam \(X\) e \(Y\) variáveis aleatórias. Mostre que se \(\mbox{PQD}(X,Y)\), então \(\mbox{Cov}(X,Y)\geq 0\) e, portanto, o coeficiente de correlação produto-momento de Pearson é não negativo para variáveis aleatórias dependentes de quadrante positivo.


4.28- Mostre que \(X\) e \(Y\) são \(\mbox{PQD}\) se, e somente se, \(\mbox{Cov}\big(f(X),g(Y)\big)\geq 0\) para todas as funções \(f\), \(g\) que são não decrescentes em cada lugar e para as quais as esperanças \(\mbox{E}\big(f(X)\big)\), \(\mbox{E}\big(g(Y)\big)\) e \(\mbox{E}\big(f(X)g(Y)\big)\) existem (Lehmann 1966).


4.29- Prove que se a copula de \(X\) e \(Y\) for max-estável, então \(\mbox{PQD}(X,Y)\).


4.30- Este exercício mostra que a dependência quadrante positiva não implica nenhuma das propriedades de monotonicidade da cauda. Seja \(C\) a soma ordinal de \(\{M,W,M\}\) com relação à partição \(\{[0,\theta],[\theta,1-\theta],[1-\theta,1]\}\), para qualquer \(\theta\in (1/4,1/2)\). Esta copula também é um embaralhamento de \(M\). Mostre que se \(X\) e \(Y\) são variáveis aleatórias com copula \(C\), então \(\mbox{PQD}(X,Y)\) mas nenhuma das quatro propriedades de monotonicidade da cauda se mantém.


4.31- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\).

  1. Mostre que se \(C = \widehat{C}\), então \(\mbox{LTD}(Y|X)\) se, e somente se, \(\mbox{RTI}(Y|X)\) e \(\mbox{LTD}(X|Y)\) se, e somente se, \(\mbox{RTI}(X|Y)\).

  2. Mostre que \(C\) é simétrica, isto é, \(C(u,\nu) = C(\nu,u)\), então \(\mbox{LTD}(Y|X)\) se, e somente se, \(\mbox{LTD}(X|Y)\) e \(\mbox{RTI}(Y|X)\) se, e somente se, \(\mbox{RTI}(X|Y)\).


4.32- Este exercício mostra que as propriedades de monotonicidade da cauda não implicam as propriedades de monotonicidade estocástica. Seja \(C\) dada por \[ C(u,\nu)=\left\{ \begin{array}{cc} \dfrac{3u\, \nu}{2}-\dfrac{u+\nu-1}{2}, & 1/3\leq \nu\leq 1-u\leq 2/3, \\[0.8em] \dfrac{3u\, \nu}{2}, & 1/3\leq 1-u\leq \nu \leq 2/3, \\[0.8em] M(u,\nu), & \mbox{caso contrário}\cdot \end{array}\right. \]

  1. Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\). Mostre que \(\mbox{LTD}(Y|X)\), \(\mbox{LTD}(X|Y)\), \(\mbox{RTI}(Y|X)\) e \(\mbox{RTI}(X|Y)\).

  2. Mostre que \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\) falham.


4.33- Este exercício mostra que as propriedades de monotonicidade da cauda não implicam as propriedades de monotonicidade do conjunto de cantos. Seja \(C\) a copula cuja massa de probabilidade é uniformemente distribuída em dois segmentos de reta, um unindo (0,0) a (1,1/2) e o outro unindo (0,1/2) a (1,1).

  1. Mostre que \(C\) é dada por \[ C(u,\nu)=\min\{u,\nu,u/2+(\nu-1/2)^⁺\}\cdot \]

  2. Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\). Mostre que \(\mbox{LTD}(Y|X)\) e \(\mbox{RTI}(Y|X)\).

  3. Mostre que \(\mbox{LCSD}(X,Y)\) e \(\mbox{RCSI}(X,Y)\) falham. Dica: considere os pontos \(u_i =\nu_i = i/3\), \(i = 1,2\); e note que \(C = \widehat{C}\).


4.34- Sejam \(X\) e \(Y\) variáveis aleatórias cuja copula \(C\) é arquimediana, com um gerador estrito \(\varphi\in\Omega\). Prove que

  1. \(\mbox{PQD}(X,Y)\) se, e somente se, \(-\ln\big(\varphi^{-1}\big)\) é subaditivo em \((0,\infty)\).

  2. Se \(\varphi^{-1}\) é diferenciável, então \(\mbox{SI}(Y|X)\) ou \(\mbox{SI}(X|Y)\) se, e somente se, \[ \ln\big(-\mbox{d}\varphi^{-1}/\mbox{d}t\big) \] é convexo em \((0,\infty)\) (Capéraà and Genest 1993).

  3. As propriedades \(\mbox{LTD}\) e \(\mbox{LCSD}\) são equivalentes.

  4. Se \(\varphi^{-1}\) é completamente monótono, então \(\mbox{LCSD}(X,Y)\) (Alsina, Frank, and Schweizer 2006).


4.35- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\). Mostre que

  1. \(\mbox{LTD}(Y|X)\) e \(\mbox{LTD}(X|Y)\) se, e somente se, para todo \(u,u',\nu,\nu'\in{\bf I}\) tal que \(0<u\leq u'\leq 1\) e \(0<\nu\leq \nu'\leq 1\) \[ \dfrac{C(u,\nu)}{u\, \nu}\geq \dfrac{C(u',\nu')}{u'\, \nu'}\cdot \]

  2. Conclua que \(\mbox{LTD}(Y|X)\) e \(\mbox{LTD}(X|Y)\) se, e somente se, para todo ponto \((u',\nu')\) em \((0,1]^2\), o gráfico de \(z = C(u,\nu)\) está acima do gráfico do paraboloide hiperbólico através dos quatro pontos \((0,0,0)\), \((u',0,0)\), \((0,\nu',0)\) e \(\big(u',\nu',C(u',\nu')\big)\), ou seja, \[ z = \Big( C(u',\nu')/u' \, \nu'\Big) u\, \nu \cdot \]


4.36- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula é \(C\). Mostre que

  1. se a função \(u-C(u,\nu)\) é \(\mbox{TP}_2\), então \(\mbox{LTD}(Y|X)\) e \(\mbox{RTI}(X|Y)\);

  2. se a função \(\nu-C(u,\nu)\) é \(\mbox{TP}_2\), então \(\mbox{LTD}(X|Y)\) e \(\mbox{RTI}(Y|X)\);

  3. a função \(1-u-\nu+C(u,\nu)\) é \(\mbox{TP}_2\) se, e somente se, \(\widehat{C}\) é \(\mbox{TP}_2\).


4.37- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula \(C\) tem seções cúbicas em \(u\) e \(\nu\), ou seja, \(C\) satisfaz a conclusão do Teorema 2.6. Mostre que (Nelsen, Quesada Molina, and Rodríguez Lallena 1997):

  1. \(\mbox{PQD}(X,Y)\) se, e somente se, \(A_1,A_2,B_1,B_2\) são todos não negativos;

  2. \(\mbox{LTD}(Y|X)\) se, e somente se, \(2A_1\geq B_1\geq 0\), \(2A_2\geq B_2\geq 0\);

  3. \(\mbox{RTI}(Y|X)\) se, e somente se, \(2B_1\geq A_1\geq 0\), \(2B_2\geq A_2\geq 0\);

  4. \(\mbox{SI}(Y|X)\) se, e somente se, \(2A_1\geq B_1\), \(2B_1\geq A_1\), \(2A_2\geq B_2\), \(2B_2\geq A_2\);

  5. \(\mbox{LTD}(X|Y)\) se, e somente se, \(2A_2\geq A_1\geq 0\), \(2B_2\geq B_1\geq 0\);

  6. \(\mbox{RTI}(X|Y)\) se, e somente se, \(2A_1\geq A_2\geq 0\), \(2B_1\geq B_2\geq 0\);

  7. \(\mbox{SI}(X|Y)\) se, e somente se, \(2A_1\geq A_2\), \(2A_2\geq A_1\), \(2B_1\geq B_2\), \(2B_2\geq B_1\).


4.38- Sejam \(X\) e \(Y\) variáveis aleatórias tais que \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\). Hutchinson and Lai (1990) conjecturaram que para tais variáveis aleatórias, \(\rho\leq 3\tau/2\). Seja \(\theta\) em [0,1/4] e seja \(C_\theta\) a copula \[ C_\theta(u,\nu)=u\, \nu+2\theta u\, \nu(1-u)(1-\nu)(1+u+\nu-2u\, \nu)\cdot \]

Note que \(C_\theta\) é cúbico em \(u\) e em \(\nu\), de modo que \(C_\theta\) é dado por (2.22) com \(A_1 = B_2 = 4\theta\), \(A_2 = B_1 = 2\theta\). Suponha que a copula de \(X\) e \(Y\) seja \(C_\theta\).

  1. Mostre que \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\).

  2. Mostre (veja Exercício 4.13) que \[ \rho_\theta=\theta \qquad \mbox{e} \qquad \tau_\theta=\dfrac{2}{3}\theta-\dfrac{2}{75}\theta^2\cdot \] de modo que \(\rho > 3\tau/2\) para \(\theta\in (0,1/4]\), e portanto que a conjectura é falsa. Hutchinson e Lai também conjecturaram que quando \(\mbox{SI}(Y|X)\) e \(\mbox{SI}(X|Y)\), \[ -1+\sqrt{1+3\tau}\leq \rho\leq 2\tau-\tau^2, \] mas esta conjectura ainda precisa ser provada ou refutada. No entanto, quando \(C\) é uma copula de valor extremo (ver Seção 3.3.4), Hürlimann (2003) mostrou que \[ -1+\sqrt{1+3\tau}\leq \rho\leq \min\{3\tau/2,2\tau-\tau^2\}\cdot \]


4.39- Este exercício fornece uma prova alternativa (Joe 1997) de que \(\mbox{PLR}(X,Y)\) implica \(\mbox{LCSD}(X,Y)\). Sejam \(X\), \(Y\) e \(h\) como no Teorema 4.21 e seja \(H\) a função de distribuição conjunta de \(X\) e \(Y\). Suponha que \(x\leq x'\) e \(y\leq y'\). Mostre que \(\mbox{PLR}(X,Y)\) implica que \[ \int_{-\infty}^x \int_{-\infty}^y \int_x^{x'} \int_y^{y'} \Big(h(s,t)h(s',t')-h(s,t')h(s',t) \Big) \mbox{d}t' \mbox{d}s' \mbox{d}t\mbox{d}s\geq 0, \] o que por sua vez implica \[ H(x,y)\Big(H(x',y')-H(x',y)-H(x,y')+H(x,y) \Big)\geq \Big(H(x,y')-H(x,y) \Big)\Big(H(x',y)-H(x,y) \Big), \] uma condição equivalente a \(\mbox{LCSD}(X,Y)\). Há uma prova análoga de que \(\mbox{PLR}(X,Y)\) implica \(\mbox{RCSI}(X,Y)\).


4.40- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja copula \(C\) é um membro de uma família totalmente ordenada, com relação à ordem de concordância \(\prec\), que inclui \(\Pi\). Mostre que \(\sigma_{X,Y} = \big|\rho_{X,Y}\big|\).


4.41 Sejam \(X\) e \(Y\) variáveis aleatórias com a distribuição uniforme circular apresentada na Seção 2.1.2. No Exemplo 4.20, vimos que \(\sigma_{X,Y} = 1/4\). Mostre que \(\Phi_{X,Y} = \Lambda_{X,Y} = 1/4\).


4.42- Mostre que \(\Lambda_{X,Y}\) definida em (4.57) satisfaz todas as propriedades na Definição 4.8 para uma medida de dependência, exceto a quinta propriedade. Dica: para construir um contraexemplo para a quinta propriedade, considere a copula \(C_\theta\) do Exemplo 3.4 com \(\theta = 1/2\).


4.43- Mostre que \(R_g\) de Gideon and Hollister satisfaz as propriedades na Definição 4.1 para uma medida de concordância.


4.44- Mostre que \(\kappa_p\) em (4.55) é dada por \[ \kappa_p=\dfrac{\Gamma(2p+3)}{2\, \Gamma^2(p+1)}\cdot \]


4.45- Mostre que, para \(p\in [1,\infty)\), a generalização “\(\ell_p\)” de \(\gamma_C\) e \(\rho_C\) em (4.58) e (4.59), respectivamente, leva a medidas de associação dadas por \[ (p+1)\iint_{{\bf I}^2} \Big(\big|u+\nu-1 \big|^p-\big|u-\nu\big|^p \Big)\mbox{d}C(u,\nu)\cdot \]


4.46- Mostre que, para \(p\in [1,\infty)\), a generalização “\(L_p\)” de \(\gamma_C\) em (4.60) leva a medidas de associação dadas por \[ 2^p (p+1)\left( \int_0^1 \Big(C(u,1-u) \Big)^p\mbox{d}u -\int_0^1 \Big(u-C(u,u) \Big)^p \mbox{d}u \right)\cdot \]


4.47- Verifique os valores apresentados de \(\lambda_U\) e \(\lambda_L\) nos Exemplos 4.23 e 4.24.


4.48- Escreva \(\lambda_U(C)\) e \(\lambda_L(C)\) para especificar a copula sob consideração. Prove que \(\lambda_U(\widehat{C})=\lambda_L(C)\) e \(\lambda_L(\widehat{C})=\lambda_U(C)\).


4.49- Seja \(C\) uma copula de valor extremo dada por (2.37). Prove que \[ \lambda_L=\left\{ \begin{array}{cc} 0, & A(1/2)>1/2 \\[0.8em] 1, & A(1/2)=1/2 \end{array}\right. \] Observe que \(A(1/2)=1/2\) se, e somente se, \(C = M\).


4.50- Seja \(C(u,\nu) = \min\{u f(\nu),\nu f(u)\}\) onde \(f\) é uma função crescente em \({\bf I}\) com \(f(1) = 1\) e \(t\mapsto f(t)/t\) é decrescente em (0,1]; este é o caso simétrico das copulas no Exercício 2.3, veja Durante (2006). Mostre que \(\lambda_U= 1-f'(1^-)\) e \(\lambda_L=f(0)\).


4.10. Bibliografia


Alsina, C., M. J. Frank, and B. Schweizer. 2006. Associative Functions: Triangular Norms and Copulas. World Scientific Publishing Company.
Barlow, R. E., and F. Proschan. 1981. Statistical Theory of Reliability and Life Testing. To Begin With, Silver Spring, Universidade de Michigan.
Block, H. W., T. Costigan, and A. R. Sampson. 1997. “A Review of Orthant Probability Bounds.” Advances in the Theory and Practice of Statistics: A Volume in Honor of Samuel Kotz, no. Wiley, New York: 535–50.
Block, H. W., T. Savits, and M. Shaked. 1982. “Some Concepts of Negative Dependence.” The Annals of Probability, no. 10: 765–72.
Block, H. W., and M-L. Ting. 1981. “Some Concepts of Multivariate Dependence.” Communications in Statistics - Theory and Methods, no. 10: 749–62.
Blomqvist, N. 1950. “On a Measure of Dependence Between Two Random Variables.” The Annals of Mathematical Statistics, no. 21: 593–600.
Blum, J., J. Kiefer, and M. Rosenblatt. 1961. “Distribution Free Tests of Independence Based on the Sample Distribution Function.” Annals of Mathematical Statistics, no. 32: 485–98.
Brindley, E. C., and W. A. Thompson Jr. 1972. “Dependence and Aging Aspects of Multivariate Survival.” Journal of the American Statistical Association, no. 67: 822–30.
Capéraà, P., A. L. Fougères, and C. Genest. 1997. “A Non-Parametric Estimation Procedure for Bivariate Extreme Value Copulas.” Biometrika, no. 84: 567–77.
Capéraà, P., and C. Genest. 1993. “Spearman’s r Is Larger Than Kendall’s t for Positively Dependent Random Variables.” Journal of the Nonparametris Statistics, no. 2: 183–94.
Carriere, J. F. 1994. “A Large Sample Test for One-Parameter Families of Copulas.” Communications in Statistics - Theory and Methods, no. 23: 1311–17.
Conti, P. L. 1993. “On Some Descriptive Aspects of Measures of Monotone Dependence.” Metron, no. 51: 43–60.
Conway, D. A. 1986. “Plackett Family of Distributions.” Encyclopedia of Statistical Sciences, Wiley, New York, no. 7: 1–5.
Daniels, H. E. 1950. “Rank Correlation and Population Models.” Journal of the Royal Statistical Society, Series B, no. 12: 171–81.
Deheuvels, P. 1979. “La Fonction de Dépendance Empirique Et Ses Propriétés: Un Test Non Paramétrique d’indépendance.” Bulletin de La Classe Des Sciences, Académie Royale de Belgique, no. 65: 274–92.
———. 1981a. “A Non Parametric Test for Independence.” Publications de l’Institut de Statistique de l’Université de Paris, no. 26: 29–50.
———. 1981b. “An Asymptotic Decomposition for Multivariate Distribution-Free Tests of Independence.” Journal of Multivariate Analysis, no. 11: 102–13.
Drouet, M. D., and S. Kotz. 2001. Correlation and Dependence. Imperial College Press, London.
Durante, F. 2006. “A New Class of Symmetric Bivariate Copulas.” Journal of Nonparametric Statistics, no. 18(7-8): 499–510.
Durbin, J., and A. Stuart. 1951. “Inversions and Rank Correlations.” Journal of the Royal Statistics Society, Series B, no. 13: 303–9.
Edwardes, M. D. deB. 1993. “Kendall’s t Is Equal to the Correlation Coefficient for the BVE Distribution.” Statistical Probabilities Letters, no. 17: 415–19.
Esary, J. D., and F. Proschan. 1972. “Relationships Among Some Concepts of Bivariate Dependence.” The Annals of Mathematical Statistics, no. 43: 651–55.
Frees, E. W., and E. A. Valdez. 1998. “Understanding Relationships Using Copulas.” North American Actuarial Journal, no. 2: 1–15.
Genest, C. 1987. “Frank’s Family of Bivariate Distributions.” Biometrika, no. 74: 549–55.
Genest, C., and J. MacKay. 1986a. “Copules Archimédiennes Et Familles de Lois Bi-Dimensionnelles Dont Les Marges Sont Données.” The Canadian Journal of Statistics, no. 14: 145–59.
———. 1986b. “The Joy of Copulas: Bivariate Distributions with Uniform Marginals.” The American Statistician, no. 40: 280–85.
Genest, C., and L-P. Rivest. 2001. “On the Multivariate Probability Integral Transform.” Statistics and Probability Letters, no. 53: 391–99.
Gideon, R. A., and R. A. Hollister. 1987. “A Rank Correlation Coefficient Resistant to Outliers.” Journal of the American Statistical Association, no. 82: 656–66.
Harris, R. 1970. “A Multivariate Definition for Increasing Hazard Rate Distribution Function.” The Annals of Mathematical Statistics, no. 41: 713–17.
Hoeffding, W. 1940. “Masstabinvariante Korrelationstheorie.” Schriften Des Matematischen Instituts Und Des Instituts Für Angewandte Mathematik Der Universität Berlin, no. 3: 179–233.
Hollander, M., and D. A. Wolfe. 1973. Nonparametric Statistical Methods. Wiley, New York.
Hürlimann, W. 2003. “Hutchinson-Lai’s Conjecture for Bivariate Extreme Value Copulas.” Statistics and Probability Letters, no. 61: 191–98.
Hutchinson, T. P., and C. D. Lai. 1990. Continuous Bivariate Distributions. Rumsby Scientific Publishing, Adelaide.
Joe, H. 1990. “Multivariate Concordance.” Journal of the Multivariate Analysis, no. 35: 12–30.
———. 1997. Multivariate Models and Dependence Concepts. Chapman & Hall, London.
Jogdeo, K. 1982. “Concepts of Dependence.” Encyclopedia of Statistical Sciences, no. Vol. 1: 324–34.
Karlin, S. 1968. Total Positivity. Stanford University Press, Stanford.
Kimeldorf, G., and A. Sampson. 1987. “Positive Dependence Orderings.” Annals of the Institute of Statistical Mathematics, no. 39: 113–28.
Kruskal, W. H. 1958. “Ordinal Measures of Association,” no. 53: 814–61.
Lancaster, H. O. 1982. “Measures and Indices of Dependence.” Encyclopedia of Statistical Sciences, no. Vol 2. Wiley, New York: 334–39.
Lehmann, E. L. 1966. “Some Concepts of Dependence.” Annals of the Mathematics Statistics, no. 37: 1137–53.
———. 1975. Nonparametrics: Statistical Methods Based on Ranks. Holden-Day, San Francisco.
Li, X., P. Mikusiński, H. Sherwood, and M. D. Taylor. 2002. “Some Integration-by-Parts Formulas Involving 2-Copulas.” Distributions with Given Marginals and Statistical Modelling, no. Kluwer, Dordrecht: 153–59.
Long, D., and R. Krzysztofowicz. 1996. “Geometry of a Correlation Coefficient Under a Copula,” no. 25: 1397–1404.
Mardia, K. V. 1970. Families of Bivariate Distributions. Hafner Publishing Company, Darien, Connecticut.
Nelsen, R. B. 1986. “Properties of a One-Parameter Family of Bivariate Distributions with Specified Marginals.” Communications in Statistics - Theory and Methods, no. 15: 3277–85.
———. 1992. “On Measures of Association as Measures of Positive Dependence,” no. 14: 269–74.
———. 1996. “Nonparametric Measures of Multivariate Association.” Institute of Mathematical Statistics, no. Hayward, CA: 223–32.
Nelsen, R. B., J. J. Quesada Molina, and J. A. Rodríguez Lallena. 1997. “Bivariate Copulas with Cubic Sections.” Journal of the Nonparametric Statistics, no. 7: 205–20.
Nelsen, R. B., J. J. Quesada Molina, J. A. Rodríguez Lallena, and M. Úbeda Flores. 2001. “Distribution Functions of Copulas: A Class of Bivariate Probability Integral Transforms.” Statistics and Probability Letters, no. 54: 277–82.
———. 2003. “Kendall Distribution Functions.” Statistics and Probability Letters, no. 65: 263–68.
Nelsen, R. B., and M. Úbeda Flores. 2004. “A Comparison of Bounds on Sets of Joint Distribution Functions Derived from Various Measures of Association.” Communications in Statistics - Theory and Methods, no. 33: 2299–2305.
Rényi, A. 1959. “On Measures of Dependence.” Acta Mathematica Academiae Scientiarum Hungarica, no. 10: 441–51.
Roberts, A., and D. E. Varberg. 1973. Convex Functions. Academic Press, New York.
Scarsini, M. 1984. “On Measures of Concordance.” Stochastica, no. 8: 201–18.
Schweizer, B., and E. F. Wolff. 1981. “On Nonparametric Measures of Dependence for Random Variables.” Annals of Statistics, no. 9: 879–85.
Shaked, M. 1977. “A Family of Concepts of Dependence for Bivariate Distributions.” Journal of the American Statistical Association.
Shea, G. A. 1983. “Hoeffding’s Lemma.” Kotz S, Johnson NL (Eds) Encyclopedia of Statistical Sciences, no. Vol 3. Wiley, New York: 648–49.
Spearman, C. 1904. “The Proof and Measurement of Association Between Two Things.” America Journal of Psychology, no. 15: 72–101.
Tong, Y. L. 1980. Probability Inequalities in Multivariate Distributions. Academic Press, New York.
Wolff, E. F. 1977. Measures of Dependence Derived from Copulas. Ph.D. thesis, University of Massachusetts, Amherst.
———. 1981. “N-Dimensional Measures of Dependence.” Stochastica, no. 4: 175–88.