Se tivermos uma coleção de copulas, então, como consequência do Teorema de Sklar, temos automaticamente um conjunto de distribuições bivariadas ou multivariadas com as distribuições marginais que quisermos. É evidente que isto pode ser útil em modelação e simulação. Além disso, em virtude do Teorema 1.8, a natureza não paramétrica da dependência entre duas variáveis aleatórias é expressa pela copula. Assim, o estudo dos conceitos e medidas de dependência não paramétrica é um estudo das propriedades das copulas, um tópico que será abordado no Capítulo 4.

Para este estudo, é vantajoso ter uma variedade de copulas à nossa disposição. Neste capítulo, apresentamos e ilustramos vários métodos gerais de construção de copulas bivariadas. No método de inversão, exploramos o Teorema de Sklar, através do Corolário 1.2, para produzir copulas diretamente a partir de funções de distribuição conjunta. Utilizando métodos geométricos, construímos copulas singulares cujo suporte se encontra num conjunto especificado e copulas com seções dadas por funções simples, tais como polinómios. Também discutimos três procedimentos de construção geometricamente motivados que produzem copulas conhecidas como somas ordinais, baralhamentos de M e somas convexas. No método algébrico, construímos copulas a partir de relações que envolvem as funções de distribuição bivariada e marginal - os nossos exemplos referem-se a casos em que a relação algébrica é um rácio.


2.1. O método de inversão


Na Seção 1.3, apresentámos vários exemplos simples deste procedimento: dada uma função de distribuição bivariada \(H\) com marginais contínuas \(F\) e \(G\), “inverter” através do Corolário 1.2 para obter uma copula: \[ \tag{2.1} C(u,\nu)=H\big(F^{(-1)}(u),G^{(-1)}(\nu) \big)\cdot \]

Com esta copula, podem ser construídas novas distribuições bivariadas com marginais arbitrárias, digamos \(F'\) e \(G'\), utilizando o Teorema de Sklar: \[ H'(x,y) = C(F'(x),G'(y))\cdot \] É claro que isto pode ser feito igualmente bem utilizando as funções de sobrevivência de (1.20), recorde-se que \(\widehat{C}\) é uma copula: \[ \tag{2.2} \widehat{C}(u,\nu)=\overline{H}\big( \overline{F}^{(-1)}(u),\overline{G}^{(-1)}(\nu)\big), \] onde \(\overline{F}^{(-1)}\) denota uma quase-inversa de \(\overline{F}\), definida de forma análoga a \(F^{(-1)}\) na Definição 1.8 ou, de forma equivalente, \(\overline{F}^{(-1)}(t) = F^{(-1)}(1-t)\).

Vamos agora ilustrar este procedimento para encontrar as copulas para o sistema Marshall-Olkin de distribuições exponenciais bivariadas e para a distribuição uniforme num círculo.


2.1.1. A distribuição exponencial bivariada Marshall-Olkin


A distribuição exponencial univariada desempenha um papel central na estatística matemática porque é a distribuição do tempo de espera em um processo de Poisson padrão. A seguinte distribuição exponencial bivariada, descrita pela primeira vez por Marshall and Olkin (1967a), Marshall and Olkin (1967b), desempenha um papel semelhante em um processo de Poisson bidimensional.

Considere um sistema de dois componentes, como uma aeronave de dois motores ou um computador de mesa com uma CPU (unidade central de processamento) e um coprocessador. Os componentes estão sujeitos a “choques”, que são sempre “fatais” para um ou ambos os componentes. Por exemplo, um dos dois motores da aeronave pode falhar ou uma explosão massiva pode destruir ambos os motores simultaneamente; ou a CPU ou o coprocessador podem falhar ou um surto de energia pode eliminar ambos simultaneamente. Sejam \(X\) e \(Y\) as vidas úteis dos componentes 1 e 2, respectivamente. Como é frequentemente o caso ao lidar com tempos de vida, encontraremos a função de sobrevivência \[ \overline{H}(x,y) = P(X>x,Y>y), \] a probabilidade de que o componente 1 sobreviva além do tempo \(x\) e que o componente 2 sobreviva além do tempo \(y\).

Os “choques” nos dois componentes são assumidos para formar três processos de Poisson independentes com parâmetros (positivos) \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\); dependendo se o choque mata apenas o componente 1, apenas o componente 2 ou ambos os componentes simultaneamente. Os tempos \(Z_1\) \(Z_2\) e \(Z_{12}\) de ocorrência desses três choques são variáveis aleatórias exponenciais independentes com parâmetros \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\), respectivamente.

Então \(X = \min\{Z_1 Z_{12}\}\), \(Y = \min\{ Z_2,Z_{12}\}\) e, portanto, para todos os \(x,y\geq 0\), \[ \begin{array}{rcl} \overline{H}(x,y) & = & P(Z_1>x) P(Z_2>y) P(Z_{12}>\max\{x,y\})\\[0.8em] & = & \exp\left(-\lambda_1 x-\lambda_2 y -\lambda_{12}\max\{x,y\} \right)\cdot \end{array} \]

As funções de sobrevivência marginal são \[ F(x) = \exp\big(-(\lambda_1+\lambda_{12})x\big) \qquad \mbox{e} \qquad G(y) = \exp\big(-(\lambda_2+\lambda_{12}) y\big) \] e, portanto, \(X\) e \(Y\) são variáveis aleatórias exponenciais com parâmetros \(\lambda_1 + \lambda_{12}\) e \(\lambda_2 +\lambda_{12}\), respectivamente.

Para encontrar a copula de sobrevivência \(\widehat{C}(u,v)\) para esta distribuição, primeiro expressamos \(H(x,y)\) em termos de \(F(x)\) e \(G(y)\), lembrando que \(H(x,y) = \widehat{C}(F(x),G(y))\). Para fazer isso, primeiro substituímos \(\max\{x,y\}\) por \(x + y – \min\{x,y\}\), de modo que \[ \begin{array}{rcl} \overline{H}(x,y) & = & \exp\big(-(\lambda_1+\lambda_{12})x-(\lambda_2+\lambda_{12})y +\lambda_{12}\min\{x,y\} \big)\\[0.8em] & = & \overline{F}(x)\overline{G}(y)\min\big\{\exp(\lambda_{12}x),\exp(\lambda_{12}y) \big\}\cdot \end{array} \]

Agora defina \(u=\overline{F}(x)\) e \(\nu=\overline{G}(y)\), e por conveniência sejam \[ \alpha = \lambda_{12}/(\lambda_1 + \lambda_{12}) \qquad \mbox{e} \qquad \beta = \lambda_{12}/(\lambda_2 + \lambda_{12})\cdot \] Então \(\exp(\lambda_{12} x) = u^{-\alpha}\) e \(\exp(\lambda_{12} y) = \nu^{-\beta}\), assim, usando (2.2), a copula de sobrevivência \(\widehat{C}\) é dada por \[ \widehat{C}(u,\nu)=u\, \nu\min\{u^{-\alpha},\nu^{-\beta}\}=\min\{\nu \, u^{1-\alpha},u\, \nu^{1-\beta}\}\cdot \]

Note que, como \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\) são positivos, \(\alpha\) e \(\beta\) satisfazem \(0 < \alpha,\beta < 1\). Portanto, as copulas de sobrevivência para a distribuição exponencial bivariada de Marshall-Olkin produzem uma família de copulas de dois parâmetros dada por \[ \tag{2.3} C_{\alpha,\beta}(u,\nu)=\min\{\nu \, u^{1-\alpha},u\, \nu^{1-\beta}\}=\left\{ \begin{array}{rcl} \nu \, u^{1-\alpha} & \mbox{caso} & u^{\alpha}\geq \nu^{\beta}\\[0.8em] u\, \nu^{1-\beta} & \mbox{caso} & u^\alpha \leq \nu^{\beta}\end{array}\right.\cdot \]

Esta família é conhecida como família Marshall-Olkin e família Cuadras-Augé Generalizada. Note que quando \(\alpha = \beta = \theta\), (2.3) reduz-se à família Cuadras-Augé no Exercício 5, correspondendo ao caso em que \(\lambda_1 = \lambda_2\), ou seja, o caso em que \(X\) e \(Y\) são permutáveis. O intervalo de parâmetros pode ser estendido para \(0\leq \alpha,\beta\leq 1\) (Exercício 38) e, de fato, \(C_{\alpha,0} = C_{0,\beta} = \Pi\) e \(C_{1,1} = M\).

É interessante notar que, embora as copulas nesta família tenham suporte total, para \(0 < \alpha,\beta < 1\), elas não são absolutamente contínuas nem singulares, mas têm componentes absolutamente contínuos e singulares \(A_{\alpha,\beta}\) e \(S_{\alpha,\beta}\), respectivamente. Porque \[ \dfrac{\partial^2}{\partial u\partial\nu} C_{\alpha,\beta}(u,\nu)=\left\{ \begin{array}{rcl} (1-\alpha)u^{-\alpha} & \mbox{caso} & u^{\alpha}\geq \nu^{\beta}\\[0.8em] (1-\beta)\nu^{-\beta} & \mbox{caso} & u^\alpha \leq \nu^{\beta}\end{array}\right., \] a massa do componente singular deve ser concentrada na curva \(u^\alpha = \nu^\beta\) em \({\bf I}^2\).

Avaliando a integral dupla em (1.17) obtém-se, para \(u^\alpha < \nu^\beta\), \[ A_{\alpha,\beta}(u,\nu)=u\, \nu^{1-\beta}-\dfrac{\alpha\beta}{\alpha+\beta-\alpha\beta}\big(u^\alpha \big)^{\dfrac{\alpha+\beta-\alpha\beta}{\alpha\beta}}, \] e um resultado semelhante quando \(u^\alpha > \nu^\beta\). Assim temos \[ A_{\alpha,\beta}(u,\nu)=C_{\alpha,\beta}(u,\nu)-\dfrac{\alpha\beta}{\alpha+\beta-\alpha\beta}\big(\min\{u^\alpha,\nu^\beta\} \big)^{\dfrac{\alpha+\beta-\alpha\beta}{\alpha\beta}}, \] e consequentemente \[ S_{\alpha,\beta}(u,\nu)=\dfrac{\alpha\beta}{\alpha+\beta-\alpha\beta}\big(\min\{u^\alpha,\nu^\beta\} \big)^{\dfrac{\alpha+\beta-\alpha\beta}{\alpha\beta}}=\int_0^{\min\{u^\alpha,\nu^\beta\}} t^{\dfrac{1}{\alpha}+\dfrac{1}{\beta}-2}\mbox{d} t\cdot \]

Portanto, a medida \(C_{\alpha,\beta}\) do componente singular de \(C_{\alpha,\beta}\) é dada por \(S_{\alpha,\beta}(1,1) = \alpha\beta/(\alpha + \beta - \alpha\beta)\). Em outras palavras, se \(U\) e \(V\) são variáveis aleatórias uniformes [0,1] cuja função de distribuição conjunta é a copula \(C_{\alpha,\beta}\), então \[ P\Big(U^\alpha = V^\beta\Big) = \dfrac{\alpha\beta}{\alpha + \beta - \alpha\beta}\cdot \]

Na Figura 2.1, temos gráficos de dispersão para duas simulações de copulas de Marshall-Olkin, cada uma usando 500 pares de pontos com o algoritmo do Exercício 31. O da esquerda é para \((\alpha,\beta) = (1/2,3/4)\), o da direita é para \((\alpha,\beta) = (1/3,1/4)\). O componente singular é claramente visível em cada caso.

Figura 2.1. Diagramas de dispersão para copulas de Marshall-Olkin, \((\alpha,\beta)=(1/2,3/4), (1/3,1/4)\).

A família de copulas Marshall-Olkin, dotada de marginais não exponenciais, tem sido empregada em uma variedade de aplicações. Veja Hutchinson and Lai (1990) para detalhes e referências.


2.1.2. A distribuição uniforme circular


Seja \((X,Y)\) as coordenadas de um ponto escolhido “aleatoriamente” no círculo unitário, onde por “aleatoriamente” queremos dizer que se as coordenadas polares do ponto são \((1,\Theta)\), então a variável aleatória \(\Theta\) é uniformemente distribuída no intervalo \([0,2\pi)\).

A função de distribuição conjunta \(H(x,y)\) de \(X\) e \(Y\) pode ser determinada fazendo uso do fato de que \(X = \cos(\Theta)\) e \(Y = \sin(\Theta)\). No entanto, é mais instrutivo usar uma abordagem geométrica. Mostraremos que para pontos \((x,y)\) dentro do quadrado \([-1,1]^2\), que contém o suporte desta distribuição, \(H\) é dado por \[ \tag{2.4} H(x,y)=\left\{ \begin{array}{ccl} \dfrac{3}{4}-\dfrac{\arccos(x)+\arccos(y)}{2\pi} & \mbox{caso} & x^2+y^2\leq 1\\[0.8em] 1-\dfrac{\arccos(x)+\arccos(y)}{\pi} & \mbox{caso} & x^2+y^2> 1, \, x,y\geq 0 \\[0.8em] 1-\dfrac{\arccos(y)}{\pi} & \mbox{caso} & x^2+y^2> 1, \, y<0\leq x \\[0.8em] 0 & \mbox{caso} & x^2+y^2> 1, \, x,y< 0 \\[0.8em]\end{array}\right. \] Claro, fora deste quadrado \(H\) será igual a zero ou a uma de suas marginais, que são encontradas abaixo.

Suponha que \((x,y)\) seja um ponto no ou dentro do círculo unitário. Então \(2\pi H(x,y)\) é o comprimento do arco daquela porção do círculo mostrada em branco dentro da região cinza na parte (a) da Figura 2.2. Usando a simetria do círculo e os arcos cujos comprimentos são dados por \(\arccos(x)\) e \(\arccos(y)\), temos \[ 2\pi H(x,y) = \dfrac{3}{2}\pi – \arccos(x) – \arccos(y)\cdot \]

Figura 2.2. Dois casos para a função de distribuição conjunta \(H(x,y)\) em (2.4)$.

Quando \((x,y)\) está fora do círculo, mas na porção do primeiro quadrante de \([-1,1]^2\), como mostrado na parte (b) da Figura 2.2, temos \(2\pi H(x,y) = 2\pi – 2\big(\arccos(x) + \arccos(y)\big)\). Os valores de \(H(x,y)\) para \((x,y)\) nas outras regiões podem ser encontrados de forma semelhante.

Usando uma derivação semelhante à acima, as marginais \(F(x)\) e \(G(y)\) são encontradas, para \(x\) e \(y\) em [–1,1] elas são dadas pelas funções na terceira e quarta linhas, respectivamente, na equação exibida (2.4) para \(H\).

Como agora será fácil expressar \(H(x,y)\) em termos de \(F(x)\) e \(G(y)\) e assim encontrar a copula, a única tarefa restante é encontrar a imagem do círculo \(x^2+y^2=1\) sob a transformação \(x=F^{(-1)}(u)\), \(y=G^{(-1)}(\nu)\). A substituição produz \[ \sin^2\big( \pi (u-1/2)\big) = \cos^2\big( \pi (\nu-1/2)\big)\cdot \] Mas se \(\alpha\) e \(\beta\) estiverem em \([–\pi/2,\pi/2]\) tal que \(\sin^2(\alpha)=\cos^2(\beta)\), então \(|\alpha|+|\beta|=\pi/2\).

Portanto, a imagem do círculo unitário, ou seja, o suporte da copula de \(X\) e \(Y\) é \[ |u-1/2|+|\nu-1/2|=1/2\cdot \] O gráfico deste conjunto é o quadrado cujos vértices são os pontos médios dos quatro lados de \({\bf I}^2\), conforme ilustrado na parte (a) da Figura 2.3. Assim, a copula das coordenadas \(X\) e \(Y\) de um ponto escolhido aleatoriamente no círculo unitário é dada por \[ \tag{2.5} C(u,\nu)=\left\{\begin{array}{cl} M(u,\nu), & \mbox{caso} \quad |u-\nu|>\dfrac{1}{2}\\[0.8em] W(u,\nu), & \mbox{caso} \quad |u+\nu-1|>\dfrac{1}{2}\\[0.8em] \dfrac{u+\nu}{2}-\dfrac{1}{4}, & \mbox{caso contrário}\end{array}\right.\cdot \]

Figura 2.3. A copula da distribuição circular uniforme e seu suporte.

Na parte (b) da Figura 2.3, escrevemos os valores de \(C\) em cada uma das cinco regiões de \({\bf I}^2\). Note que \(\partial^2 C/\partial u\partial\nu = 0\) quase em todos os lugares em \({\bf I}^2\), portanto \(C\) é singular. É fácil ver que \(C\) é simétrico e que também satisfaz a equação funcional \(C =\widehat{C}\) para simetria radial. De fato, ele satisfaz as equações funcionais no Exercício 30 para simetria conjunta, quando dotado de marginais simétricas, como é o caso da distribuição uniforme circular.

Concluímos esta seção com dois exemplos de distribuições singulares bivariadas construídas a partir desta copula.


Exemplo 2.1:

Uma distribuição bivariada singular cujas marginais são distribuições de Cauchy. Para obter esta função de distribuição conjunta, dotamos a copula \(C\) de (2.5) com marginais de Cauchy padrão: \(F(x) = 1/2 + \arctan(x)/\pi\) para todo \(x\) real e similarmente para \(G(y)\). A expressão para \(H\) é bem similar a (2.4). Entretanto, o suporte de \(H\) é a imagem do quadrado \(|u-1/2|+|\nu-1/2| = 1/2\) sob a transformação \(u = F(x)\), \(\nu = G(y)\). Isto produz \(xy = 1\), de modo que o suporte desta distribuição bivariada consiste nos quatro ramos das duas hipérboles retangulares \(xy = 1\) e \(xy = –1\).



Exemplo 2.2:

Uma distribuição bivariada singular cujas marginais são normais. Este exemplo é semelhante ao anterior, mas com \(F = G = \Phi\), a função de distribuição normal padrão. O suporte agora está nos quatro ramos da curva no plano dado por \[ |\Phi(x)-1/2|+|\Phi(y)-1/2|=1/2, \] que é semelhante em aparência a \(xy = 1\). Observe que, como as distribuições no Exemplo 10, temos uma distribuição bivariada com marginais normais padrão que não é uma normal bivariada padrão. Observe também que esta distribuição normal bivariada não possui uma densidade.



2.2. Métodos geométricos


Na seção anterior, ilustramos como o Teorema de Sklar poderia ser usado para inverter funções de distribuição conjunta para encontrar copulas. Nesta seção, retornaremos, em essência, à definição de uma copula, conforme dada no parágrafo seguinte à Definição 1.4, como nossa ferramenta para a construção.

Ou seja, sem referência a funções de distribuição ou variáveis aleatórias, construiremos funções 2-crescentes fundamentais em \({\bf I}^2\) com marginais uniformes, utilizando algumas informações de natureza geométrica, como uma descrição do suporte ou a forma dos gráficos de seções horizontais, verticais ou diagonais. Também examinaremos a construção de “soma ordinal”, em que os membros de um conjunto de copulas são dimensionados e transladados para construir uma nova copula; os “embaralhamentos de \(M\)”, que são construídos a partir do limite superior de Fréchet-Hoeffding; e a construção de “soma convexa”, um análogo contínuo de combinações lineares convexas.


2.2.1. Copulas singulares com suporte prescrito


Nesta seção ilustramos, com três exemplos, o uso da definição de uma copula para construir copulas singulares, cujo suporte está em um dado conjunto. Nos dois primeiros exemplos, o suporte consiste em segmentos de reta e no terceiro, arcos de círculos.


Exemplo 2.3:

Seja \(\theta\) em [0,1] e suponha que a massa de probabilidade \(\theta\) seja uniformemente distribuída no segmento de reta que une (0,0) a \((\theta,1)\), e a massa de probabilidade \(1-\theta\) seja uniformemente distribuída no segmento de reta que une \((\theta,1)\) a (1,0), conforme ilustrado na parte (a) da Figura 2.4.

Observe os dois casos limites: quando \(\theta = 1\), o suporte é a diagonal principal de \({\bf I}^2\) e a copula resultante é \(M\); e quando \(\theta = 0\), o suporte é a diagonal secundária de \({\bf I}^2\), resultando em \(W\). Ou seja, se deixarmos \(C_\theta\) denotar a copula com suporte, conforme ilustrado na parte (a) da Figura 2.4, então \(C_1 = M\) e \(C_0 = W\).

Figura 2.4. Calculando \(C_\theta\) no Exemplo 2.3.

Usando o fato de que o suporte de \(C_\theta\) está nos dois segmentos de reta, podemos agora encontrar uma expressão para \(C_\theta(u,\nu)\) calculando o volume \(C-\theta\) de retângulos apropriados em \({\bf I}^2\). Como o gráfico do suporte divide \({\bf I}^2\) em três regiões, temos três casos a considerar, dependendo de onde em \({\bf I}^2\) o ponto \((u,\nu)\) estiver.

Suponha que \(u\leq \theta \, \nu\), ou seja, \((u,\nu)\) esteja na região acima do primeiro segmento do suporte, conforme ilustrado na parte (b) da Figura 2.4. Então o \(C_\theta\)-volume do retângulo \([0,u]\times [0,\nu]\) é o mesmo que o \(C_\theta\)-volume do retângulo \([0,u]\times [0,1]\), e \(V_{C_\theta}\big([0,u]\times [0,1]\big) = u\) implica \(C_\theta(u,\nu) = u\).

Agora suponha que \(u >\theta \, \nu\) e \(u<1–(1-\theta)\nu\), ou seja, \((u,\nu)\) esteja na região abaixo de ambos os segmentos do suporte, conforme ilustrado na parte (c) da figura. Então \(C_\theta(u,\nu) = C_\theta(\theta\, \nu,\nu) = \theta\, \nu\), já que o \(C_\theta\)-volume do retângulo \([\theta \, \nu,u]\times [\theta,\nu]\) é zero.

Finalmente, suponha que \(u \geq 1–(1-\theta)\nu\), de modo que \((u,\nu)\) esteja na região acima do segundo segmento do suporte, conforme ilustrado na parte (d) da figura. Poderíamos proceder como fizemos nos dois primeiros casos, mas aqui será vantajoso notar que o \(C_\theta\)-volume de qualquer retângulo que não intercepte um dos segmentos de reta deve ser zero. Assim, o \(C_\theta\)-volume do retângulo \([u,1]\times [\nu,1]\) é zero e \(V_{C_\theta}\big([u,1]\times [\nu,1]) = 0\), o que implica \(C_\theta(u,\nu) = u + \nu – 1\).

Portanto, temos \[ \tag{2.6} C_\theta(u,\nu)=\left\{ \begin{array}{ccl} u, & \mbox{caso} & 0\leq u\leq \theta\, \nu\leq \theta \\[0.8em] \theta\, \nu, & \mbox{caso} & 0\leq \theta \, \nu<u<1-(1-\theta)\nu \\[0.8em] u+\nu-1, & \mbox{caso} & \theta\leq 1-(1-\theta)\nu \leq u\leq 1\end{array}\right.\cdot \]


Em vários exemplos anteriores (1.10, 1.16 e 2.2), vimos como copulas podem ser usadas para construir “contraexemplos”, isto é, exemplos para mostrar que certas afirmações não são válidas para todas as distribuições conjuntas. No Exercício 45, veremos como um membro da família de distribuições em (2.6) pode ser empregado de forma semelhante.


Exemplo 2.4:

Novamente, considere \(\theta\) estar em [0,1], e suponha que a massa de probabilidade seja distribuída uniformemente em dois segmentos de reta, um unindo \((0,\theta)\) a \((\theta,0)\), com massa \(\theta\) e o outro unindo \((\theta,1)\) a \((1,\theta)\), com massa \(1-\theta\), conforme ilustrado na parte (a) da Figura 2.5.

Figura 2.5. Calculando \(C_\theta\) no Exemplo 2.4.

Essas copulas têm uma interpretação probabilística interessante. Seja \(\oplus\) denotar “adição mod 1”, isto é, \(x\oplus y = x + y - [x + y]\), onde \([t]\) denota a parte inteira de \(t\). Se \(U\) e \(V\) são variáveis aleatórias uniformes (0,1) tais que \(U \oplus V = \theta\) com probabilidade 1, então o suporte da distribuição conjunta de \(U\) e \(V\) está nos segmentos de reta na parte (a) da Figura 2.5 e sua copula \(C_\theta\) é esta função de distribuição conjunta. De passagem, notamos os casos limites: \(C_0 = C_1 = W\).

Como no exemplo anterior, encontraremos uma expressão para \(C_\theta(u,\nu)\) considerando as regiões de \({\bf I}^2\) nas quais \((u,\nu)\) pode estar. Se \((u,\nu)\) estiver no retângulo \([0,\theta]\times [\theta,1]\), então \(V_{C_\theta}\big([0,u]\times [\theta,\nu]\big) = V_{C_\theta}\big([0,u]\times [0,1]\big) = u\), o que produz \(C_\theta (u,\nu) = u\). Da mesma forma, se \((u,\nu)\) estiver em \([\theta,1]\times [0,\theta]\), então \(C_\theta (u,\nu) = \nu\).

Agora, suponha que \((u,\nu)\) esteja em \([0,\theta]^2\), mas com \(u + \nu \geq \theta\), conforme ilustrado na parte (b) da figura. Como \(V_{C_\theta}\big([u,1]\times [\nu,1]\big) = 1-\theta\), segue-se que \(C_\theta(u,\nu) = u + \nu - \theta\). Se \((u,\nu)\) está em \([\theta,1]^2\) com \(u + \nu < 1+\theta\), como na parte (c) da figura, claramente \(C_\theta(u,\nu) =\theta\). Finalmente, para \((u,\nu)\) em \([\theta,1]^2\) com \(u + \nu\geq 1+\theta\), como na parte (d) da figura, \(V_{C_\theta}\big([u,1]\times [\nu,1]\big) = 0\) e, portanto, \(C_\theta (u,\nu) = u +\nu -1\).

Assim, \(C_\theta\) é dado por \[ \tag{2.7} C_\theta(u,\nu)=\left\{ \begin{array}{cl} \max\{0,u+\nu-\theta\}, & \mbox{caso} \quad (u,\nu)\in[0,\theta]^2 \\[0.8em] \max\{\theta,u+\nu-1\}, & \mbox{caso} \quad (u,\nu)\in (\theta,1]^2 \\[0.8em] M(u,\nu), & \mbox{caso contrário} \end{array}\right.\cdot \]



Exemplo 2.5:

É possível encontrar uma copula \(C\) cujo suporte consiste nos dois quartos de círculo mostrados na parte (a) da Figura 2.6? O quarto de círculo superior é dado por \(u^2 +\nu^2 = 2u\) e o inferior por \(u^2 +\nu^2 = 2\nu\).

Como o suporte é simétrico em relação à diagonal, construiremos uma copula simétrica, ou seja, um \(C\) para o qual \(C(u,\nu) = C(\nu,u)\). Como nos exemplos anteriores, pode-se mostrar que se \((u,\nu)\) estiver na região acima do arco superior, então \(C(u,\nu) = u\) e se \((u,\nu)\) estiver na região abaixo do arco inferior, então \(C(u,\nu) = \nu\). Portanto, para \(u^2 + \nu^2 > 2\min\{u,\nu\}\), temos \(C(u,\nu) = M(u,\nu)\).

Figura 2.6. Calculando \(C_\theta\) no Exemplo 2.5.

Agora, suponha que \(u\leq \nu\) e que \(u^2 + \nu^2\leq 2u\), de modo que \((u,\nu)\) esteja acima da diagonal principal, mas abaixo do arco superior, conforme mostrado na parte (b) da figura. Então \(V_C\big([u,\nu]\times [u,\nu]\big) = 0\), o que implica que \[ C(u,\nu) + C(\nu,u) = C(u,u) + C(\nu,\nu), \] ou equivalentemente, \(C(u,\nu) = (1/2)\Big(\delta(u)+\delta(\nu)\Big)\), onde \(\delta\) é a seção diagonal de \(C\).

Agora, considere a situação em que o ponto \((u,\nu)\) está no quarto de círculo superior de \(u^2 + \nu^2 = 2u\). Por continuidade, \[ u = C(u,\nu) = (1/2)\Big(\delta(u) + \delta(\nu)\Big) \] de modo que \(\delta(u) +\delta(\nu) = 2u = u^2 + \nu^2\). Uma solução para esta equação é dada por \(\delta(u) = u^2\), o que leva a \[ C(u,\nu) = \min\{u,\nu,(u^2 + \nu^2)/2\}\cdot \] Claro, é necessário aqui verificar se \(C\) é 2-crescente em todos os pontos de \({\bf I}^2\), o que é facilmente feito.


Uma palavra de cautela é necessária. O problema geral de determinar exatamente quais curvas em \({\bf I}^2\) podem servir como suporte de uma copula é difícil. Por exemplo, não existe copula cujo suporte consiste nas porções das parábolas \(\nu = u^2\) e \(u =\nu^2\) em \({\bf I}^2\). Veja Kamiński, Sherwood, and Taylor (1987/88); Sherwood and Taylor (1988) para uma discussão do problema geral.


2.2.2. Somas ordinais


A copula \(W\) para o limite inferior de Fréchet-Hoeffding é, claro, singular, e o suporte de \(W\) é a diagonal secundária de \({\bf I}^2\), o segmento de reta com declive –1 conectando (0,1) a (1,0). Agora, lembre-se do Exemplo 2.4 na seção anterior, no qual o suporte (veja a parte (a) da Figura. 2.5 ou 2.7) da copula consistia em dois segmentos de reta, cada um com declive –1.

Pode-se ver esse suporte como consistindo em duas cópias do suporte de \(W\), dimensionadas para se ajustarem aos subquadrados \([0,\theta]^2\) e \([\theta,1]^2\). Isso ilustra a ideia por trás da construção da soma ordinal.

Seja \(\{J_i\}\) uma partição de \({\bf I}\), isto é, uma coleção (possivelmente infinita) de intervalos fechados, não sobrepostos (exceto em pontos finais comuns) não degenerados \(J_i = [a_i,b_i]\) cuja união é \({\bf I}\). Seja \(\{C_i\}\) uma coleção de copulas com a mesma indexação que \(\{J_i\}\). Então a soma ordinal de \(\{C_i\}\) com relação a \(\{J_i\}\) é a copula \(C\) dada por \[ C(u,\nu)=\left\{ \begin{array}{cc} a_i+(b_i-c_i)C_i\big((u-a_i)/(b_i-a_i),(\nu-a_i)/(b_i-a_i)\big), & (u,\nu)\in J_i^2\\[0.8em] M(u,\nu), & \mbox{caso contrário}\end{array}\right.\cdot \]

Para obter o gráfico do suporte de uma soma ordinal, “cole” em \({\bf I}\) cópias apropriadamente dimensionadas das copulas \(C_i\) sobre os quadrados \(J_i^2\), conforme ilustrado na parte (b) da Figura 2.7. Observe que, como o suporte de uma soma ordinal está contido na parte sombreada do quadrado, uma soma ordinal deve concordar com \(M\) na parte não sombreada.

Figura 2.7. Somas ordinais.


Exemplo 2.6:

A soma ordinal de \(\{W,W\}\) com relação a \(\{[0,\theta],[\theta,1]\}\) é a copula \(C_\theta\) do Exemplo 2.4. Note que para \((u,\nu)\) em \([0,\theta]^2\), \[ \theta W\big(u/\theta,\nu/\theta \big) = \max\{0,u+\nu-\theta\}, \] e para \((u,\nu)\) em \([\theta,1]^2\), \[ \theta+(1-\theta)W\big((u-\theta)/(1-\theta),(\nu-\theta)/(1-\theta)\big)=\max\{\theta,u+\nu-1\}\cdot \]


O teorema a seguir caracteriza copulas que têm uma representação de soma ordinal.


Teorema 2.1:

Seja \(C\) uma copula. Então \(C\) é uma soma ordinal se, e somente se, existe um \(t\) em (0,1) tal que \(C(t,t) = t\).


Demonstração.

Suponha que exista um \(t\) em (0,1) tal que \(C(t,t) = t\). Sejam \(C_1\) e \(C_2\) as funções definidas por \(C_1(u,\nu) = C(tu, t\nu)/t\) e \(C_2(u,\nu) = \Big(C(t+(1-t)u,t+(1-t)\nu)-t\Big)/(1-t)\) para \(u,\nu\) em \({\bf I}\). Pode-se verificar que \(C_1\) e \(C_2\) são copulas, e que \(C\) é a soma ordinal de \(\{C_1,C2\}\) com relação a \(\{[0,t],[t,1]\}\). O inverso é trivial.


Se \(U\) e \(V\) forem variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é a copula \(C\), então as seguintes condições são equivalentes à condição \(C(t,t) = t\) para algum \(t\) em (0,1) no teorema acima:

  1. \(P\big(\max\{U,V\}\leq t\big) = t\) para algum \(t\) em (0,1);

  2. \(P\big(\min\{U ,V\}\leq t\big) = t\) para algum \(t\) em (0,1);

  3. \(P\big(\max\{U ,V\}\leq t\big) = P\big(\min\{U ,V\}\leq t\big)\) para algum \(t\) em (0,1);

  4. \(P\big((U-t)(V-t)\geq 0\big) = 1\) para algum \(t\) em (0,1).


2.2.3. Embaralhamentos de \(M\)


As copulas no Exemplo 2.4 e Exercício 46 têm suporte similar, cada uma é uma coleção de segmentos de linha com inclinação +1 ou –1, veja as Figuras 2.5(a) e 2.8(b). Entre as copulas cujos suportes compartilham essa propriedade estão os “shuffles de \(M\)” ou “Embaralhamento de \(M\)”.

O suporte de um shuffle de \(M\) pode ser descrito informalmente como segue (Mikusiński, Sherwood, and Taylor 1991-92):

A distribuição de massa para um embaralhamento de \(M\) pode ser obtida por

  1. colocar a massa para \(M\) em \({\bf I}^2\),

  2. cortar \({\bf I}^2\) verticalmente em um número finito de tiras,

  3. embaralhar as tiras com talvez algumas delas viradas em torno de seus eixos verticais de simetria e, então,

  4. remontá-las para formar o quadrado novamente.

A distribuição de massa resultante corresponderá a uma copula chamada embaralhamento de \(M\).

Formalmente, um embaralhamento de \(M\) é determinado por um inteiro positivo \(n\), uma partição finita \(\{J_i\} = \{J_1,J_2,\cdots,J_n\}\) de \({\bf I}\) em \(n\) subintervalos fechados, uma permutação \(\pi\) em \(S_n = \{1, 2,\cdots, n\}\) e uma função \(\omega \, : \, S_n \to \{–1,1\}\) onde \(\omega(i)\) é –1 ou 1 dependendo se a tira \(J_i\times {\bf I}\) estiver ou não invertida.

Denotamos permutações pelo vetor de imagens \((\pi(1),\pi(2),\cdots,\pi(n))\). O embaralhamento resultante de \(M\) pode então ser denotado de forma inequívoca por \[ M\big(n, \{J_i\},\pi,\omega\big), \] onde \(n\) é o número de componentes conectados em seu suporte.

Assumiremos que todos os embaralhamentos de \(M\) são dados nesta forma. Um embaralhamento de \(M\) com \(\omega=1\), ou seja, para o qual nenhuma das tiras é invertida, é um embaralhamento direto, e um embaralhamento de \(M\) com \(\omega=–1\) é chamado de embaralhamento invertido. Também escreveremos \({\bf I}_n\) para \(\{J_i\}\) quando for uma partição regular de \({\bf I}\), ou seja, quando a largura de cada subintervalo \(J_i\) for \(1/n\).


Exemplo 2.7:

A copula do Exercício 46 é o embaralhamento direto dado por \[ M\big(2,\{[0,1–\theta],[1–\theta,1]\},(2,1),1\big), \] e a copula do Exemplo 2.4 é o embaralhamento invertido de \(M\) dado por \[ M\big(2,\{[0,\theta],[\theta,1]\},(1,2),–1\big)\cdot \]


Embora embaralhamentos de \(M\) sejam objetos bastante simples, eles podem ser surpreendentemente úteis. Como exemplo, considere a seguinte questão: Qual é o “oposto” de independência, para variáveis aleatórias? Uma resposta possível é que \(X\) e \(Y\) devem ser tão “dependentes” quanto possível.

Dizemos que \(X\) e \(Y\) são mutuamente completamente dependentes (Lancaster 1963) se existe uma função um-para-um \(\varphi\) tal que \(P\big(Y =\varphi(X)\big) = 1\), ou seja, \(X\) e \(Y\) são quase certamente funções invertíveis uma da outra. Conforme observado em Kimeldorf and Sampson (1978), a dependência mútua completa implica previsibilidade completa de qualquer variável aleatória da outra; enquanto a independência implica imprevisibilidade completa.

Agora suponha que a copula de \(X\) e \(Y\) seja um embaralhamento de \(M\). Então, como o suporte de qualquer embaralhamento é o gráfico de uma função um-para-um, segue-se que \(X\) e \(Y\) são mutuamente completamente dependentes, o inverso, no entanto, não é verdadeiro, existem variáveis aleatórias mutuamente completamente dependentes com copulas mais complexas, veja o Exercício 53. Mas, como mostraremos agora, usando embaralhamentos de \(M\), existem variáveis aleatórias mutuamente completamente dependentes cujas funções de distribuição conjunta são arbitrariamente próximas da função de distribuição conjunta de variáveis aleatórias independentes com as mesmas marginais.

Conforme observado em Mikusiński, Sherwood, and Taylor (1991), isso implica que, na prática, o comportamento de qualquer par de variáveis aleatórias contínuas independentes pode ser aproximado tão de perto por um par de variáveis aleatórias contínuas mutuamente completamente dependentes que seria impossível, experimentalmente, distinguir um par do outro.

Em vista do Teorema de Sklar, precisamos apenas provar que a copula do produto \(\Pi\) pode ser aproximada arbitrariamente de perto por embaralhamentos de \(M\). A prova do teorema a seguir é adaptada daquelas em Kimeldorf and Sampson (1978); Mikusiński, Sherwood, and Taylor (1991).


Teorema 2.2:

Para qualquer \(\epsilon>0\), existe um embaralhamento de \(M\), denotado por \(C_\epsilon\), de maneira que \[ \sup_{u,\nu\in{\bf I}} \Big| C_\epsilon(u,\nu) - \Pi(u,\nu)\Big| < \epsilon\cdot \]


Demonstração.

Seja \(m\) um inteiro tal que \(m\geq 4/\epsilon\). Então, como consequência do Teorema 1.2, para qualquer copula \(C\) e para \(u,\nu,s,t\) em \({\bf I}\), \[ \Big| C(u,\nu)-C(s,t)\Big|<\dfrac{\epsilon}{2} \qquad \mbox{sempre que} \qquad |u-s|<\dfrac{1}{m} \quad \mbox{e} \quad |\nu-t|<\dfrac{1}{m}\cdot \]

O inteiro \(m\) agora determina \(C_\epsilon\), um embaralhamento de \(M\), da seguinte maneira: Seja \(n = m^2\) e seja \(\{J_i\}\) a partição regular \({\bf I}_n\) de \({\bf I}\) em \(n\) subintervalos de largura igual. Seja \(\pi\) a permutação de \(S_n\) dada por \[ \pi\big( m(j-1)+k\big) = m(k-1)+j, \] para \(k,j = 1,2,\cdots,m\). Seja \(\omega\) arbitrário e defina \(C_\epsilon = M\big(n,\{J_i\},\pi,\omega)\). O efeito dessa permutação é redistribuir a massa de probabilidade de \(M\) de modo que haja massa \(1/n\) em cada um dos \(n\) subquadrados de \({\bf I}^2\). A Figura 2.8 ilustra tal embaralhamento de \(M\) quando \(m = 3\), ou seja, \(n = 9\) em que \(\pi\) é a permutação \((1,4,7,2,5,8,3,6,9)\).

Figura 2.8. O exemplo de um embaralhamento de \(M\) na demonstração do Teorema 2.2.

Como \(V_{C_\epsilon}\big([0,p/m]\times [0,q/m]\big) = V_\Pi \big([0,p/m]\times [0,q/m]\big) = pq/n\) para \(p,q = 0,1,\cdots,m\), segue-se que \(C_\epsilon(p/m,q/m) = \Pi(p/m,q/m)\) para \(p,q = 0,1,\cdots,m\).

Agora seja \((u,v)\) um ponto em \({\bf I}^2\). Então existe um par \((p,q)\) de inteiros com \(p,q\in\{0,1,\cdots,m\}\) tal que \(|u-p/m| < 1/m\) e \(|\nu - q/m| < 1/m\). Portanto \[ \begin{array}{rcl} \Big| C_\epsilon(u,\nu)-\Pi(u,\nu) \Big| & \leq & \Big|C_\epsilon(u,\nu)-C_\epsilon(p/m,q/m)\Big| + \\[0.8em] & & \qquad + \Big| C_\epsilon(p/m,q/m)-\Pi(p/m,q/m)\Big| + \\[0.8em] & & \qquad \qquad +\Big| \Pi(p/m.q/m)-\Pi(u,\nu)\Big| \\[0.8em] & < & \dfrac{\epsilon}{2}+0+\dfrac{\epsilon}{2}=\epsilon\cdot \end{array} \]


O teorema anterior pode ser amplamente generalizado. A copula \(\Pi\) pode ser substituída por qualquer copula. Ou seja, se \(C\) for qualquer copula, então \(C\) pode ser aproximado arbitrariamente de perto — uniformemente — por certos embaralhamentos de \(M\).

A prova usa as mesmas permutações, mas com partições \(\{J_i\}\) de \({\bf I}\) nas quais as larguras dos subintervalos são determinadas pelos \(C\)-volumes de \(n\) ( = \(m^2\) ) sub-retângulos não sobrepostos de dimensão \((1/m)\times (1/m)\) em \({\bf I}^2\).

Para ser preciso, a largura de \(J_i\) é \[ V_C\big([(k-1)/m,k/m]\times [(j-1)/m,j/m]\big), \] onde \(i = m(j-1)+k\), \(k,j = 1,2,\cdot,m\). Veja Mikusiński, Sherwood, and Taylor (1991) para detalhes.

Como consequência, os embaralhamentos de \(M\) são densos no conjunto de todas as copulas dotadas da norma sup, como no Teorema 2.2. Assim, temos o fenômeno, aludido anteriormente, no qual o limite de uma sequência de variáveis aleatórias é a independência, mas em cada etapa do processo limitante, cada componente de um par de variáveis aleatórias na sequência é quase certamente uma função invertível da outra. Para uma discussão e referências, veja Vitale (1990).

Quando possuímos informações sobre os valores de uma copula em pontos no interior de \({\bf I}^2\), os limites de Fréchet-Hoeffding (1.6) podem frequentemente ser estreitados. No teorema a seguir, mostramos que se o valor de uma copula for especificado em um único ponto interior de \({\bf I}^2\), então os limites podem ser reduzidos a certos embaralhamentos de \(M\).

Na prova do teorema a seguir, denotamos \(x^+\) a parte positiva de \(x\), ou seja, \(x^+ = \max\{x,0\}\).


Teorema 2.3:

Seja \(C\) uma copula e suponha \(C(a,b) = \theta\), onde \((a,b)\) está em \((0,1)^2\) e \(\theta\) satisfaz \[ \max\{a+b-1,0\}\leq \theta\leq\min\{a,b\}\cdot \] Então \[ \tag{2.8} C_L(u,\nu)\leq C(u,\nu)\leq C_U(u,\nu), \] onde \(C_U\) e \(C_L\) são copulas dadas por \[ C_U = M\big(4,\{[0,\theta],[\theta,a],[a,a+b-\theta],[a+b-\theta,1]\},(1,3,2,4),1 \big) \] e \[ C_L=M\big(4,\{[0,a-\theta],[a-\theta,a],[a,1-b+\theta],[1-b+\theta,1]\},(4,2,3,1),-1 \big)\cdot \] Dado que \(C_L(a,b)=C_U(a,b)=\theta\), os limites são os melhores possíveis.


Demonstração.

Embora a notação de embaralhamento seja útil para ver a estrutura geométrica de \(C_U\) e \(C_L\), a notação da parte positiva será mais útil na demonstração. Os embaralhamentos \(C_U\) e \(C_L\) são dados explicitamente por \[ C_U=(u,\nu)=\min\left\{u,\nu,\theta+(u-a)^++(\nu-b)^+\right\} \] e \[ C_L=(u,\nu)=\max\left\{0,u+\nu-1,\theta-(a-u)^+-(b-\nu)^+\right\}, \] e os suportes de \(C_U\) e \(C_L\) são ilustrados na Figura 2.9, os segmentos de reta sólida com inclinação \(\pm 1\) para o caso \((a,b) = (0.6,0.3)\) e \(\theta = 0.2\).

Figura 2.9. Os suportes de (a) \(C_U\) e (b) \(C_L\) para uma copula \(C\) com \(C(a,b) = \theta\).

Se \(u\geq a\), então \(0\leq C(u,\nu)-C(a,\nu)\leq u-a\) e se \(u<a\), então \(0\leq C(a,\nu)-C(u,\nu)\leq a-u\); do que se segue que \[ -(a-u)^+ \leq C(u,\nu)-C(a,\nu)\leq (u-a)^+\cdot \] Similarmente, \(-(b-\nu)^+ \leq C(a,\nu)-C(a,b)\leq (\nu-b)^+\) e adicionando-os \[ -(a-u)^+-(b-\nu)^+ \leq C(u,\nu)-C(a,b)\leq (u-a)^++(\nu-b)^+\cdot \] Dado que \(C(a,b)=\theta\), temos \[ \theta-(a-u)^+-(b-\nu)^+ \leq C(u,\nu)\leq \theta+(u-a)^++(\nu-b)^+\cdot \] Incorporar os limites de Fréchet-Hoeffding produz (2.8). Observar que os embaralhamentos são copulas e que \(C_U(a,b) = C_L(a,b) = \theta\) completa a prova.


Para uma aplicação de embaralhamentos de \(M\) à distribuição conjunta de \((U,V)\) quando \(U + V\) e \(U - V\) são independentes, veja Dall’Aglio (1997a) e Dall’Aglio (1997b). Encerramos esta seção com a observação de que copulas diferentes de \(M\) podem ser “embaralhadas”, conforme ilustrado no exemplo a seguir de (Mikusiński et al. 1991).


Exemplo 2.8:

Seja \(C\) uma copula arbitrária, seja \(n = 2\), \(\omega=1\), seja \(\pi\) dado por (2,1) e, para \(\theta\) em (0,1), considere a partição \(\{[0,\theta],[\theta,1]\}\). Equivalentemente, seja a distribuição de massa para \(C\) ser fatiada verticalmente em \(u=\theta\) e as duas tiras resultantes trocadas. Denotemos por \(C_\theta\) esse “embaralhamento direto de \(C\)”, que também poderíamos denotar como \(C\big(2,\{[0,\theta],[\theta,1]\},(2,1),1\big)\).

Se \(U\) e \(V\) são variáveis aleatórias cuja função de distribuição conjunta é \(C\), então \(C_\theta\) é a função de distribuição conjunta do par \((U\oplus\theta,V)\) [Exercício 46].

Explicitamente, temos \[ \begin{array}{rcl} C_\theta(u,\nu) & = & P\Big(U\oplus\theta\leq u, V\leq \nu \Big) \\[0.8em] & = & \left\{\begin{array}{lc} P\Big( U\in (1-\theta,1-\theta+u], V\leq \nu\Big), & u\leq \theta\\[0.8em] P\Big( U\in(0,u-\theta]\bigcup (1-\theta,1), V\leq \nu\Big), & u>\theta \end{array}\right.\\[0.8em] & = & \left\{\begin{array}{lc} C(1-\theta+u,\nu) - C(1-\theta,\nu), & u\leq \theta\\[0.8em] \nu-C(1-\theta,\nu)+C(u-\theta,\nu), & u>\theta \end{array}\right.\\[0.8em] \end{array} \]



2.2.4. Somas convexas


No Exercício 1.3, foi mostrado que se \(\{C_\theta\}\) é uma coleção finita de copulas, então qualquer combinação linear convexa das copulas em \(\{C_\theta\}\) também é uma copula. Somas convexas são a extensão dessa ideia para coleções infinitas de copulas indexadas por um parâmetro contínuo \(\theta\)

Agora consideramos o parâmetro \(\theta\) como uma observação de uma variável aleatória contínua \(\Theta\) com função de distribuição \(\Lambda\). Se definirmos \[ \tag{2.9} C'(u,\nu)=\int_{{\bf R}} C_\theta(u,\nu)\mbox{d}\Lambda(\theta), \] então pode-se mostrar (Exercício 2.17) que \(C'\) é uma copula, que chamamos de soma convexa de \(\{C_\theta\}\) em relação a \(\Lambda\).

Neste contexto, \(\Lambda\) é frequentemente referido como a distribuição de mistura da família \(\{C_\theta\}\). Quando a função de distribuição de \(\Theta\) tem um parâmetro, digamos \(\alpha\), então temos \[ \tag{2.10} C'_\alpha(u,\nu)=\int_{{\bf R}} C_\theta(u,\nu)\mbox{d}\Lambda_\alpha(\theta)\cdot \]


Exemplo 2.9:

Seja \(\{C_\theta\}\) seja a família de copulas do Exercício 47, ou seja, seja \[ C_\theta(u,\nu)=\left\{\begin{array}{rc} M(u,\nu), & \mbox{caso} \quad |u-\nu|\geq \theta \\[0.8em] W(u,\nu), & \mbox{caso} \quad |u+\nu-1|\geq 1-\theta \\[0.8em] \dfrac{u+\nu-\theta}{2}, & \mbox{caso contrário} \end{array}\right., \] para \(\theta\in{\bf I}\) e seja a distribuição de mistura \(\Lambda_\alpha\) ser dada por \(\Lambda_\alpha(\theta) = \theta^\alpha\), onde \(\alpha > 0\). Usando (2.10) e avaliando a integral (sobre \({\bf I}\)) produz a família \(\{C'_\alpha\}\) de somas convexas de \(\{C_\theta\}\) dada por \[ C'_\alpha(u,\nu)=W(u,\nu)+\dfrac{1}{2(\alpha+1)}\left( \big(1-|u+\nu-1| \big)^{\alpha+1}-|u-\nu|^{\alpha+1}\right)\cdot \]

Note que \(C'_1 = \Pi\) e os limites \(C'_0 = M\), \(C'_\infty= W\). Pode-se mostrar, mas é tedioso, que cada \(C'_\alpha\) é absolutamente contínuo também, de modo que com essa distribuição de mistura, as somas convexas de uma família \(\{C-\theta\}\) de copulas singulares formam uma família abrangente \(\{C'_\alpha\}\) de copulas absolutamente contínuas. Para somas convexas de \(\{C_\theta\}\) com outras distribuições de mistura, veja Ferguson (1995).



Exemplo 2.10:

Seja \(C\) uma copula arbitrária, seja \(\theta\in (0,1)\) e \(\{C_\theta\}\) a família de “embaralhamentos de \(C\)” do Exemplo 2.8, ou seja, \[ \begin{array}{rcl} C_\theta(u,\nu) & = & \left\{\begin{array}{lc} C(1-\theta+u,\nu) - C(1-\theta,\nu), & u\leq \theta\\[0.8em] \nu-C(1-\theta,\nu)+C(u-\theta,\nu), & u>\theta \end{array}\right.\\[0.8em] \end{array}\cdot \]

Se a distribuição de mistura for uniforme em (0,1), ou seja, \(\Lambda = U_{(0,1)}\), então a integração elementar em (2.9) produz \[ \int_0^1 C_\theta(u,\nu)\mbox{d}\theta=u\, \nu=\Pi(u,\nu)\cdot \] Mikusiński, Sherwood, and Taylor (1991) descrevem esse resultado da seguinte forma: “Visualmente, pode-se ver isso imaginando que o quadrado unitário dotado da distribuição de massa para \(C\) é enrolado em torno de um cilindro circular de modo que as bordas esquerda e direita se encontram. Se girarmos o cilindro a uma taxa constante, veremos a distribuição uniforme associada a \(\Pi\).


Concluímos esta seção com o seguinte exemplo de Marshall and Olkin (1988) e Joe (1993), no qual somas convexas levam a copulas construídas a partir de transformadas de Laplace de funções de distribuição.


Exemplo 2.11:

A representação (2.9) pode ser estendida substituindo \(C_\theta\) por funções de distribuição bivariadas mais gerais. Por exemplo, defina \[ \tag{2.11} H(u,\nu)=\int_0^\infty \big(F(u)\big)^\theta\big(G(\nu))^\theta\mbox{d}\Lambda(\theta), \] isto é, seja \(H\) uma soma convexa (ou mistura) de potências de funções de distribuição \(F\) e \(G\), que não são as marginais de \(H\), de fato, neste ponto \(H\) pode nem mesmo ser uma função de distribuição conjunta, e assuma \(\Lambda(0) = 0\).

Seja \(\psi(t)\) a transformada de Laplace da distribuição de mistura \(\Lambda\), ou seja, seja \[ \psi(t)=\int_0^\infty e^{-\theta t}\mbox{d}\Lambda(\theta)\cdot \] Note que \(\psi(–t)\) é a função geradora de momento de \(\Lambda\). Agora sejam \(F\) e \(G\) as funções de distribuição dadas por \(F(u) = \exp\big(–\psi^{-1}(u)\big)\) e \(G(\nu) = \exp\big(-\psi^{-1}(\nu)\big)\) para \(u,v\in{\bf I}\), então (2.11) se torna \[ H(u,\nu)=\int_0^\infty \exp\left( -\theta\Big(\psi^{-1}(u)+\psi^{-1}(\nu) \Big)\right)\mbox{d}\Lambda(\theta) = \psi\Big(\psi^{-1}(u)+\psi^{-1}(\nu) \Big), \] que, como Marshall and Olkin (1988) mostram, é uma função de distribuição bivariada.

Além disso, como \(\psi^{-1}(1) = 0\), suas marginais são uniformes, de onde \(H\) é uma copula, isto é, quando \(\psi\) é a transformada de Laplace de uma função de distribuição, então a função \(C\) definida em \({\bf I}^2\) por \[ \tag{2.12} C(u,\nu)=\psi\Big(\psi^{-1}(u)+\psi^{-1}(\nu) \Big), \] é uma copula.

No entanto, o lado direito de (2.12) é uma copula para uma classe mais ampla de funções do que as transformadas de Laplace, essas copulas são chamadas de Arquimedianas e são o assunto do próximo capítulo.



2.2.5. Copulas com seções horizontais ou verticais prescritas


Quão “simples” pode ser a expressão para uma copula? Por exemplo, a copula produto \(\Pi(u,\nu) = u\, \nu\) é linear em \(u\) e \(\nu\), há outras copulas que são lineares em pelo menos uma variável? Há copulas “simples” dadas por polinômios de baixo grau em \(u\) ou \(\nu\)? Essas questões nos levam a um estudo das seções, lembre-se da Definição 1.5, de uma copula, ou seja, as funções \(u \mapsto C(u,\nu)\) e \(\nu \mapsto C(u,\nu)\). Essas seções têm várias interpretações estatísticas — uma das quais é a seguinte.

Quando \(U\) e \(V\) são variáveis aleatórias uniformes (0,1) com uma função de distribuição conjunta \(C\), as seções são proporcionais às funções de distribuição condicional. Por exemplo, para \(u_0\) em (0,1), \[ \tag{2.13} P\big(V\leq \nu \, | \, U\leq u_0 \big) = \dfrac{P\big(V\leq \nu, U\leq u_0 \big)}{P\big(U\leq u_0 \big)}=\dfrac{C(u_0,\nu)}{u_0}\cdot \]

Além disso, vários dos conceitos de dependência para variáveis aleatórias, que encontraremos no Capítulo 4, têm interpretações geométricas em termos de seções de sua copula.

Copulas com seções lineares

Começamos procurando por copulas que sejam lineares em uma variável, digamos \(u\), isto é, copulas da forma \[ C(u,\nu) = a(\nu)u + b(\nu) \] para todo \((u,\nu)\in{\bf I}^2\).

As funções \(a\) e \(b\) são prontamente encontradas a partir das condições de contorno (1.3) e (1.4). Assim \[ 0 = C(0,\nu) = b(\nu) \qquad \mbox{e} \qquad \nu = C(1,\nu) = a(\nu), \] de onde há apenas uma copula com seções verticais (ou horizontais) lineares, a saber, \(\Pi\).

Copulas com seções quadráticas

Existem copulas com seções quadráticas em, digamos, \(u\)? Se sim, então \(C\) será dado por \[ C(u,\nu) = a(\nu)u^2 + b(\nu)u + c(\nu) \] para funções apropriadas \(a\), \(b\) e \(c\).

Novamente empregando as condições de contorno, obtemos \[ 0 = C(0,\nu) = c(\nu) \qquad \mbox{e} \qquad \nu = C(1,\nu) = a(\nu) + b(\nu)\cdot \]

Se escolhemos \(a(\nu) = –\psi(\nu)\), então \(b(\nu) = \nu – a(\nu) = \nu + \psi(\nu)\) e temos \[ \tag{2.14} C(u,\nu)=u\, \nu +\psi(\nu)u(1-u), \] onde \(\psi\) é uma função tal que \(C\) é 2-crescente e \(\psi(0) =\psi(1) = 0\), de modo que \(C(u,0) = 0\) e \(C(u,1) = u\).


Exemplo 2.12:

A família de copulas Farlie-Gumbel-Morgenstern. Suponha que \(C\) seja simétrica e tenha seções quadráticas em \(u\). Então \(C\) satisfaz (2.14) e \[ C(u,\nu) = u\, \nu + \psi(u)\nu (1-\nu)\cdot \] Consequentemente, \(\psi(\nu) = \theta \nu(1 – \nu)\) para algum parâmetro \(\theta\), de modo que \[ \tag{2.15} C_\theta(u,\nu)=u\, \nu+\theta u\, \nu (1-u)(1-\nu)\cdot \]

O \(C_\theta\)-volume de um retângulo \([u_1,u_2]\times [\nu_1,\nu_2]\) é dado, após alguma simplificação, por \[ V_{C_\theta}\big([u_1,u_2]\times [\nu_1,\nu_2]\big)=(u_2-u_1)(\nu_2-\nu_1)\big(1+\theta(1-u_1-u_2)(1-\nu_1-\nu_2)\big)\cdot \] Como \((1-u_1-u_2)(1-\nu_1-\nu_2)\) está em [–1,1] para todos os \(u_1\), \(u_2\), \(\nu_1\), \(\nu_2\) em \({\bf I}\), segue-se que \(C_\theta\) é 2-crescente e, portanto, uma copula se, e somente se, \(\theta\) estiver em [–1,1].

Esta família é conhecida como família Farlie-Gumbel-Morgenstern, frequentemente abreviada como “FGM”, e contém como membros todas as copulas com seções quadráticas em \(u\) e \(\nu\).

A família foi discutida por Morgenstern (1956), Gumbel (1961) e Farlie (1960); no entanto, parece que a publicação mais antiga com a forma funcional básica (2.15) é Eyraud (1938).

Propriedades adicionais da família FGM são exploradas nos Exercícios 58 e 59. Principalmente por causa de sua forma analítica simples, as distribuições FGM têm sido amplamente usadas em modelagem, para testes de associação e no estudo da eficiência de procedimentos não paramétricos. Para listas extensas de aplicações e referências, veja Conway (1983); Hutchinson and Lai (1990).


No entanto, copulas FGM só podem modelar dependência relativamente fraca. Usando o algoritmo no Exercício 60, simulamos 500 observações dos dois membros extremos, \(\theta= 1\) e \(\theta = –1\), desta família (veja Exercício 58(b)). Os diagramas de dispersão aparecem na Figura 2.10.

Figura 2.10. Diagramas de dispersão para copulas FGM com \(\theta = 1\) (esquerda) e –1 (direita).

Agora retornamos à questão de escolher \(\psi\) para que a função \(C\) em (2.14) seja uma copula. As respostas são fornecidas pelo seguinte teorema e corolário, devido a Quesada Molina and Rodríguez Lallena (1995).


Teorema 2.4:

Seja \(\psi\) uma função com domínio \({\bf I}\) e seja \(C\) dado por (2.14) para \(u,\nu\in{\bf I}\). Então \(C\) é uma copula se, e somente se:

  1. \[ \tag{2.16} \psi(0)=\psi(1)=0; \]

  2. \(\psi(\nu)\) satisfaz a condição de Lipschitz \[ \tag{2.17} \Big| \psi(\nu_2)-\psi(\nu_1)\Big| \leq |\nu_2-\nu_2| \] para todo \(\nu_1,\nu_2\in{\bf I}\).

Além disso, \(C\) é absolutamente contínuo.


Demonstração.

Conforme observado anteriormente, as condições de contorno \(C(u,0) = 0\) e \(C(u,1) = u\) são equivalentes a (2.16). Além disso, \(C\) é 2-crescente se, e somente se, \[ V_C\big([u_1,u_2]\times [\nu_1,\nu_2] \big) = (u_2-u_1)\left( (\nu_2-\nu_1)\big(\psi(\nu_2)-\psi_1(\nu_1) \big)(1-u_1-u_2) \right) \geq 0\cdot \] Se \(u_1=u_2=\nu_2\) ou se \(u_1+u_2=1\), então \(V_C\big([u_1,u_2]\times [\nu_1,\nu_2] \big) =0\). Então para \(u_1<u_2\) e \(\nu_1<\nu_2\), temos \[ \dfrac{\psi(\nu_2)-\psi(\nu_1)}{\nu_2-\nu_1}\leq \dfrac{1}{u_2+u_1-1} \qquad \mbox{se} \qquad u_1+u_2>1, \] e \[ \dfrac{\psi(\nu_2)-\psi(\nu_1)}{\nu_2-\nu_1}\geq \dfrac{1}{u_2+u_1-1} \qquad \mbox{se} \qquad u_1+u_2<1\cdot \] No entanto, \[ \inf\left\{\dfrac{1}{u_1+u_2-1} \, \Big| \, 0\leq u_1\leq u_2\leq 1, u_1+u_2>1 \right\}=1 \] e \[ \sup\left\{\dfrac{1}{u_1+u_2-1} \, \Big| \, 0\leq u_1\leq u_2\leq 1, u_1+u_2<1 \right\}=-1 \] e portanto \(C\) é 2-crescente se, e somente se, \[ -1\leq \dfrac{\psi(\nu_2)-\psi(\nu_1)}{\nu_2-\nu_1}\leq 1 \] para \(\nu_1,\nu_2\in{\bf I}\) tal que \(\nu_1 <\nu_2\), o que é equivalente a (2.17). Por fim, a continuidade absoluta de \(C\) decorre da continuidade absoluta de \(\psi\), com \(|\psi'(\nu)\leq 1\) quase em todo lugar em \({\bf I}\), uma condição equivalente a (2.17).


Claro, copulas com seções quadráticas em \(\nu\) podem ser obtidas trocando os papéis de \(u\) e \(\nu\) em (2.14) e no Teorema 2.4. O corolário a seguir, cuja prova é deixada como um exercício, resume as propriedades salientes da função \(\psi\) para copulas com seções quadráticas.


Corolário 2.1:

A função \(C\) definida por (2.14) é uma copula se, e somente se, \(\psi\) satisfaz as três propriedades seguintes:

  1. \(\psi(\nu)\) é absolutamente contínuo em \({\bf I}\);

  2. \(|\psi'(\nu)|\leq 1\) quase em todo lugar de \({\bf I}\);

  3. \(|\psi(\nu)|\leq \min\{\nu,1-\nu\}\) para todo \(\nu\in{\bf I}\).

Além disso, \(C\) é absolutamente contínuo.


Demonstração.

Exercício.


Então, para construir copulas com seções quadráticas em \(u\), precisamos apenas escolher funções \(\psi\) que satisfaçam as três propriedades no Corolário 2.1, isto é, funções diferenciáveis contínuas por partes cujos gráficos estão na região sombreada na Figura 2.11 e cujas derivadas, onde existirem, não excedem 1 em valor absoluto.

Figura 2.11. Limites para o gráfico de \(\psi(\nu)\).

Um exemplo de tais funções é \[ \psi(\nu) = \theta \nu(1-\nu), \] para \(\theta\in [–1,1]\) e isso leva à família Farlie-Gumbel-Morgenstern apresentada no Exemplo 2.12.

Outros exemplos de funções que levam a famílias paramétricas de copulas são considerados no Exercício 2.25. Veja Quesada Molina and Rodríguez Lallena (1995) para uma discussão dessas famílias e mais exemplos.

Copulas com seções cúbicas

De forma similar, essas ideias podem ser estendidas para construir copulas cujas seções horizontais ou verticais são polinômios cúbicos. O desenvolvimento é bem similar ao das copulas com seções quadráticas, e portanto apresentaremos os resultados sem prova. As provas podem ser encontradas em Nelsen, Quesada Molina, and Rodríguez Lallena (1997).

Seja \(C\) uma copula com seções cúbicas em \(u\). Então \(C\) é dado por \[ C(u,\nu)= a(\nu) u^3 + b(\nu) u^2 + c(\nu) u + d(\nu) \] para funções apropriadas \(a\), \(b\), \(c\) e \(d\).

Novamente empregando as condições de contorno, obtemos \[ 0 = C(0,\nu) = d(\nu) \] e \[ \nu = C(1,\nu) = a(\nu) + b(\nu) + c(\nu), \] de modo que \(c(\nu) =\nu – a(\nu) – b(\nu)\).

Se considerarmos \(\alpha(\nu) = -a(\nu)- b(\nu)\) e \(\beta(\nu) = -2a(\nu) - b(\nu )\), então temos \[ \tag{2.17} C(u,\nu) = u\, \nu + u (1 - u )\Big(\alpha(\nu )(1 - u ) + \beta (\nu ) u\Big) \] onde \(\alpha\) e \(\beta\) são funções tais que \(\alpha(0) = \alpha(1) = \beta(0) = \beta (1) = 0\), de modo que \(C(u,0) = 0\) e \(C(u,1) = u\) e para as quais \(C\) é 2-crescente.

As condições necessárias para que \(C\) em (2.17) seja 2-crescente e, portanto uma copula, são dadas no próximo teorema, cuja prova é similar à do Teorema 2.4.


Teorema 2.5:

Sejam \(\alpha\) e \(\beta\) duas funções de \({\bf I}\) a \({\bf R}\) que satisfazem \(\alpha(0) = \alpha(1) = \beta (0) = \beta (1) = 0\) e seja \(C\) a função definida por (2.17). Então \(C\) é uma copula se, e somente se, para todo \(u_1\), \(u_2\), \(\nu_1\), \(\nu_ 2\) em \({\bf I}\) tal que \(u_1 < u_2\), \(\nu_1 < \nu_2\), temos \[ \Big( (1-u_1)^2+(1-u_2)^2+u_1u_2-1\Big)\dfrac{\alpha(\nu_2)-\alpha(\nu_1)}{\nu_2-\nu_1} -\\[0.8em] \qquad \qquad \qquad \qquad \qquad \Big( u_1^2+u_2^2+(1-u_1)(1-u_2)-1\Big)\dfrac{\beta(\nu_2)-\beta(\nu_1)}{\nu_2-\nu_1} \geq 1\cdot \]


Demonstração.

Ver Quesada Molina and Rodríguez Lallena (1995).


Mas esse teorema dificilmente é um resultado administrável. No entanto, o seguinte lema é facilmente estabelecido.


Lema 2.1:

Sejam \(\alpha\), \(\beta\) e \(C\) como no Teorema 2.5. Então \(C\) é uma opula se, e somente se:

  1. \(\alpha(\nu)\) e \(\beta(\nu)\) são absolutamente contínuas e

  2. \(1+\alpha_1(\nu)(1-4u+3u^2)+\beta'(\nu)(2u-3u^2)\geq 0\) para todo \(u\in{\bf I}\) e quase todo \(\nu\in{\bf I}\).


Demonstração.

Ver Quesada Molina and Rodríguez Lallena (1995).


Com este lema podemos estabelecer o seguinte teorema, que será usado na sequência para construir copulas com seções cúbicas. Os Teoremas 2.6 e 2.8 referem-se ambos a um conjunto \(S\), a união do conjunto de pontos no quadrado \([-1,2]\times [-2,1]\) e o conjunto de pontos dentro e sobre a elipse em \({\bf R}^2\) cuja equação é \[ x^2 - xy + y^2 - 3 x + 3 y = 0\cdot \] O gráfico de \(S\) é dado na Fig. 2.12.

Figura 2.12. O conjunto \(S\) nos Teorema 2.6 e 2.8.


Teorema 2.6:

Sejam \(\alpha\), \(\beta\) e \(C\) como no Teorema 2.5. Então \(C\) é uma opula se, e somente se:

  1. \(\alpha(\nu)\) e \(\beta(\nu)\) são absolutamente contínuas e

  2. para quase todo \(\nu\in{\bf I}\), o ponto \(\big(\alpha'(\nu),\beta'(\nu)\big)\) encontra-se em \(S\). Em outras palavras, para quase todo \(\nu\in{\bf I}\), ou \[ -1\leq \alpha'(\nu)\leq 2 \qquad \mbox{e} \qquad -2\leq \beta'(\nu)\leq 1 \] ou \[ \big(\alpha'(\nu) \big)^2-\alpha'(\nu)\beta'(\nu)+\big(\beta'(\nu)\big)^2-3\alpha'(\nu)+3\beta'(\nu)\leq 0\cdot \] Além disso, \(C\) é absolutamente contínuo.


Demonstração.

Ver Quesada Molina and Rodríguez Lallena (1995).


O próximo teorema fornece condições necessárias e suficientes para que uma copula com seções cúbicas seja associada a um par radialmente simétrico ou conjuntamente simétrico de variáveis aleatórias; lembre-se do Teorema 1.13 e do Exercício 29. Sua prova é deixada como um exercício.


Teorema 2.7:

Sejam \(\alpha\), \(\beta\) e \(C\) como no Teorema 2.5. Então

  1. A copula de sobrevivência \(\widehat{C}\) associada com \(C\) é dada por \[ \tag{2.18} \widehat{C}(u,\nu)=u\, \nu+u(1-u)\Big(\beta (1-\nu)(1-u)+\alpha(1-\nu)u \Big); \]

  2. \(C=\widehat{C}\), isto é, \(C\) satisfaz (1.25) se, e somente se, \[ \alpha(\nu)=\beta(1-\nu), \] para todo \(\nu\in{\bf I}\).

  3. \(C\) satisfaz as igualdades no Exercício 30 se, e somente se, \[ \alpha(\nu)=\beta(1-\nu)=-\alpha(1-\nu)=-\beta(\nu), \] para todo \(\nu\in{\bf I}\).


Demonstração.

Exercício.



Exemplo 2.13:

Distribuições Farlie-Gumbel-Morgenstern iteradas. Seja \(C_\theta\) um membro da família FGM (2.15). A função de sobrevivência conjunta, não a copula de sobrevivência, \[ \overline{C}_\theta (u,\nu) = 1- u - \nu + C_\theta ( u ,\nu ), \] associada a \(C_\theta\) é \[ \tag{2.18} \overline{C}_\theta (u,\nu) = (1- u)(1 - \nu)(1+\theta u\, \nu)\cdot \]

Observando que, tanto a função de distribuição conjunta \(u\, \nu\) quanto a função de sobrevivência conjunta \((1- u)(1-\nu )\) para independência aparecem nas expressões em (2.15) e (2.18), Kotz and Johnson (1977) “iteraram” a distribuição FGM substituindo o termo “ \((1- u)(1- \nu )\)” em (2.18) por \(C_\theta\), mas com um novo parâmetro \(\varphi\), em (2.18) para obter a FGM iterada de Kotz e Johnson: \[ \tag{2.19} C_{\theta,\varphi}(u,\nu)=u\, \nu+\theta u\, \nu(1-u)(1-\nu)(1+\varphi u\, \nu)\cdot \]

Quando \(C_{\theta,\varphi}\) é escrito na forma (2.17), \(\alpha(\nu) = \theta\nu(1-\nu )\) e \(\beta(\nu) = \theta\nu(1-\nu)(1+ \varphi\nu )\). Em uma linha semelhante, Lin (1987) iterou o FGM substituindo o termo “\(u\, \nu\)” em (2.18) por \(C_\theta\) de (2.15), mas novamente com um novo parâmetro, digamos \(\varphi\), e então resolveu para \(C_{\theta,\varphi}\) para obter o FGM iterado de Lin: \[ \tag{2.20} C_{\theta,\varphi}(u,\nu)=u\, \nu+\theta u\, \nu(1-u)(1-\nu)\big(1+\varphi(1-u)(1-\nu)\big), \] que também são as copulas de sobrevivência para a família Kotz and Johnson dadas por (2.19).


No Exemplo 2.12, vimos que a família Farlie-Gumbel-Morgenstern (2.15) tinha como membros todas as copulas com seções quadráticas em \(u\) e \(\nu\). Observe que as copulas FGM iteradas no Exemplo 2.13 têm seções cúbicas em \(u\) e \(\nu\). Agora examinamos a extensão dessas famílias para encontrar todas as copulas com seções cúbicas em \(u\) e \(\nu\). Ou seja, buscamos copulas \(C(u,\nu)\) que podem ser escritas tanto como (2.17) quanto como \[ \tag{2.21} C(u,\nu)=u\, \nu +\nu(1-\nu)\Big(\gamma(u)(1-\nu)+\chi(u)\nu \Big), \] onde \(\alpha\), \(\beta\), \(\gamma\) e \(\chi\) satisfazem as hipóteses do Teorema 2.5.


Teorema 2.8:

Suponha que \(C\) tenha seções cúbicas em \(u\) e \(\nu\), ou seja, \(C\) é dado por (2.17) e (2.21). Então \[ \tag{2.22} C(u,\nu)=u\, \nu +u\, \nu(1-u)(1-\nu)\Big(A_1\nu(1-u)+ \\[0.8em] \qquad \qquad \qquad \qquad \qquad \qquad A_2(1-\nu)(1-u)+B_1u\, \nu+B_2u(1-\nu)\Big), \] onde \(A_1\), \(A_2\), \(B_1\), \(B_2\) são constantes reais tais que, os pontos \((A_2,A_1)\), \((B_1,B_2)\), \((B_1,A_1)\) e \((A_2,B_2)\) todos estão em \(S\).


Demonstração.

Como consequência do Teorema 2.6.


Note que quando \(C\) tem seções cúbicas em \(u\) e \(\nu\), as funções \(\alpha\), \(\beta\), \(\gamma\) e \(\chi\) em (2.17) e (2.21) são dadas por \[ \begin{array}{rcl} \alpha(\nu) & = & \nu(1-\nu)\big( A_1\nu +A_2(1-\nu)\big);\\[0.8em] \beta(\nu) & = & \nu(1-\nu)\big( B_1\nu + B_2(1-\nu)\big);\\[0.8em] \gamma(u) & = & u(1-u)\big( B_1u+A_2(1-u)\big);\\[0.8em] \chi(u) & = & u(1-u)\big(B_1u+A_1(1-u)\big)\cdot \end{array} \]


Exemplo 2.14:

As duas famílias de copulas FGM iteradas no Exemplo 2.13 têm seções cúbicas em \(u\) e \(\nu\) e, portanto, podem ser escritas na forma (2.21).

Para a família de copulas Johnson and Kotz dada por (2.19), \[ A_1 = A_2 = B_2 = \theta \qquad \mbox{q} \qquad B_1 = \theta(1+\varphi); \] e para a família de copulas Lin em (2.20), \[ A_1 = B_1 = B_2 = \theta \qquad \mbox{e} \qquad A_2 =\theta(1+\varphi)\cdot \] Se deixarmos escolhemos \(\xi=\theta(1+\varphi)\), então os intervalos dos parâmetros \(\theta\) e \(\xi\) para ambas as famílias são: \[ \theta\in[-1,1] \qquad \mbox{e} \qquad -1-\theta\leq \xi\leq \dfrac{\Big(3-\theta+(9-6\theta-3\theta^2) \Big)^{1/2}}{2}\cdot \]



Corolário 2.2:

Suponha que \(C\) tenha seções cúbicas em \(u\) e \(\nu\), ou seja, \(C\) é dado por (2.22) no Teorema 2.8. Então

  1. \(C\) é simétrica, ou seja, \(C(u,\nu)=C(\nu,u)\) se, e somente se, \(A_1=B_2\);

  2. \(C=\widehat{C}\), isto é, \(C\) satisfaz (1.25) se, e somente se, \(A_1=B_2\) e \(A_2=B_1\);

  3. \(C\) satisfaz as equações no Exercício 30 se, e somente se, \(A_1=B_2=-A_2=-B_1\).


Demonstração.

Como consequência imediata do Teorema 2.7.


Os próximos dois exemplos mostram a facilidade com que os procedimentos descritos nos teoremas acima podem ser usados para construir famílias de copulas.


Exemplo 2.15:

Se definirmos \(A_1 = B_2 = a – b\) e \(A_2 = B_1 = a + b\) em (2.22), obtemos uma família de copulas de dois parâmetros, cada uma das quais é simétrica e satisfaz a equação funcional \(C =\widehat{C}\) associada à simetria radial.

Do Teorema 2.8, as constantes \(a\) e \(b\) satisfazem \(b\in [–1,2]\); \(|a|\leq b + 1\) para \(b\in [–1,1/2]\) e \(|a|\leq (6b-3b^2)^{1/2}\) para \(b\in [1/2,2]\).

Explicitamente, temos \[ \tag{2.23} C_{a,b}(u,\nu)=u\, \nu+u\, \nu(1-u)(1-\nu)\big( a+b(1-2u)(1-2\nu)\big) \] para \(u,\nu\in{\bf I}\).

Várias subfamílias são de interesse.

  1. Quando \(b = 0\), as copulas dadas por (2.23) são a família FGM.

  2. Quando \(a = 3\theta\) e \(b = 5\theta^2\), obtemos uma família construída por Sarmanov (1974) a partir dos dois primeiros polinômios de Legendre. Aplicações desta família são discutidas em Lee (1996).

  3. Quando \(a = 0\), temos uma família na qual cada copula satisfaz as equações funcionais no Exercício 30, associadas à simetria articular.

Subfamílias adicionais de (2.23) são consideradas no Exercícios 78 e no Exercício 9 do Capítulo 3.



Exemplo 2.16:

O Teorema 2.8 também pode ser usado para construir famílias de copulas assimétricas. Por exemplo, se definirmos \[ A_1 = A_2 = a \qquad \mbox{e} \qquad B_1 = B_2 = b \] para \(–1\leq a,b\leq 1\); \(a\neq b\), obtemos uma família de copulas assimétricas com seções cúbicas em \(u\), mas seções quadráticas em \(\nu\), quando \(a = b\), temos a família FGM) — veja Exercício 2.30.

Se definirmos \(A_1 = a\), \(A_2 = B_1 = B_2 = b\) onde \(|b|\leq 1\), \[ \dfrac{b-3-(9+ 6b-3b^2)^{1/2}}{2}\leq a\leq 1, \] \(a\neq b\), então temos a seguinte família de copulas assimétricas com seções cúbicas em \(u\) e \(\nu\): \[ C(u,\nu)=u\, \nu +u\, \nu(1-u)(1-\nu)\big( (a-b)\nu (1-u)+b\big)\cdot \]


As ideias desenvolvidas nesta seção podem ser estendidas para investigar copulas cujas seções horizontais ou verticais são polinômios de grau superior ou outras funções simples, como hipérboles (ver Exercício 2.26).


2.2.6. Copulas com seções diagonais prescritas


Agora nos voltamos para a construção de copulas tendo uma seção diagonal prescrita. Lembre-se das Seções 1.1 e 1.5 que a seção diagonal de uma copula \(C\) é a função \(\delta_C\) de \({\bf I}\) para \({\bf I}\) definida por \(\delta_C (t) = C(t,t)\), e que a seção diagonal do dual de \(C\) (veja a Seção 1.5) é a função \(\widetilde{\delta}_C(t)\) de \({\bf I}\) para \({\bf I}\) dada por \(\widetilde{\delta}_C(t) = 2t – \delta_C (t)\).

Seções diagonais são de interesse porque se \(X\) e \(Y\) são variáveis aleatórias com uma função de distribuição comum \(F\) e copula \(C\), então as funções de distribuição das estatísticas de ordem \(\max\{X,Y\}\) e \(\min\{X,Y\}\) são \(\delta_C\big(F(t)\big)\) e \(\widetilde{\delta}_C\big(F(t)\big)\), respectivamente [veja os Exercícios 1.16 e 1.24].

Como consequência do Teorema 1.2 e do Exercício 1.8, segue-se que se \(\delta\) é a secção diagonal de uma copula, então \[ \tag{2.24a} \delta(1)=1; \] \[ \tag{2.24b} 0\leq \delta(t_2)-\delta(t_1)\leq 2(t_2-t_1), \] para todo \(t_1,t_2\in{\bf I}\) com \(t_1\leq t_2\) e \[ \tag{2.24c} \delta(t)\leq t \qquad \forall t\in{\bf I}\cdot \]

Nesta seção, qualquer função \(\delta \ : \, {\bf I} \to {\bf I}\) que satisfaça (2.24a)-(2.24c) será chamada simplesmente de diagonal, enquanto nos referiremos à função \(\delta_C (t) = C(t,t)\) como a seção diagonal de \(C\).

Agora suponha que \(\delta\) seja qualquer diagonal. Existe uma copula \(C\) cuja seção diagonal é \(\delta\)? A resposta é fornecida no seguinte teorema.


Teorema 2.9:

Seja \(\delta\) uma diagonal qualquer e seja \[ \tag{2.25} C(u,\nu)=\min\Big\{u,\nu,(1/2)\big( \delta(u)+\delta(\nu)\big)\Big\}\cdot \] Então \(C\) é uma copula cuja seção diagonal é \(\delta\).


Demonstração.

Esta demonstração, que é uma verificação um tanto técnica, mas direta, do fato de que \(C\) é 2-crescente, pode ser encontrada em Fredricks and Nelsen (1997a).


Copulas da forma dada por \(C(u,v)\) em (2.25) são chamadas de copulas diagonais.


Exemplo 2.17:

  1. Seja \(\delta(t) = t\), a seção diagonal de \(M\). A copula diagonal construída a partir desta diagonal é \(M\), como deve ser, pois a única copula cuja seção diagonal é a identidade é \(M\), veja Exercício 1.8.

  2. Seja \(\delta(t) = \max\{0,2t–1\}\), a seção diagonal de \(W\). A copula diagonal construída a partir desta diagonal não é \(W\), mas sim o embaralhamento de \(M\) dado por \(M(2, {\bf I}_2,(2,1),1)\), ou seja, a copula \(C_{1/2}\) do Exercício 2.9.

  3. Seja \(\delta(t) = t^2\), a seção diagonal de \(\Pi\). A copula diagonal construída a partir desta diagonal é a copula singular do Exemplo 2.5 que atribui a massa de probabilidade a dois quartos de círculo em \({\bf I}^2\) com raio 1, um centrado em (0,1) e um centrado em (1,0).


Como uma copula diagonal é construída a partir de uma função que pode ser a função de distribuição do máximo de duas variáveis aleatórias, é natural suspeitar que copulas diagonais estejam relacionadas a distribuições conjuntas de estatísticas de ordem. Esse é realmente o caso.


Teorema 2.10:

Suponha que \(X\) e \(Y\) sejam variáveis aleatórias contínuas com copula \(C\) e uma função de distribuição marginal comum. Então a função de distribuição conjunta de \(\max\{X,Y\}\) e \(\min\{X,Y\}\) é o limite superior de Fréchet-Hoeffding se, e somente se, \(C\) for uma copula diagonal.


Demonstração.

Em virtude do Teorema de Sklar, precisamos apenas provar o seguinte: Suponha que \(U\) e \(V\) sejam variáveis aleatórias cuja função de distribuição conjunta seja a copula \(C\). Então, a função de distribuição conjunta de \(\max\{U,V\}\) e \(\min\{U,V\}\) é o limite superior de Fréchet-Hoeffding se, e somente se, \(C\) for uma copula diagonal.

Seja \(H(z,\widetilde{z})\) a função de distribuição conjunta de \(Z = \max\{U,V\}\) e \(\widetilde{Z} = \min\{U,V\}\). Lembre-se de que \(\delta_C\) e \(\widetilde{\delta}_C\) são as funções de distribuição de \(Z\) e \(\widetilde{Z}\), respectivamente. Então, definindo \(\delta_C = \delta\), \[ \begin{array}{rcl} H(z,\widetilde{z}) & = & P\big( \max\{U,V\}\leq z, \min\{U,V\}\leq \widetilde{z}\big) \\[0.8em] & = & \left\{ \begin{array}{ccl} \delta(z), & \mbox{caso} & z\leq \widetilde{z}\\[0.8em] C(z,\widetilde{z})+C(\widetilde{z},z)-\delta(\widetilde{z}) & \mbox{caso} & z\geq \widetilde{z}\end{array}\right. \\[0.8em] \end{array}\cdot \] Suponha que \(C\) seja uma copula diagonal, ou seja, \[ C(u,v) = \min\left\{u,\nu,(1/2)\big(\delta(u)+\delta(\nu)\big)\right\}\cdot \] Então se \(z\geq \widetilde{z}\), \[ H(z,\widetilde{z}) = 2C(z,\widetilde{z}) – \delta(\widetilde{z}) =\min\big\{2\widetilde{z}–\delta(\widetilde{z}),\delta(z)\big\} = \min\big\{\widetilde{\delta}(\widetilde{z}),\delta(z)\big\}\cdot \] Se \(z < \widetilde{z}\), \(\delta(z) =\min\big\{\widetilde{\delta}(\widetilde{z}),\delta(z)\big\}\) já que \(\delta(z)\leq \delta(\widetilde{z})\leq \widetilde{z}\leq \widetilde{\delta}(\widetilde{z})\). Assim \[ H(z,\widetilde{z}) = M\big(\widetilde{\delta}(\widetilde{z}),\delta(z)\big)\cdot \]

Na direção oposta, assuma \(H(z,\widetilde{z}) = M\big(\widetilde{\delta}(\widetilde{z}),\delta(z)\big)\), onde novamente \(\delta\) denota a seção diagonal de \(C\). Assumindo que \(C\) seja simétrica, mostraremos que \(C\) deve ser uma copula diagonal, para a prova no caso geral, veja Fredricks and Nelsen (1997b). Se \(z > \widetilde{z}\), então \[ 2C(z,\widetilde{z}) – \delta(\widetilde{z}) = M\big(\widetilde{\delta}(\widetilde{z}),\delta(z)\big)=\min\big\{2\widehat{z}-{\delta}(\widetilde{z}),\delta(z)\big\}, \] portanto \(C(z,\widetilde{z})=\min\big\{\widetilde{z},(1/2)\big(\delta(z)+\delta(\widetilde{z}) \big) \big\}\). Agora, pela simetria assumida, quando \(z\leq \widetilde{z}\), obtemos que \(C(z,\widetilde{z}) = \min\big\{z,(1/2)\big(\delta(z)+\delta(\widetilde{z}) \big) \big\}\). Assim \[ C(u,\nu) = \min\big\{u,\nu,(1/2)\big(\delta(u)+\delta(\nu) \big) \big\}, \] para todo \(u,\nu\in{\bf I}^2\).


Existem outras maneiras de construir copulas com seções diagonais prescritas. Por exemplo, Bertino (1977) mostra que se \(\delta\) é uma diagonal então \[ B_\delta(u,\nu)=\left\{ \begin{array}{rcl} \displaystyle u-\inf_{u\leq t\leq \nu} \big(t-\delta(t) \big), & \mbox{caso} & u\leq \nu,\\[0.8em] \displaystyle \nu-\inf_{u\leq t\leq \nu} \big(t-\delta(t) \big), & \mbox{caso} & \nu\leq u,\\[0.8em]\end{array}\right. \] é uma copula cuja seção diagonal é \(\delta\).

Para um tratamento completo das propriedades das copulas de Bertino, incluindo uma caracterização semelhante ao Teorema 2.10, veja Fredricks and Nelsen (2002).


2.3. Métodos algébricos


Nesta seção, construiremos duas famílias bem conhecidas de copulas, as famílias Plackett e Ali-Mikhail-Haq, para ilustrar o procedimento para usar uma relação algébrica entre a função de distribuição conjunta e suas marginais univariadas para encontrar copulas.

Em ambos os casos, a relação algébrica diz respeito a uma razão de “chances” — no primeiro caso, generalizamos tabelas de contingência \(2\times 2\), e no segundo caso, trabalhamos com razões de chances de sobrevivência.


2.3.1. Distribuições de Plackett


Uma medida de “associação” ou “dependência” em tabelas de contingência \(2\times 2\) é a razão de produto cruzado ou razão de chances, que denotaremos por \(\theta\). Para ilustrar, considere a tabela \(2\times 2\) na Figura 2.13. Por conveniência, rotulamos as categorias para cada variável como “baixa” e “alta”.

\[ \begin{array}{cc} & \mbox{variável coluna} \\[0.8em] \mbox{variável linha} & \begin{array}{c|c|c|c} & \mbox{baixa} & \mbox{alta} & \\[0.8em]\hline \mbox{baixa} & a & b & a+b \\[0.8em]\hline \mbox{alta} & c & d & c+d \\[0.8em]\hline & a+c & b+d & \\ \end{array} \end{array} \] Figura 2.13: Uma tabela de contingência \(2\times 2\).

Se as contagens observadas nas quatro categorias forem \(a\), \(b\), \(c\) e \(d\), como mostrado, então a razão de produto cruzado é o número real positivo \(\theta\) dado por \(\theta = ad/bc\).

O valor \(\theta = 1\) corresponde à independência, pois quando \(\theta = 1\), \(ad = bc\), o que implica que cada entrada “observada” (como \(a\)) é igual ao seu “valor esperado” sob independência, aqui \((a+b)(a+c)/n\), onde \(n=a+b+c+d\).

Quando \(\theta > 1\), as observações são concentradas nas células “baixo-baixo” e “alto-alto”; e quando \(\theta\) está entre 0 e 1, as observações são concentradas nas células “baixo-alto” e “alto-baixo”.

Com álgebra simples, \(\theta\) é a razão das “chances” para as linhas dada a coluna, ou equivalentemente, para as colunas dada a linha: \[ \theta=\dfrac{a/c}{b/d}=\dfrac{\dfrac{a}{a+c}\Big/ \dfrac{c}{a+c}}{\dfrac{d}{b+d}\Big/ \dfrac{d}{b+d}} \qquad \mbox{e} \qquad \theta=\dfrac{a/b}{c/d}=\dfrac{\dfrac{a}{a+b}\Big/ \dfrac{b}{a+b}}{\dfrac{c}{c+d}\Big/ \dfrac{d}{c+d}}\cdot \] Observe também que as contagens \(a\), \(b\), \(c\) e \(d\) em \(\theta = ad/bc\) poderiam muito bem ser substituídas pelas proporções \(a/n\), \(b/n\), \(c/n\) e \(d/n\).

A família de distribuições bivariadas de Plackett (Plackett 1965) surge de uma extensão dessa ideia para distribuições bivariadas com marginais contínuas. Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com uma função de distribuição conjunta \(H\) e marginais \(F\) e \(G\), respectivamente.

Sejam \(x\) e \(y\) quaisquer par de números reais, e sejam as categorias “baixa” e “alta” para a variável de coluna correspondentes aos eventos “\(\{X\leq x\}\)” e “\(\{X > x\}\)”, respectivamente, e similarmente para a variável de linha. Em seguida, substitua os números \(a\), \(b\), \(c\) e \(d\) em \(\theta = ad/bc\) pelas probabilidades \(H(x,y)\), \(F(x) – H(x,y)\), \(G(y) – H(x,y)\) e \(1 – F(x) – G(y) + H(x,y)\), respectivamente, para obter \[ \tag{2.26} \theta=\dfrac{H(x,y)\big(1-F(x)-G(y)+H(x,y)\big)}{\big(F(x)-H(x,y) \big)\big(G(y)-H(x,y) \big)}\cdot \]

Para a maioria das distribuições conjuntas, \(\theta\) será uma função do ponto \((x,y)\) — mas há distribuições conjuntas para as quais \(\theta\) é uma constante? Como mostraremos, a resposta é sim — e esses são os membros da família de Plackett, que também são conhecidos como distribuições de razão cruzada global constante, ou distribuições do tipo contingência, ou tipo \(C\).

Usando as transformações de probabilidade \(u = F(x)\), \(\nu = G(y)\) e o Teorema de Sklar, podemos reescrever (2.26) como (onde \(C\) é a copula de \(X\) e \(Y\)) \[ \theta=\dfrac{C(u,\nu)\big( 1-u-\nu+C(u,\nu)\big)}{\big(u-C(u,\nu)\big)\big(\nu-C(u,\nu) \big)}, \] e resolver para \(C\).

Quando \(\theta = 1\), a única solução é \(C = \Pi\); quando \(\theta\neq 1\), a eliminação de frações produz uma quadrática em \(C\), cujas raízes são \[ \tag{2.27} C(u,\nu)=\dfrac{\big(1+(\theta-1)(u+ \nu) \big)\pm \sqrt{\big(1+(\theta-1)(u+\nu) \big)^2-4u\, \nu\theta(\theta-1) }}{2(\theta-1)}\cdot \] Seguindo Mardia (1970), mostraremos agora que, para \(\theta > 0\) mas \(\theta\neq 1\), a raiz em (2.27) com o sinal “+” precedendo o radical nunca é uma copula; enquanto a raiz com o sinal “–” sempre é.

As marginais das duas raízes em (2.27) são \[ C(u,0)=\dfrac{\big(1+(\theta-1)u \big)\pm \big(1+(\theta-1)u \big)}{2(\theta-1)} \quad \mbox{e} \quad C(u,1)=\dfrac{\big(\theta+(\theta-1)u \big)\pm \big(\theta+(\theta-1)u \big)}{2(\theta-1)} \] e, portanto, \(\theta > 0\), \(\theta\neq 1\) a raiz com o sinal “+” nunca satisfaz as condições de contorno, e a raiz com o sinal “–” sempre o faz.

Agora, considere \(C_\theta\) denotar a raiz em (2.27) com o sinal “–”. Para mostrar que \(C_\theta\) é 2-crescente, basta mostrar que \[ \dfrac{\partial^2 C_\theta(u,\nu)}{\partial u\partial\nu}\geq 0 \qquad \mbox{e} \qquad C_\theta(u,\nu)=\int_0^u \int_0^\nu \dfrac{\partial^2 C_\theta(s,t)}{\partial s\partial t}\mbox{d}t\mbox{d}s \] para \((u,\nu)\in{\bf I}^2\).

Isto é tedioso, mas elementar — mas também mostra que cada uma dessas copulas é absolutamente contínua. Assim, temos a família de copulas de Plackett: para \(\theta > 0\), \(\theta\neq 1\), \[ \tag{2.28a} C_\theta(u,\nu)=\dfrac{\big(1+(\theta-1)(u+\nu) \big)- \sqrt{\big(1+(\theta-1)(u+\nu) \big)^2-4u\, \nu \theta(\theta-1)}}{2(\theta-1)}, \] e para \(\theta=1\) \[ \tag{2.28b} C_1(u,\nu)=u\, \nu\cdot \]

Além de serem absolutamente contínuas, essas copulas formam uma família abrangente, como a família Fréchet no Exercício 1.4, porque os limites de \(C-\theta\) quando \(\theta\) vai para 0 e para \(\infty\) são os limites \(W\) e \(M\), respectivamente. Veja o Exercício 74.

Portanto, não é surpreendente que as copulas da família Plackett tenham sido amplamente utilizadas tanto na modelagem quanto como alternativas à normal bivariada para estudos de poder e robustez de vários testes estatísticos, ver Conway (1986) e Hutchinson and Lai (1990).

Na Figura 2.14, temos gráficos de dispersão para duas simulações de copulas de Plackett, cada uma usando o algoritmo do Exercício 2.38 com 500 observações. A da esquerda é para \(\theta = 20\), a da direita é para \(\theta = 0.02\).

Figura 2.14. Gráficos de dispersão para copulas de Plackett com \(\theta=20\) (esquerda) e \(\theta=0.02\) (direita).

Para ajustar uma copula de Plackett a um conjunto de dados, deve-se estimar o parâmetro \(\theta\) a partir dos dados. Um estimador é o estimador de máxima verossimilhança, que deve ser encontrado numericamente. Uma alternativa atraente é a razão de produto cruzado observada \(\widetilde{\theta} = ad/bc\), onde \(a\), \(b\), \(c\) e \(d\) são as frequências observadas nos quatro quadrantes determinados por linhas em \({\bf R}^2\) paralelas aos eixos através de um ponto \((p,q)\).

Uma escolha ótima para \((p,q)\) é o vetor mediano da amostra, que minimiza a variância assintótica de \(\widetilde{\theta}\) (Mardia 1970). Neste caso, \[ F(p) = G(q) = 1/2 \qquad \mbox{e} \qquad \widetilde{\theta} = 4 m^2 (1 - 2 m )^2, \] onde \(m\) é a frequência observada de observações nas quais nenhuma variável excede seu valor mediano.

Veja (Mardia 1970) para detalhes e para um estimador eficiente que é assintoticamente equivalente ao estimador de máxima verossimilhança.


2.3.2. Distribuições de Ali-Mikhail-Haq


Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\) e funções de distribuição marginais \(F\) e \(G\), respectivamente.

Quando \(X\) e \(Y\) denotam tempos de vida de objetos, como organismos ou componentes eletrônicos, é natural falar sobre as “chances de sobrevivência”, isto é, para \(X\), digamos, a razão \(P(X>x)/P(X\leq x)\) da probabilidade de sobrevivência além do tempo \(x\) para a probabilidade de falha antes do tempo \(x\), ou seja, \(\overline{F}(x)/F(x) = \big(1-F(x)\big)/F(x)\). De forma análoga, podemos definir uma razão de chances de sobrevivência bivariada \[ P\big(\{X>x\}\cup \{Y>y\}\big)/P\big(\{X\leq x\} \cap \{Y\leq y\}\big) \] ou \[ \big(1-H(x,y)\big)/H(x,y)\cdot \]


Exemplo 2.18:

Suponha que \(X\) e \(Y\) tenham como distribuição conjunta a logística bivariada de Gumbel do Exercício 1.12, ou seja, para todos os \(x,y\in{\bf R}\), \[ H(x,y)=\big( 1+e^{-x}+e^{-1}\big)^{-1}\cdot \]

Então a razão de chances de sobrevivência bivariada é \[ (1 – H(x,y))/H(x,y) = e^{-x} +e^{-y}\cdot \] Mas \(F(x) = (1 + e^{-x} )^{-1}\), de modo que \((1 – F(x))/F(x) = e^{-x}\); e similarmente para \(Y\). Segue-se que \[ \tag{2.29} \dfrac{1-H(x,y)}{H(x,y)}=\dfrac{1-F(x)}{F(x)}+\dfrac{1-G(y)}{G(y)}\cdot \]



Exemplo 2.19:

Suponha que \(X\) e \(Y\) sejam variáveis aleatórias independentes com função de distribuição conjunta \(H\) e funções de distribuição marginal \(F\) e \(G\), respectivamente, onde \(H(x,y) = F(x)G(y)\).

Como \(\Big(1+\big(1-F(x)\big)/F(x) \Big)^{-1}\) e similarmente para \(G\) e \(H\); obtemos \[ \tag{2.30} \dfrac{1-H(x,y)}{H(x,y)}=\dfrac{1-F(x)}{F(x)}+\dfrac{1-G(y)}{G(y)}+\dfrac{1-F(x)}{F(x)}\times\dfrac{1-G(y)}{G(y)}\cdot \]

Observando a semelhança entre (2.29) e (2.30), Ali, Mikhail, and Haq (1978) propuseram a busca por distribuições bivariadas para as quais as razões de probabilidade de sobrevivência satisfizessem \[ \tag{2.31} \dfrac{1-H(x,y)}{H(x,y)}=\dfrac{1-F(x)}{F(x)}+\dfrac{1-G(y)}{G(y)}+(1-\theta)\dfrac{1-F(x)}{F(x)}\times\dfrac{1-G(y)}{G(y)}, \] para alguma constante \(\theta\). Note que quando \(\theta = 1\), (2.31) reduz-se a (2.29); e quando \(\theta = 0\), (2.31) reduz-se ao caso de independência (2.30).

Assim como na derivação da família Plackett na seção anterior, usamos as transformações de probabilidade \(u = F(x)\), \(\nu = G(y)\) e o Teorema de Sklar para reescrever (2.31) como, onde \(C_\theta\) denota a copula de \(X\) e \(Y\), \[ \dfrac{1-C_\theta(u,\nu)}{C_\theta(u,\nu)}=\dfrac{1-u}{u}+\dfrac{1-\nu}{\nu}+(1-\theta)\dfrac{1-u}{u}\times \dfrac{1-\nu}{\nu}\cdot \]

A resolução para \(C_\theta(u,\nu)\) produz a família Ali-Mikhail-Haq: para \(\theta\) em [–1,1], \[ \tag{2.32} C_\theta(u,\nu)=\dfrac{u\, \nu}{1-\theta(1-u)(1-\nu)}\cdot \]

A tarefa continua sendo verificar que quando \(\theta\) está em [–1,1], \(_\theta\) dado por (2.32) é de fato uma copula. Pode-se verificar que as condições de contorno (1.3) e (1.4) são válidas. Ter \(C_\theta(u,\nu)\geq 0\) em \({\bf I}^2\) reuqer \(\theta\leq 1\) e para ter \(\partial^2 C_\theta(u,\nu)/\partial u\partial \nu\geq 0\) requer \(\theta\ge -1\). Finalmente, \[ C_\theta(u,\nu)=\int_0^u \int_0^\nu \dfrac{\partial^2 C_\theta(s,t)}{\partial s\partial t}\mbox{d}s \mbox{d}t, \] para \((u,\nu)\in{\bf I}^2\), de modo que as copulas na família Ali-Mikhail-Haq são absolutamente contínuas.

Conforme observado no Exercício 1.32, essa família é positivamente ordenada.


Na Figura 2.15 temos diagramas de dispersão para simulações dos dois membros extremos da família Ali-Mikhail-Haq, \(\theta= 1\) e \(\theta = –1\), usando 500 observações e o algoritmo do Exercício 2.42. Essas copulas são semelhantes às copulas FGM, pois podem modelar apenas dependência fraca.

Figura 2.15. Diagramas de dispersão para copulas Ali-Mikhail-Haq \(\theta=1\) (esquerda) e \(\theta=-1\) (direita).


2.3.3. O método de transformação de copula


Nesta seção, apresentamos uma técnica para transformar uma copula em outra. Ela é motivada pelo seguinte problema. Sejam \((X_1,Y_1)\), \((X_2,Y_2)\), \(\cdots\), \((X_n,Y_n)\) pares independentes e identicamente distribuídos de variáveis aleatórias com função de distribuição conjunta comum \(H\), copula \(C\) e marginais \(F\) (de \(X_i\)) e \(G\) (de \(Y_i\)).

Como os “máximos componentes-wise” \(X_{(n)} =\max\{X_i\}\) e \(Y_{(n)} = \max\{Y_i\}\) são distribuídos? Respondemos a essa pergunta encontrando a função de distribuição \(H_{(n)}\) e a copula \(C_{(n)}\) de \(X_{(n)}\) e \(Y_{(n)}\).


Teorema 2.11:

Se \(C\) for uma copula e \(n\) um inteiro positivo, então a função \[ \tag{2.33} C_{(n)}(u,\nu)=C^n(u^{1/n},\nu^{1/n}) \qquad \forall \, u,\nu\in{\bf I} \] é uma copula. Além disso, se \((X_i,Y_i)\), \(i = 1,2,\cdots,n\) forem pares independentes e identicamente distribuídos de variáveis aleatórias com copula \(C\), então \(C_{(n)}\) é a copula de \(X_{(n)}=\max\{X_i\}\) e \(Y_{(n)}=\max\{Y_i\}\).


Demonstração.

Primeiro encontramos as funções de distribuição \(F_{(n)}\) e \(G_{(n)}\) de \(X_{(n)}\) e \(Y_{(n)}\), respectivamente. Dado que, \[ P\big(X_{(n)}\leq x \big)=\prod_{i=1}^n P(X_1\leq x) = P^n(X_i\leq x) \] e similarmente para \(Y_{(n)}\), temos que \(F_{(n)}=F^n(x)\) e \(G_{(n)}=G^n(y)\). Então \[ \begin{array}{rcl} H_{(n)}(x,y) & = & \displaystyle P\big( X_{(n)}\leq x, Y_{(n)}\leq y\big) = \prod_{i=1}^n P\big(X_i\leq x, Y_i\leq y \big)\\[0.8em] & = & H^n(x,y) = C^n\big( F(x),G(y)\big) \\[0.8em] & = & C^n\big( F_{(n)}^{1/n}(x),G_{(n)}^{1/n}(y)\big), \end{array} \] do qual obtemos (2.33).



Exemplo 2.20:

  1. Se \(X_i\) e \(Y_i\) são independentes, então também o são \(X_{(n)}\) e \(Y_{(n)}\), pois \[ \Pi_{(n)} (u,\nu) = \big( u^{1/n}\, \nu^{1/n}\big)^n= u\, \nu\cdot \]

  2. Se \(X_i\) e \(Y_i\) são comonotônicas, então também o são \(X_{(n)}\) e \(Y_{(n)}\), pois \[ M_{(n)} (u,\nu) = \big(\min\{ u^{1/n},\nu^{1/n}\big)^n = M(u,\nu)\cdot \]

  3. No entanto, acontece que se \(X_i\) e \(Y_i\) são contramonotônicas, então \(X_{(n)}\) e \(Y_{(n)}\) não são contramonotônicas para qualquer \(n\geq 2\), pois \[ W_{(n)}(u,\nu)=\max\left\{u^{1/n}+\nu^{1/n}-1,0\right\}, \] que não é \(W\), mas sim um membro da família dada por (3.1) no próximo capítulo, \(\theta= -1/n\).

  4. Seja \(C\) a copula dada por (1.14), ou seja, \[ C(u,\nu) = u\, \nu( u + \nu - u\, \nu )\cdot \] Então \[ C_{(n)}(u,\nu) = \dfrac{u\, \nu}{\big( u^{1/n} + \nu^{1/n} - u^{1/n}\nu^{1/n}\big)^n}, \] também um membro da família dada por (3.1), mas com \(\theta=1/n\).



Exemplo 2.21:

Seja \(C\) um membro da família Marshall-Olkin (2.3), ou seja, \[ C(u,\nu) = \min\left\{ u^{1-\alpha}\nu, u\, v^{1-\beta}\right\}\cdot \] Um cálculo simples mostra que \(C_{(n)} = C\) para qualquer inteiro positivo \(n\).


Os exemplos acima motivam a seguinte definição.


Definição 2.1.

Uma copula \(C\) é max-estável se para cada número real positivo \(r\) e todos \(u,\nu\in{\bf I}\), \[ \tag{2.34} C(u,\nu)=C^r\big(u^{1/r},\nu^{1/r}\big)\cdot \]



Exemplo 2.22:

seja \(C_\theta\) um membro da família Gumbel-Hougaard (Exercício 13), ou seja, \[ C_\theta(u,\nu)=\exp\left( -\Big(\big(-\ln(u))^\theta+\big(-\ln(\nu)\big)^\theta \Big)^{1/\theta}\right), \] para \(\theta\geq 1\).

Um cálculo simples mostra que \(C_\theta^r ( u^{1/r},\nu^{1/r} ) = C_\theta (u,\nu)\) e, portanto, cada membro da família Gumbel-Hougaard é max-estável.


A transformação em (2.33) acima é um caso especial de um resultado mais geral Klement, Mesiar, and Pap (2004), que facilita a construção de copulas a partir de uma dada copula e certas funções crescentes em \({\bf I}\).


Teorema 2.12:

Seja \(\gamma \, : \,[0,1]\times [0,1]\) contínua e estritamente crescente com \(\gamma(0) = 0\), \(\gamma(1) = 1\) e seja \(\gamma^{-1}\) a inversa de \(g\). Para uma copula arbitrária \(C\), defina a função \(C_\gamma\) por \[ \tag{2.35} C_\gamma(u,\nu)=\gamma^{-1}\Big( C\big(\gamma(u),\gamma(\nu) \big)\Big) \] para todo \(u,\nu\in [0.1]\). Então, \(C_\gamma\) é uma copula se, e somente se, \(\gamma\) é côncava, equivalentemente, \(\gamma^{-1}\) é convexa.


Demonstração.

  1. Suponha que \(\gamma^{-1}\) seja convexa. Como \(\gamma(0)= 0 = \gamma^{-1} (0)\) e \(\gamma (1) = 1 = g^{-1} (1)\), segue-se prontamente que \(C_\gamma\) satisfaz as condições de contorno para uma copula. Agora, sejam \(u_1\), \(u_2\), \(\nu_1\) e \(\nu_2\) em \({\bf I}\) tal que \(u_1\leq u_2\), \(\nu_1\leq \nu_2\) e seja \(a = C\big(\gamma(u_1),\gamma(\nu_1)\big)\), \(b = C\big(\gamma(u_1),\gamma(\nu_2)\big)\), \(c = C\big(\gamma(u_2),\gamma(\nu_1)\big)\) e \(d = C\big(\gamma(u_2),\gamma(\nu_2)\big)\). Como \(C\) é uma copula, \(a – b –c + d\geq 0\) e devemos mostrar que \(\gamma^{-1}(a) – \gamma^{-1}(b) – \gamma^{-1}(c) + \gamma^{-1}(d)\geq 0\). Note que tanto \(b\) quanto \(c\) estão entre \(a\) e \(d\), de modo que \(a\leq b\leq c\leq d\) ou \(a\leq c\leq b\leq d\). Se os quatro números \(a\), \(b\), \(c\), \(d\) são distintos, então como \(\gamma^{-1}\) é convexa (Roberts and Varberg 1973), \[ \dfrac{\gamma^{-1}(b)-\gamma^{-1}(a)}{b-a}\leq \dfrac{\gamma^{-1}(d)-\gamma^{-1}(c)}{d-c}\cdot \] Mas \(b – a\leq d – c\), e portanto \(\gamma^{-1}(b)–\gamma^{-1}(a)\leq \gamma^{-1}(d)–\gamma^{-1}(c)\), conforme necessário. Se dois ou três dos números \(a\), \(b\), \(c\), \(d\) coincidirem, a prova é similar.

  2. Suponha que \(C_\gamma\) seja uma copula para qualquer copula \(C\). Para qualquer \(a,d\in [0,1]\) tal que \(a\leq d\), seja \(u_1 = \nu_1 = \gamma^{-1}\big((a+1)/2\big)\) e \(u_2 = \nu_2 =\gamma^{-1}\big((d+1)/2\big)\) de modo que \[ \gamma(u_1 ) = \gamma (\nu_1 ) = ( a +1)/2 \qquad \mbox{e} \qquad \gamma ( u_2 ) = \gamma (\nu_2 ) =( d +1)/2\cdot \] Definindo \(C = W\) em (2.35), temos \[ W\big(\gamma ( u_1 ),\gamma ( \nu_1 )\big) = a, \quad W\big(\gamma ( u_1 ),\gamma (\nu_2 )\big) = W\big(\gamma ( u_2 ),\gamma (\nu_1 )\big) = ( a + d )/2 \] e \(W\big(\gamma ( u_2 ),\gamma (\nu_2 ) ) = d\). Como \(W_g\) é uma copula, \(\gamma^{-1}(a) – 2\gamma^{-1}\big(( a + d )/2\big) + \gamma^{-1}(d)\geq 0\), ou seja, \(\gamma^{-1}\) é médio-convexa. Mas funções médio-convexas contínuas devem ser convexas (Roberts and Varberg 1973), o que completa a prova.



O teorema permanece verdadeiro se a hipótese \(\gamma (0) = 0\) for descartada e \(\gamma^{-1}(t)\) for definido em \({\bf I}\) como um quase-inverso de \(\gamma\). Veja Durante (2006) para detalhes.


2.3.4. Copulas de valor extremo


Sejam \((X_1,Y_1),(X_2,Y_2),\cdots,(X_n,Y_n)\) pares independentes e identicamente distribuídos de variáveis aleatórias com uma copula comum \(C\) e novamente seja \(C_{(n)}\) a copula dos máximos componentes \(X_{(n)} = \max\{X_i\}\) e \(Y_{(n)} = \max\{ Y_i \}\).

Do Teorema 2.11 sabemos que \(C_{(n)}(u,\nu) = C^n\big(u^{1/n},\nu^{1/n}\big)\) para \(u,\nu\in{\bf I}\). O limite da sequência \(\{C_{(n)}\}\) leva à noção de uma copula de valor extremo.


Definição 2.2.

Uma copula \(C_*\) é uma copula de valor extremo se existir uma copula \(C\) tal que \[ \tag{2.35} C_*(u,\nu)=\lim_{n\to\infty} C^n \big(u^{1/n},\nu^{1/n}\big) \] para \(u,\nu\in{\bf I}\). Além disso, diz-se que \(C\) pertence ao domínio de atração de \(C_*\).


Note que se o limite pontual de uma sequência de copulas existe em cada ponto em \({\bf I}^2\), então o limite deve ser uma copula, como para cada retângulo em \({\bf I}^2\), a sequência de \(C\)-volumes terá um limite não negativo.


Teorema 2.13:

Uma copula é max-estável se, e somente se, for uma copula de valor extremo.


Demonstração.

Claramente, toda copula max-estável é uma copula de valor extremo. Por outro lado, se \(C_*\) for uma copula de valor extremo, então \(C_*\) satisfaz (2.35) para alguma copula \(C\). Portanto, para qualquer \(r\) real positivo, \[ C_{*}^r\big(u^{1/r},\nu^{1/r}\big)=\lim_{n\to\infty} C^{rn}\big(u^{1/rn},\nu^{1/rn}\big) = C_*(u,\nu), \] de modo que \(C_*\) seja max-estável.


Apresentamos agora um procedimento (Pickands 1981) para construir copulas de valor extremo ou equivalentemente, max-estáveis. Seja \(C\) uma copula max-estável e sejam \(X\) e \(Y\) variáveis aleatórias exponenciais padrão cuja copula de sobrevivência é \(C\). Assim, as funções de sobrevivência de \(X\) e \(Y\) são \(\overline{F}(x)=e^{-x}\), \(x > 0\) e \(\overline{G}(y)=e^{-y}\), \(y > 0\), respectivamente, e a função de sobrevivência conjunta é dada por \[ \overline{H}(x,y)=P\big( X>x,Y>y\big)=C\big(e^{-x},e^{-y}\big)\cdot \]

Como \(C\) é max-estável, \[ \overline{H}(rx,ry)=C^r\big(e^{-x},e^{-y}\big)=\big(\overline{H}(x,y) \big)^r \] para qualquer real \(r > 0\). Defina uma função \(A \, : \, [0,1]\to [1/2,1]\) por \[ \tag{2.36} A(t)=-\ln\Big(C\big(e^{-(1-t)},e^{-t}\big) \Big) \] ou equivalentemente, \(C\big(e^{-(1-t)},e^{-t}\big)=\exp\big( A(t)\big)\).

Empregando a mudança de variáveis \((x,y) = ( r(1-t), rt )\) para \(r > 0\) e \(t\in (0,1)\) ou, equivalentemente, \((r,t)=(x+y,y/(x+y))\), temos \[ \begin{array}{rcl} \overline{H}(rx,ry) & = & \overline{H}(x,y)\big(r(1-t),rt \big)=\Big(\overline{H}(1-t,t) \Big)^r\\[0.8em] & = & C^r\big(e^{-(1-t)},e^{-t}\big)= \exp\big( -rA(t) \big)^r = \exp\big(-(x+y)A(y/(x+y)) \big)\cdot\\ \end{array} \] Como \(C(u,\nu)=\overline{H}\big(-\ln(u),-\ln(\nu)\big)\), provamos que se \(C\) é uma copula de valor extremo, então \[ \tag{2.37} C(u,\nu)=\exp\left(\ln(u\, \nu) A\Big( \ln(\nu)/\ln(u\, \nu)\Big)\right), \] ou uma escolha apropriada da função \(A\), chamada de função de dependência da copula de valor extremo \(C\) em (2.36).

Para o lado direito de (2.37) definir uma copula requer que \(A \, : \, [0,1]\to [1/2,1]\) deve satisfazer as seguintes condições: \(A(0) = A(1) = 1\), \(\max\{t,1-t\}\leq A(t)\leq 1\) e A convexa. Assim, o gráfico de \(A\) deve estar na região sombreada da Figura 2.16(a). Veja Joe (1997) para detalhes.

Figura 2.16. Regiões contendo (a) o gráfico de \(A\) em (2.37) e (b) \((\alpha,\beta)\) no Exemplo 2.24

Quando \(A(t) = 1\), (2.37) produz \(\Pi\) e quando \(A(t) = \max\{t,1-t\}\), (2.37) produz \(M\).


Exemplo 2.23:

  1. Se \(A(t) = 1-\min\{\beta t,\alpha (1-t)\}\) para \(\alpha,\beta\in{\bf I}\), então (2.37) produz a família Marshall-Olkin (2.3) de copulas,

  2. Se \(A(t)= \Big(t^\theta + (1-t)^\theta\Big)^{1/\theta}\), \(\theta\geq 1\), então (2.37) produz a família Gumbel-Hougaard, definida no Exercício 13.



Exemplo 2.24:

Seja \(A(t) = 1-t(1-t)\big(\alpha t+\beta (1-t)\big)\). \(A'(0^+)\in [–1,0]\) e \(A'(1^-)\in [0,1]\) requer \(\alpha\) e \(\beta\) em \({\bf I}\) e \(A\) será convexa quando \(a\leq 2\beta\) e \(\beta\leq 2\alpha\). Então, quando o ponto \((\alpha,\beta)\) está na região sombreada na Figura 2.16(b), \(A(t)\) gerará uma copula de valor extremo via (2.37).



2.4. Copulas com propriedades específicas


Nesta curta seção, investigamos copulas com certas propriedades analíticas ou funcionais bem conhecidas.


2.4.1. Copulas harmônicas


Seja \(C\) uma copula com derivadas parciais contínuas de segunda ordem em \((0,1)^2\). Então \(C\) é harmônica em \({\bf I}^2\) se \(C\) satisfaz a equação de Laplace em \((0,1)^2\) \[ \nabla^2 C(u,\nu) = \dfrac{\partial^2}{\partial u^2} C(u,\nu)+\dfrac{\partial^2}{\partial\nu^2} C(u,\nu) = 0\cdot \]

Claramente \(\Pi\) é harmônica. É a única copula harmônica, porque para qualquer outra copula harmônica \(C\), \(C-\Pi\) também seria harmônica e igual a 0 na fronteira de \({\bf I}^2\)e, portanto, igual a 0 em todo \({\bf I}^2\).

Noções intimamente relacionadas são copulas subharmônicas e superharmônicas. Uma copula \(C\) é subharmônica se \(\nabla^2 C(u,\nu)\geq 0\) e superharmônica se \(\nabla^2 C(u,\nu)\leq 0\). Por exemplo, é um exercício de cálculo elementar mostrar que se \(C_\theta\) é uma copula FGM dada por (2.15), então \(C_\theta\) é subharmônica para \(\theta\in [–1,0]\) e superharmônica para \(\theta\in [0,1]\).


2.4.2. Copulas homogêneas



Definição 2.3.

Uma copula \(C\) é homogênea de grau \(k\) se para algum número real \(k\) e todos \(u,v,\lambda\in{\bf I}\), \[ \tag{2.38} C\big(\lambda u, \lambda \nu \big)=\lambda^k C(u,\nu)\cdot \]



Exemplo 2.25:

  1. Como \((\lambda u)(\lambda\nu) = \lambda^2 u\, \nu\), \(\Pi\) é homogênea de grau 2 e como \(\min\{\lambda u,\lambda \nu\} = \lambda\min\{u,\nu\}\), \(M\) é homogêneo de grau 1.

  2. Seja \(C_\theta\) um membro da família Cuadras-Augé, família definida no Exercício 5, \(\theta\in [0,1]\). Então \[ \begin{array}{rcl} C_\theta(\lambda u,\lambda \nu) & = & \Big( M(\lambda u,\lambda\nu)\Big)^\theta\Big( \Pi(\lambda u,\lambda\nu)\Big)^{1-\theta}\\[0.8em] & = & \lambda^\theta \Big( M(u,\nu)\Big)^\theta \big(\lambda^2 \big)^{1-\theta}\Big( \Pi(u,\nu)\Big)^{1-\theta} = \lambda^{2-\theta} C_\theta(u,\nu)\cdot \end{array} \] Portanto \(C_\theta\) é homogênea de grau \(2-\theta\).


Não há outras copulas homogêneas, como demonstra o teorema a seguir.


Teorema 2.14:

Suponha que \(C\) seja homogênea de grau \(k\). Então

  1. \(1\leq k\leq 2\),

  2. \(C\) é um membro da família Cuadras-Augé (Exercício 5) com \(\theta= 2–k\).


Demonstração.

Definindo \(u = \nu = 1\) em (1.26) produz \(C(\lambda,\lambda) = \lambda^k\), portanto a seção diagonal \(\delta_C\) de \(C\) é dada por \(\delta_C(t) = t^k\). Utilizando o Exercício 8(a) produz \(2t-1\leq t^k\leq t\) para \(t\in{\bf I}\), de modo que \(1\leq k\leq 2\). Definindo \(\nu = 1\) em (1.26) produz \(C(\lambda u,\lambda) = \lambda^k u = (\lambda u)\lambda^{k-1}\). Portanto \(C(u,\nu) = u\, \nu^{k-1}\) para \(u\leq\nu\), e similarmente \(C(u,\nu) = u^{k-1}\nu\) para \(\nu\leq u\). Assim, \(C\) é uma copula de Cuadras-Augé com \(\theta = 2–k\), como reivindicado.



2.4.3. Copulas côncavas e convexas



Definição 2.4.

Uma copula \(C\) é côncava (convexa) se para todos \((a,b),(c,d)\) em \({\bf I}^2\) e todos \(\lambda\in{\bf I}\), \[ \tag{2.39} C\big(\lambda a+(1-\lambda)c,\lambda b+(1-\lambda)d \big) \geq (\leq ) \, \lambda \, C(a,b)+(1-\lambda)C(c,d)\cdot \]


Equivalentemente, \(C\) é côncavo se o conjunto de pontos no cubo unitário \({\bf I}^3\) abaixo do gráfico de \(C(u,\nu)\) for um conjunto convexo, e \(C\) é convexo se o conjunto de pontos no cubo unitário acima do gráfico de \(C(u,\nu)\) for um conjunto convexo.


Exemplo 2.26:

  1. É facilmente verificado que \(M\) é côncavo. É a única copula côncava, porque se \(C\) fosse côncavo, então definindo \((a,b) = (1,1)\) e \((c,d) = (0,0)\) em (2.39) produz \(C(\lambda,\lambda) \geq \lambda\). Mas isso implica que \(\delta_C(t) = t\) em \({\bf I}\) e, portanto, como resultado do Exercício 1.8(b), \(C\) deve ser \(M\).

  2. Também é facilmente verificado que \(W\) é convexo. É a única copula convexa, porque se \(C\) fosse convexa, então definindo \((a,b) = (1,0)\) e \((c,d) = (0,1)\) em (2.39) produz \(C(\lambda,1–\lambda)\leq 0\). Portanto, \(C(t,1–t) = 0\) em \({\bf I}\) e, como resultado do Exercício 1.9, \(C\) deve ser \(W\).


Assim, convexidade e concavidade são condições muito fortes para serem de muito interesse para copulas. Portanto, consideramos versões mais fracas dessas propriedades. Suponha que apenas as seções verticais ou horizontais de uma copula \(C\) sejam côncavas. Como veremos na Seção 4.3.3, muitas copulas têm essa propriedade, e essa propriedade geométrica do gráfico de \(C\) corresponde a uma propriedade de dependência estatística positiva conhecida como monotonicidade estocástica.

Agora enfraquecemos as noções na Definição 2.4 substituindo a média ponderada de \(C(a,b)\) e \(C(c,d)\) à direita em (2.39) pelo mínimo ou máximo de \(C(a,b)\) e \(C(c,d)\).


Definição 2.4.

Uma copula \(C\) é quase côncava se para todos \((a,b)\), \((c,d)\) em \({\bf I}^2\) e todos \(\lambda\) em \({\bf I}\), \[ \tag{2.40} C\big(\lambda a+(1-\lambda)c, \lambda b+(1-\lambda)d \big) \geq \min\big\{C(a,b),C(c,d)\big\} \] e \(C\) é quase convexa se para todos \((a,b)\), \((c,d)\) em \({\bf I}^2\) e todos \(\lambda\) em \({\bf I}\), \[ \tag{2.41} C\big(\lambda a+(1-\lambda)c, \lambda b+(1-\lambda)d \big) \leq \max\big\{C(a,b),C(c,d)\big\}\cdot \]


No próximo teorema, mostramos que a quase-concavidade de uma copula \(C\) é equivalente a uma propriedade dos conjuntos de níveis de \(C\).


Teorema 2.15:

Seja \(C\) uma copula e seja \(L_t\) a função cujo gráfico é o limite superior do conjunto de níveis \[ \Big\{(u,\nu)\in {\bf I}^2 \, \Big| \, C(u,\nu) = t\Big\}, \] ou seja, \(L_t(u) = \sup\big\{ \nu\in{\bf I} \, \Big| \, C(u,\nu) = t\big\}\) para todo \(u\in{\bf I}\). Então \(C\) é quase-côncava se, e somente se, a função \(L_t\) for convexa para todo \(t\in [0,1)\).


Demonstração.

(Alsina, Frank, and Schweizer 2006) Suponha que \(L_t\) seja convexo para cada \(t\) em [0,1), de modo que cada um dos conjuntos \(L_(t) = \Big\{(u,\nu)\in {\bf I}^2 \, \Big| \, C(u,\nu)\geq t\Big\}\) seja convexo. Escolha os pontos \((u_1,\nu_1)\) e \((u_2,\nu_2)\) em \({\bf I}^2\) e seja \(a =\min\Big\{C(u_1,\nu_1),C(u_2,\nu_2)\Big\}\). Como \(C(u_1,\nu_1)\geq a\) e \(C(u_2,\nu_2)\geq a\), ambos \((u_1,\nu_1)\) e \((u_2,\nu_2)\) estão em \(L(a)\), portanto, todo o segmento de reta que une \((u_1,\nu_1)\) e \((u_2,\nu_2)\) está em \(L(a)\) e, portanto, \(C\) é quase-côncavo.

Na outra direção, suponha que \(L_a\) não seja convexo para algum \(a\) em [0,1), de modo que o conjunto \(L(a)\) não seja convexo. Portanto, existem pontos \((u_1,\nu_1)\) e \((u_2,\nu_2)\) em \(L(a)\) e um ponto \((u,\nu)\) no segmento que une \((u_1,\nu_1)\) e \((u_2,\nu_2)\) tal que \(C(u,\nu)< a\). Portanto, \(C\) não é quase-côncavo.


O próximo exemplo mostra que \(W\) é a única copula quase convexa.


Exemplo 2.27:

Suponha que \(C\) seja quase-convexo. Então, definindo \((a,b) = (1,0)\) e \((c,d) = (0,1)\) em (2.41) produz \(C(\lambda,1–\lambda) \leq 0\), de modo que, como no Exemplo 2.23(b), \(C\) deve ser \(W\).


Intimamente relacionadas à quase-concavidade e convexidade, estão as noções de Schur-concavidade e Schur-convexidade:


Definição 2.5.

Uma copula \(C\) é Schur-côncava se para todos \(a,b,\lambda\in{\bf I}\), \[ \tag{2.42} C(a,b)\leq C(\lambda a+(1-\lambda)b,\lambda b+(1-\lambda)a), \] e Schur-convexa quando a desigualdade em (2.42) é invertida.


Note que \(W\) é a única copula Schur-convexa, porque definindo \((a,b) = (1,0)\) produz \(0\geq C(\lambda,1–\lambda)\), veja os Exemplos 2.63(b) e 2.64.

Se \(C\) for Schur-côncavo, então definindo \(\lambda = 0\) em (2.42) produz \(C(a,b)\leq C(b,a)\) para todos \((a,b)\in{\bf I}^2\), portanto \(C\) deve ser simétrico. Assim, a Schur-concavidade de uma copula pode ser interpretada geometricamente como segue: o gráfico de uma seção formada pela intersecção da superfície \(z = C(u,\nu)\) com o plano \(u +\nu = t\), \(t\in [0,2]\), é simétrico no plano \(u + \nu = t\) com relação à linha vertical através de \((t/2,t/2)\) e desce em ambas as direções de um máximo em \(\big(t/2,t/2,C\big(t/2,t/2\big)\big)\).

Pode-se mostrar que \(M\), \(W\) e \(P\) são Schur-côncavas e que qualquer combinação linear convexa de copulas Schur-côncavas é uma copula Schur-côncava. Assim, cada membro das famílias Fréchet-Mardia no Exercício 1,4 é Schur-côncavo.

O próximo exemplo mostra que a Schur-concavidade não implica nem é implicada pela quase-concavidade:


Exemplo 2.28:

  1. Seja \(C=(M+W)/2\). Como \(C\) é um membro da família Fréchet-Mardia, ela é Schur-côncavo. Alguns dos contornos de \(C\) são ilustrados na Figura 2.17(a). Esses contornos são os gráficos das funções \(L_t\) no Teorema 2.15. Como \(L_t\) falha em ser convexo para \(t\) em (0,1/4), \(C\) não é quase-côncavo.

Figura 2.17. Alguns contornos das copulas no Exemplo 2.28.

  1. Seja \(C_{\alpha,\beta}\) qualquer copula da família no Exercício 2.8 com \(\alpha\neq \beta\). Os contornos de \(C_{\alpha,\beta}\) podem ser vistos na figura no Exercício 2.8(a) e na Figura 2.17(b) como convexos, de modo que \(C_{\alpha,\beta}\) é quase-côncavo. Mas \(C_{\alpha,\beta}\) não é simétrico, portanto não é Schur-côncavo.


Finalmente, notamos que se uma copula é quase-côncava e simétrica, então ela é Schur-côncava: defina \((c,d) = (b,a)\) em (2.42). Para mais propriedades de copulas Schur-côncavas e exemplos adicionais, veja Durante and Sempi (2003).


2.5. Construindo copulas multivariadas


Primeiro, uma palavra de cautela: construir \(n\)-copulas é difícil. Poucos dos procedimentos discutidos anteriormente neste capítulo têm análogos \(n\)-dimensionais. Nesta seção, descreveremos alguns dos problemas associados à construção de \(n\)-copulas e forneceremos referências a algumas técnicas.

A maioria de nossas ilustrações será para 3-copulas; no entanto, quando apropriado, forneceremos a versão \(n\)-dimensional dos teoremas relevantes. Lembre-se de que 2-copulas unem ou “acoplam” funções de distribuição unidimensionais para formar funções de distribuição bivariadas. A abordagem “ingênua” para construir distribuições multidimensionais por meio de copulas seria usar 2-copulas para unir ou acoplar outras 2-copulas, como o exemplo a seguir ilustra:


Exemplo 2.29:

  1. Defina uma função de 3 lugares \(C\) como \[ C(u,\nu,\omega) = \Pi\big( M(u,\nu),\omega\big) = \omega \times \min\{u,\nu\}\cdot \] Então, como mostrado no Exemplo 1.22(a), \(C\) é uma 3-copula.

  2. Defina uma função de 3 lugares \(C\) via \[ C(u,\nu,\omega) = W\big(M(u,\nu),\omega\big)\cdot \] Então \(W\big(M(u,\nu),\omega) = \min\{u,\nu\} – \min\{u,\nu,1 –\omega\}\) e, portanto, \(C\) é a 3-copula no Exemplo 1.22(b).


Infelizmente, esse procedimento pode falhar.


Exemplo 2.30:

Defina uma função de 3 lugares \(C\) via \[ C(u,\nu,\omega) = W\big(W(u,\nu),\omega\big) = \max\{u + \nu + \omega – 2,0\}\cdot \] Assim, \(C = W^3\), que não é uma 3-copula, veja Exercício 35.

Note que cada uma das 2-marginais de \(W^3\) é \(W\) e é impossível em um conjunto de três variáveis aleatórias \(X\), \(Y\) e \(Z\) para cada variável aleatória ser quase certamente uma função decrescente de cada uma das duas restantes.


Na verdade, esse procedimento — substituir um dos argumentos em uma 2-copula por outra 2-copula — frequentemente falha. Se \(C_1\) e \(C_2\) são 2-copulas tais que \(C_2\big( C_1(u,\nu),\omega\big)\) é uma 3-copula, dizemos que \(C_1\) é diretamente compatível com \(C_2\) Quesada Molina and Rodríguez Lallena (1994).

O teorema a seguir fornece critérios para compatibilidade direta quando um de \(C_1\) ou \(C_2\) é \(M\), \(W\) ou \(\Pi\).


Teorema 2.16:

  1. Cada 2-copula \(C\) é diretamente compatível com \(\Pi\);

  2. A única 2-copula diretamente compatível com \(M\) é \(M\);

  3. A única 2-copula diretamente compatível com \(W\) é \(M\);

  4. \(M\) é diretamente compatível com cada 2-copula \(C\);

  5. \(W\) é diretamente compatível apenas com \(\Pi\);

  6. \(\Pi\) é diretamente compatível com uma 2-copula \(C\) se, e somente se, para todos \(\nu_1\), \(\nu_2\), \(\omega_1\), \(\omega_2\) em \({\bf I}\), tais que, \(\nu_1\leq \nu_22\) e \(\omega_1\leq \omega_2\), a função \[ u \mapsto V_C\Big([u\, \nu_1,u\, \nu_2]\times [\omega_1,\omega_2]\Big) \] é não decrescente em \({\bf I}\).


Demonstração.

Ver Quesada Molina and Rodríguez Lallena (1994).


Uma classe importante de copulas para as quais esse procedimento, dotando uma 2-copula com uma margem multivariada, frequentemente tem sucesso é a classe de copulas arquimedianas. As \(n\)-copulas arquimedianas são discutidas na Seção 3.6.

Do Teorema de Sklar, sabemos que se \(C\) é uma 2-copula e \(F\) e \(G\) são funções de distribuição univariadas, então \[ C\big(F(x),G(y)\big) \] é sempre uma função de distribuição bidimensional.

Podemos estender esse procedimento para dimensões mais altas substituindo \(F\) e \(G\) por funções de distribuição multivariadas? Ou seja, dado \(m + n\geq 3\), para quais 2-copulas \(C\) é verdade que se \(F(\pmb{x})\) é uma função de distribuição \(m\)-dimensional e \(G(\pmb{y})\) é uma função de distribuição \(n\)-dimensional, então \(C\big(F(\pmb{x}),G(\pmb{y})\big)\) é uma função de distribuição \((m+n)\)-dimensional? A resposta é fornecida no seguinte teorema da “impossibilidade”.


Teorema 2.17:

Sejam \(m\) e \(n\) inteiros positivos tais que \(m + n\geq 3\) e suponha que \(C\) seja uma 2-copula tal que \(H(\pmb{x},\pmb{y}) = C\big(F(\pmb{x}),G(\pmb{y})\big)\) é uma função de distribuição \((m+n)\)-dimensional com marginais \(H(\pmb{x},\infty) = F(\pmb{x})\) e \(H(\infty,\pmb{y})=G(\pmb{y})\) para todas as funções de distribuição \(m\)-dimensionais \(F(\pmb{x})\) e funções de distribuição \(n\)-dimensionais \(G(\pmb{y})\). Então \(C = \Pi\).


Demonstração.

Ver Genest, Quesada Molina, and Rodríguez Lallena (1995).


O teorema a seguir apresenta resultados relacionados para os casos em que a 2-copula \(C\) no teorema anterior é \(\Pi\) ou \(M\), e as funções de distribuição multidimensionais \(F\) e \(G\) são copulas ou, se a dimensão for 1, a função identidade.


Teorema 2.18:

Sejam \(m\) e \(n\) inteiros \(\geq 2\). Seja \(C_1\) uma \(m\)-copula e \(C_2\) uma \(n\)-copula.

  1. Seja \(C\) a função de \({\bf I}^{m+n}\) para \({\bf I}\) dada por \[ C(x_1,x_2,\cdots,x_{m+n})=M\Big(C_1(x_1,\cdots,x_m),C_2(x_{m+1},\cdots,x_{m+n}) \Big)\cdot \] Então \(C\) é uma \((m+n)\)-copula se, e somente se, \(C_1 = M^m\) e \(C_2 = M^n\).

  2. Sejam \(C'\), \(C''\) e \(C'''\) as funções definidas por \[ \begin{array}{rcl} C'\big(x_1,\cdots,x_{m+1}\big) & = & \Pi\Big(C_1\big(x_1,\cdots,x_m\big),x_{m+1}\Big),\\[0.8em] C''\big(x_1,\cdots,x_{n+1}\big) & = & \Pi\Big(x_1,C_2\big(x_2,\cdots,x_{n+1}\big),\\[0.8em] C'''\big(x_1,\cdots,x_{m+n}\big) & = & \Pi\Big( C_1\big(x_1,\cdots,x_m\big),C_2\big(x_{m+1},\cdots,x_{m+n}\big)\Big)\cdot \end{array} \] Então \(C'\) é sempre uma \((m +1)\)-copula, \(C''\) é sempre uma \((n +1)\)-copula e \(C'''\) é sempre uma \((m+n)\)-copula.


Demonstração.

Ver Schweizer and Sklar (1983).


Os resultados nos teoremas precedentes ilustram alguns aspectos do que se tornou conhecido como o problema de compatibilidade. Lembre-se da Seção 2.10 que se \(C\) for uma \(n\)-coópula e definirmos \(n–k\), para \(1\leq k < n\), dos argumentos de \(C\) igual a 1, então o resultado é um das \(\binom{n}{k}\) \(k\)-marginais de \(C\).

Na direção oposta, no entanto, um dado conjunto de \(\binom{n}{k}\) \(k\)-copulas raramente são as \(k\)-marginais de qualquer \(n\)-copula. Se forem, então essas \(\binom{n}{k}\) \(k\)-copulas são chamadas compatíveis.

O problema de compatibilidade tem uma longa história. Para facilitar nossa discussão, considere \(C^3\big(C_{12}\big)\) denotar a classe de 3-copulas de variáveis aleatórias contínuas \(X\), \(Y\) e \(Z\), de modo que a 2-copula de \(X\) e \(Y\) seja \(C_{12}\), ou seja, \(C_{XY} = C_{12}\); \(C^3\big(C_{12},C_{13}\big)\) a classe de 3-copulas para as quais \(C_{XY} = C_{12}\) e \(C_{XZ} = C_{13}\); e similarmente em dimensões superiores.

Observe que as partes 4, 5 e 6 do Teorema 3.5.1? lidam com a classe \(C^3\big(C_{12}\big)\) quando \(C_{12}\) é \(M\), \(\Pi\) ou \(W\). Para o problema mais geral de construir uma função de distribuição conjunta trivariada dadas as três marginais univariadas e uma margal bivariada, veja Joe (1997).

Condições necessárias e suficientes para uma 3-copula \(C\) ter especificado 2-marginais \(C_{12}\) e \(C_{13}\), ou seja, ser um membro de \(C^3\big(C_{12},C_{13}\big)\) foram discutidas pela primeira vez, em termos de classes de Fréchet-Hoeffding — ou seja, funções de distribuição conjunta com marginais dadas — em vez de copulas, em Dall’Aglio (1960) e Dall’Aglio (1972).

Questões de compatibilidade e procedimentos de construção associados com as classes \(C^3\big(C_{12},C_{13},C_{23}\big)\), \(C^4\big(C_{123},C_{124},C_{134},C_{234}\big)\) e \(C^n\big(C_{ij},1\leq i < j\leq n \big)\) são discutidos, novamente em termos de funções de distribuição conjunta em vez de copulas, em Joe (1996), Joe (1997).

Em 1983, Schweizer e Sklar observaram que “o problema de estender [esses resultados] a dimensões superiores é talvez a questão em aberto mais importante sobre copulas;” e isso continua verdadeiro hoje.

As classes de \(n\)-copulas no parágrafo anterior têm marginais sobrepostas, isto é, dadas 2-marginais ou 3-marnais que compartilham uma marginal unidimensional comum. Para procedimentos de construção, muitos dos quais são baseados em distribuições condicionais, no caso em que as marginais dadas não são sobrepostas, veja Kellerer (1964); Rüschendorf (1985); Cuadras (1992); Marco and Ruiz-Rivas (1992); Chakak and Koehler (1995); Li, Scarsini, and Shaked (1996) e as referências nele contidas.

Concluímos esta seção com uma extensão \(n\)-dimensional de uma das famílias discutidas anteriormente neste capítulo.


Exemplo 2.31:

Farlie-Gumbel-Morgenstern \(n\)-copulas. A família FGM (2.15) tem a seguinte extensão para uma família de \((2^n-n-1)\) parâmetros de \(n\)-copulas, \(n\geq 3\) (N. L. Johnson and Kotz 1972): \[ C(\pmb{u})=u_1 u_2,\cdots u_n\left(1+\sum_{k=2}^n \,\sum_{1\leq \,j_1<\cdots <j_k \, \leq n} \theta_{j_1 j_2\cdots j_k} \overline{u}_{j_1}\overline{u}_{j_2}\cdots \overline{u}_{j_k} \right), \] onde \(\overline{u}=1-u\).

Cada copula nesta família é absolutamente contínua com densidade \[ \dfrac{\partial^n C(\pmb{u})}{\partial u_1\cdots\partial u_n}=1+\sum_{k=2}^n \,\sum_{1\leq \,j_1<\cdots <j_k \, \leq n} \theta_{j_1 j_2\cdots j_k} (1-2{u}_{j_1})(1-2{u}_{j_2}0\cdots (1-2{u}_{j_k})\cdot \]

Como \(C(\pmb{u})\) é quadrática em cada variável, a densidade \(\partial^n C(\pmb{u})/\partial u_1\cdots\partial u_n\) é linear em cada variável. Portanto, a densidade será não negativa em \({\bf I}^n\) se, e somente se, for não negativa em cada um dos \(2^n\) vértices de \({\bf I}^n\), o que leva às seguintes \(2^n\) restrições para os parâmetros (Cambanis 1977): \[ 1+\sum_{k=2}^n \,\sum_{1\leq \,j_1<\cdots <j_k \, \leq n} \epsilon_{j_1}\epsilon_{j_2}\cdots\epsilon_{j_k}\theta_{j_1 j_2\cdots j_k} \geq 0, \] \(\epsilon_{j_1}\epsilon_{j_2}\cdots\epsilon_{j_k}\in \{-1,1\}\), como consequência, cada parâmetro deve satisfazer \(\theta\leq 1\).

Note que cada \(k\)-marginal, \(2\leq k < n\), de uma \(n\)-copula FGM é uma \(k\)-copula FGM. Veja Conway (1983) para aplicações e referências adicionais.



2.6. Exercícios



2.1- Mostre que quando qualquer um dos parâmetros \(\alpha\) ou \(\beta\) é igual a 0 ou 1, a função \(C_{\alpha,\beta}\) dada em (2.3) é uma copula.


2.1- Mostre que uma versão da distribuição bivariada Marshall-Olkin com marginaiss de Pareto (veja Exemplo 1.14) tem funções de sobrevivência conjuntas dadas por \[ \overline{H}(x,y)=(1+x)^{-\theta_1}(1+y)^{-\theta_2}\big(\max\{1+x,1+y\} \big)^{-\theta_{12}}, \] para \(x,y\geq 0\), onde \(\theta_1\), \(\theta_2\) e \(\theta_{12}\) são parâmetros positivos.


2.3- Prove a seguinte generalização da família Marshall-Olkin (2.3) de copulas: Suponha que \(a\) e \(b\) sejam funções crescentes definidas em \({\bf I}\) tais que \(a(0) = b(0) = 0\) e \(a(1) = b(1) = 1\). Suponha ainda que as funções \(u\mapsto a(u)/u\) e \(\nu\mapsto b(\nu)/\nu\) são ambas decrescentes em (0,1]. Então a função \(C\) definida em \({\bf I}^2\) por \[ C(u,\nu)=\min\{\nu\, a(u),u\, b(\nu)\}, \] é uma copula Marshall (1996). Note que (2.3) é o caso especial \(a(u) =u^{1-\alpha}\) e \(b(\nu) =\nu^{1-\beta}\). O caso simétrico \(a = b\) é estudado em detalhes em Durante (2006).


2.4

  1. Mostre que o seguinte algoritmo (Devroye 1986) gera observações \((x,y)\) de variáveis aleatórias da distribuição exponencial bivariada Marshall-Olkin com parâmetros \(\lambda_1\), \(\lambda_2\) e \(\lambda_{12}\):
  1. Mostre que \(u = \exp\big( -(\lambda_1 + \lambda_{12})x\big)\) e \(\nu = \exp\big(–(\lambda_2 + \lambda_{12})y\big)\) são variáveis uniformes (0,1), cuja função de distribuição conjunta é uma copula de Marshall-Olkin dada por (2.3).


2.5- Sejam \((X,Y)\) variáveis aleatórias com a distribuição uniforme circular. Encontre a distribuição de \(\max\{X,Y\}\).


2.6- Distribuição exponencial bivariada de Raftery. Raftery (1984), Raftery (1985) descreveu a seguinte distribuição bivariada. Sejam \(Z_1\), \(Z_2\) e \(Z_3\) três variáveis aleatórias exponenciais mutuamente independentes com parâmetro \(\lambda > 0\) e seja \(J\) uma variável aleatória de Bernoulli, independente dos \(Z\)’s, com parâmetro \(\theta\) em (0,1). Defina \[ Z=(1-\theta)Z_1+J Z_3 \qquad \mbox{e} \qquad Y=(1-\theta)Z_2+JZ_3\cdot \] Mostre que:

  1. para \(x,y\geq 0\), a função de sobrevivência conjunta de \(X\) e \(Y\) é dada por \[ \overline{H}(x,y)=\exp\big(-\lambda(x\vee y) \big)+\dfrac{1-\theta}{1+\theta}\exp\Big(-\big(\lambda/(1-\theta)\big)(x+y) \Big)\left(1-\exp\Big(\lambda\big((1+\theta)/(1-\theta)\big)(x\wedge y) \Big)\right) \] onde \(x\vee y=\max\{x,y\}\) e \(x\wedge y=\min\{x,y\}\);

  2. \(X\) e \(Y\) são exponenciais com parâmetro \(\lambda\);

  3. a copula de sobrevivência de \(X\) e \(Y\) é dada por \[ \widehat{C}_\theta(u,\nu)=M(u,\nu)+\dfrac{1-\theta}{1+\theta}\big( u\, \nu\big)^{1/(1-\theta)}\left( \big(1-\max\{u,\nu\}\big)^{-(1+\theta)/(1-\theta)} \right); \]

  4. \(\widehat{C}_\theta\) é absolutamente contínua, \(\widehat{C}_0=\Pi\) e \(\widehat{C}_1=M\).


2.7- Sejam \(U\) e \(V\) variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é a cpula \(C_\theta\) de (2.6) no Exemplo 2.3 com \(\theta = 1/2\); ou seja, \[ C_{1/2}(u,\nu)=\left\{ \begin{array}{ccl} u, & \mbox{caso} & 0\leq u\leq \nu/2\leq 1/2, \\[0.8em] \nu/2, & \mbox{caso} & 0\leq \nu/2< u<1-\nu/2, \\[0.8em] u+\nu-1, & \mbox{caso} & 1/2\leq 1-\nu/2\leq u\leq 1\cdot \end{array}\right. \]

  1. Mostre que \(P\big( V = 1-|2U- 1|\big) = 1\) e \(\mbox{Cov}(U,V) = 0\), de modo que duas variáveis aleatórias podem ser não correlacionadas, embora uma possa ser perfeitamente prevista a partir da outra.

  2. Mostre que \(C_{1/2}\) não é simétrica, de modo que duas variáveis aleatórias podem ser distribuídas de forma idêntica e não correlacionadas, mas não permutáveis.

  3. Mostre que \(P\big( V - U > 0\big) = 2/3\), de modo que duas variáveis aleatórias podem ser distribuídas de forma idêntica, no entanto, sua diferença não precisa ser simétrica em relação a zero.

  4. Seja \(X = 2U - 1\) e \(Y = 2V - 1\), de modo que \(X\) e \(Y\) sejam uniformes em (-1,1). Mostre que \(P\big( X + Y > 0\big) = 2/3\), de modo que duas variáveis aleatórias podem ser simétricas em relação a zero, mas sua soma não precisa ser.


2.8- Seja \((\alpha,\beta)\) um ponto em \({\bf I}^2\) tal que \(\alpha > 0\), \(\beta > 0\) e \(\alpha + \beta < 1\). Suponha que a massa de probabilidade \(\alpha\) seja uniformemente distribuída no segmento de reta que une \((\alpha,\beta)\) a (0,1), que a massa de probabilidade \(\beta\) seja uniformemente distribuída no segmento de reta que une \((\alpha,\beta)\) a (1,0) e que a massa de probabilidade \(1-\alpha-\beta\) seja uniformemente distribuída no segmento de reta que une \((\alpha,\beta)\) a (1,1), conforme mostrado na parte (a) da Figura abaixo.

Mostre que a copula com esse suporte é dada por: \[ C_{\alpha,\beta}(u,\nu)=\left\{ \begin{array}{cl} u-\alpha (1-\nu)/(1-\beta), & \mbox{caso} \quad (u,\nu)\in\Delta_1 \\[0.8em] \nu-\beta(1-u)/(1-\alpha), & \mbox{caso} \quad (u,\nu)\in\Delta_2 \\[0.8em] 0, & \mbox{caso contrário} \end{array}\right. \] onde \(\Delta_1\) é o triângulo com vértices \((\alpha,\beta)\), (0,1) e (1,1) e \(\Delta_2\) é o triângulo com vértices \((\alpha,\beta)\), (1,0) e (1,1). Observe os casos limites: \(C_{0,0} = M\); \(C_{\alpha,1-\alpha} = W\) e quando \(\alpha = 0\) ou \(\beta = 0\) temos famílias de copulas de um parâmetro semelhantes àquela do Exemplo 2.3.


2.9- Sejam \(U\) e \(V\) variáveis aleatórias uniformes (0,1) tais que \(V = U\oplus\theta\) com probabilidade 1, onde \(\theta\) é uma constante em (0,1). Mostre que se \(C_\theta\) denota a copula de \(U\) e \(V\), então:

  1. o suporte de \(C_\theta\) é o conjunto ilustrado na parte (b) da Figura no Exercício 45;

  2. \(C_\theta\) é dada por \[ C_{\theta}(u,\nu)=\left\{ \begin{array}{cl} \min\{u,\nu-\theta\}, & \mbox{caso} \quad (u,\nu)\in [0,1-\theta]\times [\theta,1] \\[0.8em] \min\{u+\theta-1,\nu\}, & \mbox{caso} \quad (u,\nu)\in [1-\theta,1]\times [0,\theta] \\[0.8em] W(u,\nu), & \mbox{caso contrário} \end{array}\right. \]

Para um problema relacionado que leva à mesma copula, veja Marshall (1989).


2.10- Seja \(\theta\in{\bf I}\), e sejam \(U\) e \(V\) variáveis aleatórias cuja massa de probabilidade é uniformemente distribuída na fronteira do retângulo em \({\bf I}^2\) com vértices \((\theta,0)\), \((0,\theta)\), \((1-\theta,1)\) e \((1,1-\theta)\), conforme ilustrado na parte (c) da Figura do Exercício 45 (Ferguson 1995).

  1. Mostre que a copula \(C_\theta\) de \(U\) e \(V\) é dada por \[ C_\theta(u,\nu)=\left\{ \begin{array}{cc} M(u,\nu), & \mbox{caso} \quad |\nu-u|\geq \theta\\[0.8em] W(u,\nu), & \mbox{caso} \quad |u+\nu-1|\geq 1-\theta\\[0.8em] \dfrac{u+\nu-\theta}{2}, & \mbox{caso contrário}\end{array}\right.\cdot \]

  2. Mostre que \(C_\theta\) satisfaz a equação funcional \(C = \widehat{C}\) associada à simetria radial.

  3. Mostre que esta família é negativamente ordenada.

Note que \(C_0 = M\), \(C_1 = W\) e \(C_{12}\) é a copula de variáveis aleatórias com a distribuição uniforme circular (veja Seção 2.1.2).


2.11-

  1. Mostre que uma copula singular pode ter suporte que é simétrico em relação à diagonal \(v = u\) em \({\bf I}^2\), mas não consegue ser uma copula simétrica, ou seja, \(C(u,\nu)\neq C(\nu,u)\). Dica: Seja \(C_\theta\) um membro da família no Exercício 46 e considere \(C = (1/3)C_{1/3} + (2/3)C_{2/3}\).

  2. Mostre que uma copula singular pode ter suporte que é radialmente simétrico em relação ao centro de \({\bf I}^2\), ou seja, se \((u,\nu)\) está no suporte, então também está \((1-u,1-\nu)\), mas não consegue satisfazer a equação funcional \(C =\widehat{C}\) em (1.25) associada à simetria radial.


2.12- Distribuição Normal Bivariada de Vaswani. Vaswani (1947) descreveu a seguinte distribuição bivariada: Seja \(\Phi\) a função de distribuição normal padrão, seja \(T\) uma variável aleatória uniforme (0,1) e defina \[ \begin{array}{rcl} X & = & \Phi^{-1}(T)\\[0.8em] Y & = & \left\{ \begin{array}{cc} -\Phi^{-1}(T+1/2), & \mbox{se} \quad T\in[0,1/2), \\[0.8em] -\Phi^{-1}(T-1/2), & \mbox{se} \quad T \in(1/2,1]\cdot\end{array}\right. \end{array} \]

  1. Mostre que \(X\) e \(Y\) são variáveis aleatórias normais padrão.

  2. Mostre que \(\Phi(X)\oplus \Phi(Y) = 1/2\) com probabilidade 1.

  3. Mostre que a copula de \(X\) e \(Y\) é dada por (2.7) com \(\theta=1/2\), ou equivalentemente, a soma ordinal de \(\{W,W\}\) com relação a \(\{[0,1/2],[1/2,1]\}\).


2.13- Kimeldorf and Sampson (1975) descreveram a seguinte distribuição conjunta absolutamente contínua: Seja \(\theta\) em [0,1) e sejam \(X\) e \(Y\) variáveis aleatórias cuja função de densidade conjunta \(h_\theta\) é dada por \[ h_\theta(x,y)=\left\{ \begin{array}{cc} \beta, & \displaystyle (x,y)\in \bigcup_{i=1}^{[\beta]} J_i^2, \\[0.8em] \displaystyle \dfrac{\beta}{\beta-[\beta]}, & (x,y)\in \Big( [\beta]/\beta,1\Big]^2,\\[0.8em] 0, & \mbox{caso contrário}, \end{array}\right. \] onde \(\beta=(1+\theta)/(1-\theta)\), \([\beta]\) representa a parte inteira de \(\beta\) e \(J_i=\Big[(i-1)/\beta,i/\beta\Big]\)

Mostre que:

  1. \(X\) e \(Y\) são variáveis aleatórias uniformes (0,1),

  2. a função de distribuição conjunta de \(X\) e \(Y\) é a soma ordinal de \(\{\Pi,\Pi,\cdots,\Pi\}\) em relação a \(\{J_i\}_{i=1}^{[\beta]}\bigcup \left\{ \{[\beta]/\beta,1\}\right\}\).


2.14-

  1. Mostre que o gráfico de cada embaralhamento de \(M\) é planar por partes, ou seja, relacionado a ou na forma de um plano por partes.

  2. Mostre que toda copula cujo gráfico é planar por partes é singular.

  3. Mostre que as inversas de (a) e (b) são falsas.


2.15- Variáveis aleatórias não correlacionadas mutuamente completamente dependentes. Seja \(\theta\in [0,1/2]\) e seja \(C_\theta\) o embaralhamento de \(M\) dado por \[ M\big(3,\{[0,\theta],[\theta,1-\theta], [1-\theta,1]\},(3,2,1),\omega) \] onde \(\omega(1) = \omega(3) = –1\), \(\omega(2) = +1\). Veja a Figura abaixo.

  1. Mostre que \(C_\theta\) também é dado por \[ C_\theta(u,\nu)=\left\{ \begin{array}{cl} M(u,\nu)-\theta, & (u,\nu)\in [\theta,1-\theta]^2 \\[0.8em] W(u,\nu), & \mbox{caso contrário} \end{array}\right.\cdot \]

  2. Mostre que se \(C_\theta\) é a função de distribuição conjunta de \(U\) e \(V\) com \(\theta = \big(2-\sqrt[3]{4}\big)/4 \approx 0.103\), então \(\mbox{Cov}(U,V) = 0\), isto é, \(U\) e \(V\) são variáveis aleatórias uniformes (0,1) mutuamente completamente dependentes não correlacionadas.

  3. Seja \(\Phi\) a função de distribuição normal padrão. Mostre que se \(C_\theta\big(\Phi(x),\Phi(y)\big)\) é a função de distribuição conjunta de \(X\) e \(Y\) com \(\theta\) próximo de \(\Phi(–1.538)\approx 0.062\), então \(\mbox{Cov}(X,Y) = 0\), isto é, \(X\) e \(Y\) são variáveis aleatórias normais padrão mutuamente completamente dependentes não correlacionadas Melnick and Tennenbein (1982). Observe também que \(X\) e \(Y\) são permutáveis e que \(X + Y\) não é normal, pois \(P\big(X + Y = 0\big) = 2\theta\).


2.16- Seja \(X\) uma variável aleatória normal padrão e defina \(Y\) por \[ Y=\left\{ \begin{array}{ccl} X, & \mbox{se} & [X] \mbox{ for par} \\[0.8em] -X, & \mbox{se} & [X] \mbox{ for ímpar}\end{array}\right.\cdot \]

Mostre que \(X\) e \(Y\) são mutuamente completamente dependentes, mas que a copula de \(X\) e \(Y\) não é um embaralhamento de \(M\).


2.17- Mostre que a função \(C'\) dada por (2.9) é uma copula.


2.18- Seja \(\{C_t\}\) a família de copulas do Exercício 1.10, ou seja, para \(t\in{\bf I}\) seja \[ C_t(u,\nu)=\left\{ \begin{array}{cc} \max\{u+\nu-1,t\}, & (u,\nu)\in [t,1]^2\\[0.8em] \min\{u,\nu\}, & \mbox{caso contrário}\cdot \end{array}\right. \] e seja a distribuição de mistura \(\Lambda_\alpha\) ser dada por \(\Lambda_\alpha(t) = t^\alpha\), onde \(\alpha > 0\). Mostre que a soma convexa \(C'_\alpha\) de \(\{C_t\}\) é dada por \[ C'_\alpha(u,\nu)=M(u,\nu)-\dfrac{1}{\alpha+1}\left( \big(M(u,\nu)\big)^{\alpha+1}-\big(W(u,\nu)\big)^{\alpha+1} \right)\cdot \]

Mostre que \(C'_0=W\) e \(C'_\infty=M\).


2.19- Mostre que quando \(\psi(s) = (1 + s)^{-1/\theta}\), ou seja, quando \(\psi\) é a transformada de Laplace de uma distribuição gama com parâmetros \(\alpha = 1/\theta\), \(\beta = 1\); então a construção (2.12) gera as copulas de sobrevivência para a distribuição de Pareto bivariada no Exemplo 1.14 Joe (1993).


2.20- Mostre que as copulas \(C'_\alpha\) no Exemplo 2.9 satisfazem a equação funcional \(C = \widehat{C}\) associada à simetria radial.


2.21-

  1. Mostre que a média aritmética de duas copulas Farlie-Gumbel-Morgenstern (Exemplo 2.12) é novamente uma copula Farlie-Gumbel-Morgenstern, ou seja, se \(C_\alpha\) e \(C_\beta\) são dados por (2.15), então a média aritmética de \(C_\alpha\) e \(C_\beta\) é \(C_{(\alpha+\beta)/2}\), veja e Exercício 3.

  2. Mostre que cada copula da família FGM é uma média aritmética ponderada dos dois membros extremos da família, ou seja, para todo \(\theta\in [–1,1]\), \[ C_\theta(u,\nu)=\dfrac{1-\theta}{2}C_{-1}(u,\nu)+\dfrac{1+\theta}{2}C_{+1}(u,\nu)\cdot \]


2.22- Mostre que cada membro da família Farlie-Gumbel-Morgenstern (FGM) de copulas é absolutamente contínuo e satisfaz a condição \(C = \widehat{C}\) para simetria radial. Mostre também que a família FGM é positivamente ordenada.


2.23- Mostre que o seguinte algoritmo (M. E. Johnson 1987) gera variáveis aleatórias \((U,V)\) de uma distribuição FGM com parâmetro \(\theta\), com valores observados \((u,\nu)\):

  1. Gere duas variáveis uniformes independentes (0,1) com valores observados \(u\), \(t\);
  2. Defina \(a = 1 + \theta (1 – 2u)\); \(b = \sqrt{a^2-4(a-1)t}\);
  3. Defina \(\nu = 2t/(b + a)\);
  4. O par desejado é \((u,\nu)\).


2.24- Prove o Corolário 2.1.


2.25- Mostre que para cada uma das seguintes escolhas de \(\psi\), a função \(C\) dada por (2.14) é uma copula Quesada Molina and Rodríguez Lallena (1995):

  1. \(\psi(\nu) = \min\{\alpha\nu,\beta(1-\nu)\}\) ou \(–\min\{\alpha\nu,\beta(1-\nu)\}\) para \(\alpha,\beta\in{\bf I}\);

  2. \(\psi(\nu) = (\theta/\pi)\sin(\pi\nu)\) para \(\theta\in [–1,1]\);

  3. \(\psi(\nu) = (\theta/2\pi)\sin(2\pi\nu)\) para \(\theta\in [–1,1]\);

  4. \(\psi(\nu) = \theta \big(\zeta(\nu)+\zeta(1–\nu)\big)\) para \(\theta\in [–1,1]\), onde \(\zeta\) é a função linear por partes cujo gráfico conecta (0,0) a (1/4,1/4) a \((1/2,\theta)\) a (1,0).

  5. \(\psi(\nu) = \theta\zeta(\nu)–(1-\theta)\zeta(1-\nu)\) para \(\theta\in{\bf I}\), onde \(\zeta\) é a função linear por partes na parte (d).


2.26- Mostre que uma família de copulas com seções hiperbólicas em ambas, \(u\) e \(\nu\), é a família Ali-Mikhail-Haq, encontrada pela primeira vez no Exercício 14. Existem outras famílias assim?


2.27- Demonstre o Teorema 2.7


2.28- Seja \(C\) uma copula com seções cúbicas em \(u\), ou seja, seja \(C\) dado por (2.17) onde \(\alpha\) e \(\beta\) satisfazem o Lema 2.1. Prove que para todo \(\nu\in{\bf I}\), \[ \max\{-\nu,3(\nu-1)\}\leq \alpha(\nu)\leq \min\{1-\nu,3\nu\} \] e \[ \max\{–3\nu,\nu-1\}\leq \beta(\nu)\leq \min\{3(1-\nu),\nu\}; \] isto é, os gráficos de \(\alpha\) e \(\beta\) estão nas regiões sombreadas mostradas na figura abaixo.


2.29- Prove o Corolário 2.2.


2.30- Seja \(C\) uma copula com seções cúbicas em \(u\) e \(\nu\), ou seja, seja \(C\) dado por (2.22) no Teorema 2.8. Mostre que

  1. se \(A_1 = A_2\) e \(B_1 = B_2\), então as seções em \(\nu\) são na verdade quadráticas em vez de cúbicas;

  2. se \(A_1 = B_1\) e \(A_2 = B_2\), então as seções em \(u\) são quadráticas em vez de cúbicas;

  3. se \(A_1 = A_2 = B_1 = B_2 = \theta\), então (2.22) degenera para a família Farlie-Gumbel-Morgenstern (3.1.10).


2.31- Seja \(C\) qualquer copula simétrica cuja seção diagonal é \(\delta\). Mostre que \[ C(u,\nu)\leq \min\big\{ u,\nu,(1/2)\big(\delta(u)+\delta(\nu)\big)\big\} \] para todo \(u,\nu\in{\bf I}^2\).


2.32- Seja \[ \delta(t) = \min\big\{\max\{0,2t – 1/2\},\max\{1/2,2t – 1\}\}, \] uma função linear por partes cujo gráfico conecta (0,0) a (1/4,0) a (1/2,1/2) a (3/4,1/2) a (1,1). Mostre que a copula diagonal construída a partir desta diagonal é o embaralhamento direto de \(M\) dado por \(M(4,{\bf I}_4,(2,1,4,3),1)\), cujo suporte é ilustrado na parte (a) da figura abaixo.


2.33- Seja \(\delta_\theta\) uma combinação convexa das seções diagonais de \(M\) e \(W\), ou seja, \[ \delta_\theta(t) = \theta \delta_M(t) + (1-\theta)\delta_W (t), \] onde \(\theta\in{\bf I}\). Seja \(C_\theta\) a copula diagonal construída a partir de \(\delta_\theta\). Mostre que o suporte de \(C_\theta\) é o hexágono em \({\bf I}^2\) com vértices (0,0), \((1/2,\omega)\), \((1-\omega,1/2)\), (1,1), \((1/2,1-\omega)\) e \((\omega,1/2)\), onde \(\omega = \theta(4-2\theta)\), como ilustrado na parte (b) da figura acima, para o caso \(\theta = 2/3\).


2.34- Demonstre o Teorema 2.8.


2.35- Seja \(\delta_\theta\) uma combinação convexa das seções diagonais de \(M\) e \(W\), ou seja, \[ \delta_\theta (t) =\theta\delta_M(t)+(1-\theta)\delta_W(t), \] onde \(\theta\in{\bf I}\). Seja \(C_\theta\) a copula diagonal construída a partir de \(\delta_\theta\). Mostre que o suporte de \(C_\theta\) é o hexágono em \({\bf I}^2\) com vértices \((0,0)\), \((1/2,\omega)\), \((1-\omega,1/2)\), (1,1), \((1/2,1-\omega)\) e \((\omega,1/2)\), onde \(\omega = \theta/(4-2\theta)\), como ilustrado na parte (b) da figura do Exercício 68 para o caso \(\theta = 2/3\).


2.36- Seja \(C\) uma copula cujo suporte é um subconjunto da união das duas diagonais de \({\bf I}^2\). Mostre que \[ C(u,\nu)=\left\{\begin{array}{cc} \delta\big(\min\{u,\nu\} \big), & u+\nu\leq 1\\[0.8em] |u+\nu|+\delta\big(\max\{u,\nu\} \big), & u+\nu>1 \end{array}\right., \] onde \(\delta\) é uma diagonal tal que, \(t-\delta(t) = (1-t)-\delta(1-t)\) para \(t\in{\bf I}\), ou seja, o gráfico de \(y = t-\delta(t)\) é simétrico em relação a \(t = 1/2\).


2.37- Para a família de copulas de Plackett (2.28), mostre que

  1. \[ C_0(u,\nu)=\lim_{\theta\to 0^+} C_\theta(u,\nu)=\dfrac{(u+\nu-1)+|u+\nu-1|}{2}=W(u,\nu)\cdot \]

  2. \[ C_\infty(u,\nu)=\lim_{\theta\to\infty} C_\theta(u,\nu)=\dfrac{(u+\nu)+|u-\nu|}{2}=M(u,\nu)\cdot \]


2.38- Seja \(C_\theta\) um membro da família Plackett (2.28) de copulas, onde \(\theta\in (0,\infty)\).

  1. Mostre que \(C_{1/\theta}(u,\nu) = u-C_\theta(u,1-\nu) = \nu-C_\theta(1-u,\nu)\). Veja Exercício 1.6 e Teorema 1.9.

  2. Conclua que \(C_\theta\) satisfaz a equação funcional \(C = \widehat{C}\) para simetria radial, veja Teorema 1.13.


2.39- Mostre que a família Plackett (2.28) é ordenada positivamente.


2.40- Mostre que o seguinte algoritmo (M. E. Johnson 1987) gera obsevações \((u,\nu)\) de variáveis aleatórias de uma distribuição de Plackett com parâmetro \(\theta\):

  1. Gere duas observações \(u\) e \(t\) de variáveis uniformes independentes (0,1);
  2. Defina \(a=t(1-t)\); \(b=\theta+a(\theta-1)^2\); \(c=2a(u\theta^2+1-u)+\theta(1-2a)\);
  3. Defina \(d=\sqrt{\theta}\sqrt{\theta+4au(1-u)(1-\theta)^2}\) e \(\nu=\big(c-(1-2t)d\big)/2b\);
  4. O par desejado é \((u,\nu)\).


2.41-

  1. Mostre que a família Farlie-Gumbel-Morgenstern, definida no Exemplo 2.12, é uma aproximação de primeira ordem para a família Plackett, ou seja, se \(C_\theta\) em (2.28), com \(\theta\in [0,2]\), é expandido em uma série de Taylor em potências de \((\theta -1)\), então os dois primeiros termos são \[ u\, \nu+(\theta-1)u\, \nu(1-u)(1-\nu)\cdot \]

  2. Similarmente, mostre que uma aproximação de segunda ordem para a família Plackett consiste nas copulas com seções cúbicas dadas por (2.23) com \(a = (\theta-1) – (\theta-1)^2/2\) e \(b = (\theta-1)^2/2\) para \(\theta\in [0,3]\).


2.42- Seja \(C_\theta\) um membro da família Ali-Mikhail-Haq (3.1.3). Mostre que \[ C_\theta(u,\nu)=u\, \nu\sum_{k=0}^\infty \big(\theta(1-u)(1-\nu) \big)^k \] e, portanto, a família FGM (2.15) é uma aproximação de primeira ordem para a família Ali-Mikhail-Haq e a família FGM iterada, apresentada no Exemplo 2.13, de Lin (1987) com \(\varphi =\theta\)q é uma aproximação de segunda ordem.


2.43- Mostre que a média harmônica de duas copulas Ali-Mikhail-Haq é novamente uma copula Ali-Mikhail-Haq, ou seja, se \(C_\alpha\) e \(C_\beta\) são dados por (2.32), então a média harmônica de \(C_\alpha\) e \(C_\beta\) é \(C_{(\alpha+\beta)/2}\).


2.44- Mostre que cada copula Ali-Mikhail-Haq é uma média harmônica ponderada dos dois membros extremos da família, ou seja, para todo \(\theta\in [–1,1]\), \[ C_\theta(u,\nu)=\dfrac{1}{\dfrac{1-\theta}{2}\dfrac{1}{C_{-1}(u,\nu)}+\dfrac{1+\theta}{2}\dfrac{1}{C_{+1}(u,\nu)}}\cdot \]


2.45- Mostre que o seguinte algoritmo (M. E. Johnson 1987) gera as observações \((u\,nu)\) de variáveis aleatórias de uma distribuição Ali-Mikhail-Haq com parâmetro \(\theta\):

  1. Gere duas observações \(u\) e \(t\) de variáveis uniformes independentes (0,1);
  2. Defina \(a = 1 – u\); \(b = -\theta(2 at + 1) + 2\theta^2 a^2 t + 1\);
  3. Defina \(c = \theta^2 ( 4 a^2 t - 4at + 1) - \theta ( 4 at - 4 t + 2) + 1\) e \(\nu = 2 t( a\theta - 1)^2\Big/\big(b+\sqrt{c}\big)\);
  4. O par desejado é \((u,\nu)\).

2.7. Bibliografia


Ali, M. M., N. N. Mikhail, and M. S. Haq. 1978. “A Class of Bivariate Distributions Including the Bivariate Logistic.” Journal of the Multivariate Analyaia, no. 8: 405–12.
Alsina, C., M. J. Frank, and B. Schweizer. 2006. Associative Functions: Triangular Norms and Copulas. World Scientific Publishing Company.
Bertino, S. 1977. “Sulla Dissomiglianza Tra Mutabili Cicliche.” Metron, no. 35: 53–88.
Cambanis, S. 1977. “Some Properties and Generalizations of Multivariate Eyraud-Gumbel-Morgenstern Distributions.” Journal of Multivariate Analysis, no. 7: 551–59.
Chakak, A., and K. J. Koehler. 1995. “A Strategy for Constructing Multivariate Distributions.” Communications in Statistics - Simulation and Computation, no. 24: 537–50.
Conway, D. A. 1983. “Farlie-Gumbel-Morgenstern Distributions.” Encyclopedia of Statistical Sciences, no. Vol 3. Wiley, New York: 28–31.
———. 1986. “Plackett Family of Distributions.” Encyclopedia of Statistical Sciences, Wiley, New York, no. 7: 1–5.
Cuadras, C. M. 1992. “Probability Distributions with Given Multivariate Marginals and Given Dependence Structure.” Journal of Multivariate Analysis, no. 42: 51–66.
Dall’Aglio, G. 1960. “Les Fonctions Extrêmes de La Classe de Fréchet à 3 Dimensions.” Publications de l’Institut de Statistique de l’Université de Paris, no. 9: 175–88.
———. 1972. “Fréchet Classes and Compatibility of Distribution Functions.” Symposia Mathematica, no. Vol IX (Convegno di Calcolo delle Probabilit‘a, INDAM, Rome, 1971): 131–50.
———. 1997a. “Joint Distribution of Two Uniform Random Variables When the Sum and the Difference Are Independent.” Beneš, V. And Štěpán, J. (Eds) Distributions with Given Marginals and Moment Problems, no. Kluwer, Dordrecht: 117–20.
———. 1997b. “The Distribution of a Copula When the Sum and the Difference of the Univariate Random Variables Are Independent.” Johnson, N.L. And Balakrish-Nan, N. (Eds) Advances in the Theory and Practice of Statistics: A Volume in Honor of Samuel Kotz, no. Wiley, New York: 517–33.
Devroye, L. 1986. Non-Uniform Random Variate Generation. Springer, New York.
Durante, F. 2006. “A New Class of Symmetric Bivariate Copulas.” Journal of Nonparametric Statistics, no. 18(7-8): 499–510.
Durante, F., and C. Sempi. 2003. “Copulæ and Schur-Concavity,” no. 3: 893–905.
Eyraud, H. 1938. “Les Principes de La Mesure Des Correlations.” Annales de l’Université de Lyon, Series A, no. 1: 30–47.
Farlie, D. J. G. 1960. “The Performance of Some Correlation Coefficients for a General Bivariate Distribution.” Biometrika, no. 47: 307–23.
Ferguson, T. S. 1995. “A Class of Symmetric Bivariate Uniform Distributions.” Statistical Papers, no. 36: 31–40.
Fredricks, G. A., and R. B. Nelsen. 1997a. “Copulas Constructed from Diagonal Sections.” Distributions with Given Marginals and Moment Problems, no. Kluwer, Dordrecht: 129–36.
———. 1997b. “Diagonal Copulas.” Distributions with Given Marginals and Moment Problems, no. Kluwer, Dordrecht: 121–28.
———. 2002. “The Bertino Family of Copulas.” Distributions with Given Marginals and Statistical Modelling, no. Kluwer, Dordrecht: 81–92.
Genest, C., J. J. Quesada Molina, and J. A. Rodríguez Lallena. 1995. “De l’impossibilité de Construire Des Lois à Marges Multidimensionnelles Données à Partir de Copules.” Comptes Rendus de l’Académie Des Sciences - Series I - Mathematics, no. 320: 723–26.
Genest, C., and L-P. Rivest. 2001. “On the Multivariate Probability Integral Transform.” Statistics and Probability Letters, no. 53: 391–99.
Gumbel, E. J. 1961. “Bivariate Logistic Distributions.” Journal of the American Statistical Association, no. 56: 335–49.
Hutchinson, T. P., and C. D. Lai. 1990. Continuous Bivariate Distributions. Rumsby Scientific Publishing, Adelaide.
Joe, H. 1993. “Parametric Families of Multivariate Distributions with Given Margins.” Journal of the Multivariate Analasys, no. 46: 262–82.
———. 1996. “Families of m-Variate Distributions with Given Margins and \(m(m-1)/2\) Bivariate Dependence Parameters.” Institute of Mathematical Statistics, no. Hayward, CA: 120–41.
———. 1997. Multivariate Models and Dependence Concepts. Chapman & Hall, London.
Johnson, M. E. 1987. Multivariate Statistical Simulation. Wiley, New York.
Johnson, N. L., and S. Kotz. 1972. Distributions in Statistics: Continuous Multivariate Distributions. Wiley, New York.
Kamiński, A., H. Sherwood, and M. D. Taylor. 1987/88. “Doubly Stochastic Measures with Mass on the Graphs of Two Functions.” Real Analysis Exchange, no. 13(1) (1987/88): 253–57.
Kellerer, H. G. 1964. “Verteilungsfunktionen Mit Gegebenen Marginalverteilungen.” Zeitschrift Für Wahrscheinlichkeitstheorie Und Verwandte Gebiete, no. 3: 247–70.
Kimeldorf, G., and A. Sampson. 1975. “One-Parameter Families of Bivariate Distributions with Fixed Marginals.” Communications in Statistics - Theory and Methods, no. 4: 293–301.
———. 1978. “Monotone Dependence.” Annals of Statistics, no. 6: 895–903.
Klement, E. P., R. Mesiar, and E. Pap. 2004. “Transformations of Copulas and Quasi-Copulas.” Soft Methodology and Random Information Systems. Springer.
Kotz, S., and N. L. Johnson. 1977. “Propriétés de Dépendance Des Distributions Itérées, Généralisées à Deux Variables Farlie-Gumbel-Morgenstern.” Comptes Rendus de l’Académie Des Sciences - Series I - Mathematics, no. 285: 277–80.
Lancaster, H. O. 1963. “Correlation and Complete Dependence of Random Variables.” Annals of the Mathematics Statistics, no. 34: 1315–21.
Lee, M-L.T. 1996. “Properties and Applications of the Sarmanov Family of Bivariate Distributions.” Comm Statist Theory Methods, no. 25: 1207–22.
Li, H., M. Scarsini, and M. Shaked. 1996. “Linkages: A Tool for the Construction of Multivariate Distributions with Given Nonoverlapping Multivariate Marginals.” Journal of Multivariate Analysis, no. 56: 20–41.
Lin, G. D. 1987. “Relationships Between Two Extensions of Farlie-Gumbel-Morgenstern Distributions.” Annals of the Institute of Statistical Mathematics, no. 39: 129–40.
Marco, J. M., and C. Ruiz-Rivas. 1992. “On the Construction of Multivariate Distributions with Given Nonoverlapping Multivariate Marginals.” Statistics & Probability Letters, no. 15: 259–65.
Mardia, K. V. 1970. Families of Bivariate Distributions. Hafner Publishing Company, Darien, Connecticut.
Marshall, A. W. 1989. “A Bivariate Uniform Distribution.” Contributions to Probability and Statistics, no. Springer, New York: 99–106.
———. 1996. “Copulas, Marginals, and Joint Distributions.” Institute of Mathematical Statistics, Hayward, CA, no. Distributions with Fixed Marginals and Related Topics: 213–22.
Marshall, A. W., and I. Olkin. 1967a. “A Generalized Bivariate Exponential Distribution.” Journal of the Applied Probability, no. 4 (1967a): 291–302.
———. 1967b. “A Multivariate Exponential Distribution.” Journal of the American Statistical Association, no. 62 (1967b): 30–44.
———. 1988. “Families of Multivariate Distributions.” Journal of the American Statistical Association, no. 83: 834–41.
Melnick, E. L., and A. Tennenbein. 1982. “Misspecifications of the Normal Distribution.” The American Statistician, no. 36: 372–73.
Mikusiński, P., H. Sherwood, and M. D. Taylor. 1991-92. “The Fréchet Bounds Revisited.” Real Anal Exchange, no. 17 (1991-92): 759–64.
———. 1991. “Probabilistic Interpretations of Copulas and Their Convex Sums.” Advances in Probability Distributions with Given Marginals, no. Kluwer, Dordrescht: 95–112.
Morgenstern, D. 1956. “Einfache Beispiele Zweidimensionaler Verteilungen.” Mitteilingsblatt Für Mathematische Statistik, no. 8: 234–35.
Nelsen, R. B., J. J. Quesada Molina, and J. A. Rodríguez Lallena. 1997. “Bivariate Copulas with Cubic Sections.” Journal of the Nonparametric Statistics, no. 7: 205–20.
Pickands, J. 1981. “Multivariate Extreme Value Distributions.” Bulletin of International Statistical Institute, no. 49: 859–78.
Plackett, R. L. 1965. “A Class of Bivariate Distributions.” Journal of the America Statistical Association, no. 60: 516–22.
Quesada Molina, J. J., and J. A. Rodríguez Lallena. 1994. “Some Advances in the Study of the Compatibility of Three Bivariate Copulas.” Journal of the Italian Statistical Society, no. 3: 397–417.
———. 1995. “Bivariate Copulas with Quadratic Sections.” Journal of the Nonparametric Statistics, no. 5: 323–37.
Raftery, A. E. 1984. “A Continuous Multivariate Exponential Distribution.” Communications in Statistics - Theory and Methods, no. 13: 947–65.
———. 1985. “Some Properties of a New Continuous Bivariate Exponential Distribution.” Statistics & Decisions: Supplement Issue, no. 2: 53–58.
Roberts, A., and D. E. Varberg. 1973. Convex Functions. Academic Press, New York.
Rüschendorf, L. 1985. “Construction of Multivariate Distributions with Given Marginals.” Annals of the Institute of Statistical Mathematics.
Sarmanov, I. O. 1974. “New Forms of Correlation Relationships Between Positive Quantities Applied in Hydrology.” Mathematical Models in Hydrology, no. International Association of Hydrological Sciences, Paris: 104–9.
Schweizer, B., and A. Sklar. 1983. Probabilistic Metric Spaces. North-Holland, New York.
Sherwood, H., and M. D. Taylor. 1988. “Doubly Stochastic Measures with Hairpin Support.” Probability Theory and Related Fields, no. 78: 617–26.
Vaswani, S. P. 1947. “A Pitfall in Correlation Theory.” Nature, no. 160: 405–6.
Vitale, R. A. 1990. “On Stochastic Dependence and a Class of Degenerate Distributions.” Institute of Mathematical Statistics, no. Hayward, CA: 459–69.