Nos referiremos às copulas como “funções que juntam ou casam funções de distribuição multivariada às suas funções de distribuição marginal unidimensional” e como “funções de distribuição cujas marginais unidimensionais são uniformes”. Mas nenhuma dessas declarações é uma definição - portanto, dedicaremos esta seção a dar uma definição precisa de copulas e examinar algumas de suas propriedades elementares.
Mas primeiro apresentamos um vislumbre de onde estamos indo. Considere por um momento um par de variáveis aleatórias \(X\) e \(Y\), com funções de distribuição \[ F_X(x) = P(X\leq x) \qquad \mbox{e} \qquad F_Y(y) = P(Y\leq y), \] respectivamente e uma função de distribuição conjunta \(H(x,y) = P(X\leq x, Y\leq y)\).
Revisaremos as definições de variáveis aleatórias, funções de distribuição e outros tópicos importantes, conforme necessário no decorrer desta seção. Para cada par de números reais \((x,y)\), podemos associar três números: \(F_X(x)\), \(F_Y(y)\) e \(H(x,y)\).
Observe que cada um desses números está no intervalo [0,1]. Em outras palavras, cada par \((x,y)\) de números reais leva a um ponto \((F_X(x),F_Y(y))\) no quadrado da unidade \([0,1]\times [0,1]\) e este par ordenado corresponde, por sua vez, a um número \(H(x,y)\) em [0,1]. Mostraremos que essa correspondência, que atribui o valor da função de distribuição conjunta a cada par de valores ordenados das funções de distribuição individual, é realmente uma função. Tais funções são chamadas copulas.
Para realizar o que descrevemos acima, precisamos generalizar a noção de “não decrescente” para funções univariadas para um conceito aplicável a funções multivariadas. Começamos com alguma notação e definições.
O foco agora é a noção de uma função 2-crescente, um análogo bidimensional de uma função não decrescente de uma variável. Mas primeiro precisamos de introduzir alguma notação. Vamos denotar por \({\bf R}\) a reta real ordinária \((-\infty,+\infty)\), \(\overline{{\bf R}}\) designa a reta real extendida \([-\infty,+\infty]\) e \(\overline{{\bf R}}^2\) designa o plano real extendido \(\overline{{\bf R}}\times\overline{{\bf R}}\).
Um retângulo em \(\overline{{\bf R}}^2\) é o produto cartesiano \(B\) de dois intervalos fechados: \(B=[x_1,x_2]\times [y_1,y_2]\). Os vértices de um retângulo \(B\) são os pontos \((x_1,y_1)\), \((x_1,y_2)\), \((x_2,y_1)\) e \((x_2,y_2)\). O quadrado unitário \({\bf I}^2\) é o produto \({\bf I}\times{\bf I}\) onde \({\bf I} = [0,1]\). Uma função real de 2 lugares \(H\) é uma função cujo domínio, \(\mbox{Dom}(H)\) é um subconjunto de \(\overline{{\bf R}}^2\) e cuja imagem, \(\mbox{Img}(H)\), é um subconjunto de \({\bf R}\).
Sejam \(S_1\) e \(S_2\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função real de dois lugares tal que \(\mbox{Dom}(H)=S_1\times S_2\). Seja \(B=[x_1,x_2]\times [y_1,y_2]\) um retângulo cujos vértices estão todos em \(\mbox{Dom}(H)\). Então o volume por \(H\) (ou \(H\)-volume) de \(B\) é dado por \[ \tag{1.1} V_H(B)=H(x_2,y_2)-H(x_2,y_1)-H(x_1,y_2)+H(x_1,y_1)\cdot \]
Note-se que se definirmos as diferenças de primeira ordem de \(H\) no retângulo \(B\) como \[ \Delta_{x_1}^{x_2} H(x,y)=H(x_2,y)-H(x_1,y) \] e \[ \Delta_{y_1}^{y_2} H(x,y)=H(x,y_2)-H(x,y_1) \] então o volume \(H\) de um retângulo \(B\) é a diferença de segunda ordem de \(H\) em \(B\), \[ V_H(B)=\Delta_{y_1}^{y_2}\Delta_{x_1}^{x_2} H(x,y)\cdot \]
Uma função real de 2 lugares \(H\) é 2-crescente se \(V_H( B)\geq 0\) para todos os rectângulos \(B\) cujos vértices se situam em \(\mbox{Dom}(H)\).
Quando \(H\) é 2-crescente, referimo-nos ocasionalmente ao volume \(H\) de um retângulo \(B\) como a medida \(H\) de \(B\). Alguns referem-se a funções 2-crescentes como quase-monótonas. A afirmação “\(H\) é 2-crescente” não implica nem é implicada pela afirmação “\(H\) é não-decrescente em cada argumento”, como ilustram os dois exemplos seguintes. As verificações são elementares, e são deixadas como exercícios.
Seja \(H\) a função definida em \({\bf I}^2\) por \[ H(x,y) =\max\{x,y\}\cdot \] Então \(H\) é uma função não decrescente de \(x\) e de \(y\); no entanto, \(V_H({\bf I}^2) = -1\), pelo que \(H\) não é 2-crescente.
Seja \(H\) a função definida em \({\bf I}^2\) por \[ H(x,y) =(2x-1)(2y-1)\cdot \] Então \(H\) é 2-crescente, mas é uma função decrescente de \(x\) para cada \(y\) em \((0,1/2)\) e uma função decrescente de \(y\) para cada \(x\) em \((0,1/2)\).
Os seguintes lemas serão muito úteis na próxima seção para estabelecer a continuidade de subcopulas e copulas. O primeiro é uma consequência direta das Definições 1.1 e 1.2.
Sejam \(S_1\) e \(S_2\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função 2-crescente com domínio \(S_1\times S_2\). Sejam \(x_1,x_2\) em \(S_1\) tais que \(x_1\leq x_2\) e \(y_1,y_2\) em \(S_2\) tais que \(y_1\leq y_2\). Então a função \(f(t)=H(t,y_2)-H(t,y_1)\) é não decrescente em \(S_1\) e a função \(f(t)=H(x_2,t)-H(x_1,t)\) é não decrescente em \(S_2\).
Como aplicação imediata deste lema, podemos mostrar que com uma hipótese adicional, uma função 2-crescente \(H\) é não decrescente em cada argumento. Suponhamos que \(S_1\) tenha um elemento infimo \(a_1\) e que \(S_2\) tenha um elemento infimo \(a_2\). Dizemos que uma função \(H\) de \(S_1\times S_2\) em \(\pmb{R}\) é fundamental se \(H(x,a_2) = 0 = H(a_1,y)\) para todos \((x,y)\) em \(S_1\times S_2\). Assim, temos o seguinte resultado.
Sejam \(S_1\) e \(S_2\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função fundamental 2-crescente com domínio \(S_1\times S_2\). Então \(H\) é não decrescente em cada argumento.
Suponha agora que \(S_1\) tem um elemento supremo \(b_1\) e que \(S_2\) tem um elemento supremo \(b_2\). Dizemos então que uma função \(H\) de \(S_1\times S_2\) em \({\bf R}\) tem marginais e que as marginais de \(H\) são as funções \(F\) e \(G\) dadas por: \[ \mbox{Dom}(F) = S_1 \qquad \mbox{e} \qquad F(x) = H(x,b_2) \quad \forall x \in S_1; \\ \mbox{Dom}(G) = S_2 \qquad \mbox{e} \qquad G(y) = H(b_1,y) \quad \forall y \in S_2\cdot \]
Seja \(H\) a função com domínio \([-1,1]\times [0,\infty]\) dada por \[ H(x,y) =\dfrac{(x+1)(e^y-1)}{x+2e^y-1}\cdot \] Então \(H\) é fundamental porque \(H(x,0)=0\) e \(H(-1,y)=0\). \(H\) tem marginais \(F(x)\) e \(G(y)\) dadas por \[ F(x)=H(x,\infty)=\dfrac{x+1}{2} \qquad \mbox{e} \qquad G(y)=H(1,y)=1-e^{-y}\cdot \]
Terminamos esta seção com um importante lema relativo a funções 2-crescentes com marginais.
Sejam \(S_1\) e \(S_2\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função fundamental 2-crescente, com marginais, cujos domínios em \(S_1\times S_2\). Sejam \((x_1,y_1)\) e \((x_2,y_2)\) pontos em \(S_1\times S_2\). Então \[ |H(x_2,y_2)-H(x_1,y_1)|\leq |F(x_2)-F(x_1)|+|G(y_2)-G(y_1)|\cdot \]
Estamos agora em condições de definir as funções copulas, que são o objeto deste texto. Para o fazer, começamos por definir sub-fórmulas como uma certa classe de funções 2-crescentes com marginais; depois definimos copulas como subcopulas com domínio \({\bf I}^2\).
Uma subcopula bidimensional ou 2-subcopula, ou brevemente, uma subcopula é uma função \(C'\) com as seguintes propriedades:
\(\mbox{Dom}(C')=S_1\times S_2\), onde \(S_1\) e \(S_2\) são subsonjuntos de \({\bf I}\) contendo 0 e 1;
\(C'\) é fundamental e 2-crescente;
Para cada \(u\in S_1\) e cada \(\nu\in S_2\), \[ \tag{1.2} C'(u,1)=u \qquad \mbox{e} \qquad C'(1,\nu)=\nu\cdot \]
Note-se que, para cada \((u,\nu)\in \mbox{Dom}(C')\), \(0\leq C'(u,\nu)\leq 1\), pelo que \(\mbox{Img}(C')\) é também é um subconjunto de \({\bf I}\).
Uma copula bidimensional ou 2-copula, ou brevemente, uma copula é uma subcopula \(C\) cujo domínio é \({\bf I}^2\).
Equivalentemente, uma copula é uma função \(C\) desde \({\bf I}^2\) a \({\bf I}\) com as seguintes propriedades:
Para cada \(u,\nu\in{\bf I}\), \[ \tag{1.3} C(u,0)=0=C(0,\nu) \] e \[ \tag{1.4} C(u,1)=u \qquad \mbox{e} \qquad C(1,\nu)=\nu; \]
Para cada \(u_1,u_2,\nu_1,\nu_2\in{\bf I}\) tais que \(u_1\leq u_2\) \(\nu_1\leq \nu_2\), \[ \tag{1.5} C(u_2,\nu_2)-C(u_2,\nu_1)-C(u_1,\nu_2)+C(u_1,\nu_1)\geq 0\cdot \]
Porque \(C(u,\nu)=V_C([0,u]\times [0,\nu])\), podemos pensar em \(C(u,\nu)\) como uma atribuição de um número em \({\bf I}\) ao retângulo \([0,u]\times [0,\nu]\). Assim, (1.5) dá uma fórmula do tipo “inclusão-exclusão” para o número atribuído por \(C\) a cada retângulo \([u_1,u_2]\times [\nu_1,\nu_2]\) em \({\bf I}^2\) e afirma que o número assim atribuído tem de ser não-negativo.
A distinção entre uma subcopula e uma copula (o domínio) pode parecer insignificante, mas será bastante importante na próxima seção, quando discutirmos o teorema de Sklar. Além disso, muitas das propriedades importantes das copulas são na realidade propriedades das subcopulas.
Seja \(C'\) uma subcopula. Então, para cada \((u,\nu)\in\mbox{Dom}(C')\), \[ \tag{1.6} \max\{u+\nu-1,0\}\leq C'(u,\nu)\leq \min\{u,\nu\}\cdot \]
Como cada copula é uma subcopula, a desigualdade no teorema acima acima é válida para as copulas. De fato, os limites em (1.6) são eles próprios copulas e são normalmente denotados por \[ M(u,v) = \min\{u,\nu\} \qquad \mbox{e} \qquad W(u,\nu)=\max\{u+\nu-1,0\}\cdot \] Assim, para cada copula \(C\) e cada \((u,\nu)\) em \(\bf{I}^2\), \[ \tag{1.7} W(u,\nu)\leq C(u,\nu)\leq M(u,\nu)\cdot \]
A desigualdade (1.7) é a versão para copulas da desigualdade dos limites de Fréchet-Hoeffding, que encontraremos mais tarde em termos de funções de distribuição. Referimo-nos a \(M\) como o limite superior de Fréchet-Hoeffding e \(W\) como o limite inferior de Fréchet-Hoeffding.
Uma terceira copula importante que encontraremos frequentemente é a copula de produto \(\Pi(u,\nu) = u\nu\). O teorema seguinte, que decorre diretamente do Lema 1.3, estabelece a continuidade das subcopulas e, portanto, das copulas através de uma condição condição de Lipschitz em \({\bf I}^2\).
Seja \(C'\) uma subcopula. Então, para cada \((u_1,u_2)\) e \((\nu_1,\nu_2)\) em \(\mbox{Dom}(C')\), \[ \tag{1.8} |C'(u_2,\nu_2)-C'(u_1,\nu_1)| \leq |u_2-u_1|+|\nu_2-\nu_1|\cdot \] Então, \(C'\) é uniformemente contínua no seu domínio.
As seções de uma copula serão utilizadas na construção de copulas em seções seguintes e serão utilizadas posteriormente para fornecer interpretações de certas propriedades de dependência.
Seja \(C\) uma copula e seja \(a\) um número qualquer em \({\bf I}\). A seção horizontal de \(C\) em \(a\) é a função de \({\bf I}\) para \({\bf I}\) dada por \(t \mapsto C(t,a)\); a seção vertical de \(C\) em \(a\) é a função de \({\bf I}\) para \({\bf I}\) dada por \(t \mapsto C(a,t)\) e a seção diagonal de \(C\) é a função \(\delta_ C\) de \({\bf I}\) para \({\bf I}\) definida por \(\delta_C(t) = C(t,t)\).
As seções horizontal, vertical e diagonal de uma copula \(C\) são todas não decrescentes e uniformemente contínuas em \({\bf I}\).
Várias aplicações de copulas que encontraremos posteriormente envolvem a forma do gráfico de uma copula, ou seja, a superfície \(z = C(u,\nu)\). Da Definição 1.3 e do Teorema 1.2 resulta que o gráfico de qualquer copula é uma superfície contínua no interior do cubo unitário \({\bf I}^3\) cuja fronteira é o quadrilátero oblíquo de vértices (0,0,0), (1,0,0), (1,1,1) e (0,1,0) e do Teorema 1.2 resulta que este gráfico se situa entre os gráficos dos limites de Fréchet-Hoeffding, isto é, as superfícies \(z = M(u,\nu)\) e \(z = W(u,\nu)\).
Na Figura 1.1 apresentamos os gráficos das copulas \(M\) e \(W\), bem como o gráfico de \(\Pi\), uma porção do paraboloide hiperbólico \(z = u\nu\). Uma forma simples mas útil de apresentar o gráfico de uma copula é com um diagrama de contorno Conway (1979), ou seja, com os gráficos dos suas curvas de níveis, os conjuntos em \({\bf I}^2\) dados por \(C(u,\nu)\) = uma constante, para constantes selecionadas em \({\bf I}\).
Figura 1.1. Gráficos das copulas \(M\), \(\Pi\) e \(W\).
Na Figura 1.2 apresentamos os diagramas de contorno das copulas \(M\), \(\Pi\) e \(W\). Note-se que os pontos \((t,1)\) e \((1,t)\) são cada um dos membros do conjunto de níveis correspondente à constante \(t\). Assim, não precisamos de rotular os conjuntos de níveis no diagrama, uma vez que as condições de fronteira \(C(1,t) = t = C(t,1)\) fornecem prontamente a constante para cada conjunto de níveis.
Figura 1.2. Diagramas de contorno das copulas \(M\), \(\Pi\) e \(W\).
Note-se também que, dada uma qualquer copula \(C\), decorre de (1.7) que, para um dado \(t\) em \({\bf I}\), o gráfico do conjunto de níveis \(\{(u,\nu)\in {\bf I}^2 \, | \, C(u,\nu)=t\}\) tem de se situar no triângulo sombreado da Figura 1.3, cujos limites são os conjuntos de níveis determinados por \(M(u,\nu) = t\) e \(W(u,\nu) = t\).
Figura 1.3. A região que contém o conjunto de níveis \(\{(u,\nu)\in {\bf I}^2 \, | \, C(u,\nu)=t\}\).
Concluímos esta seção com os dois teoremas relativos às derivadas parciais parciais de copulas. A palavra “quase” é usada no sentido de medida de Lebesgue.
Seja \(C\) uma copula. Então, para cada \(\nu\in{\bf I}\), a derivada parcial \(\partial C(u,\nu)/\partial u\) existe para quase todos os \(u\) e para tais \(\nu\) e \(u\), \[ \tag{1.9} 0\leq \dfrac{\partial}{\partial u}C(u,\nu)\leq 1\cdot \] Analogamente, para qualquer \(u\) em \({\bf I}\), a derivada parcial \(\partial C(u,\nu)/\partial\nu\) existe para quase todo \(\nu\), e para tais \(u\) e \(\nu\), \[ \tag{1.10} 0\leq \dfrac{\partial}{\partial\nu}C(u,\nu)\leq 1\cdot \] Além disso, as funções \(u\mapsto \partial C(u,\nu)/\partial\nu\) e \(\nu\mapsto \partial C(u,\nu)/\partial u\) são definidas e não decrescentes em quase certamente em \({\bf I}\).
Seja \(C\) uma copula. Se \(\partial C(u,\nu)/\partial \nu\) e \(\partial^2 C(u,\nu)/\partial u\partial\nu\) são contínuas em \({\bf I}^2\) e \(\partial C(u,\nu)/\partial u\) existe para todo \(u\in(0,1)\) quando \(\nu=0\), então \(\partial C(u,\nu)/\partial u\) e \(\partial^2 C(u,\nu)/\partial\nu\partial u\) existe em \({\bf I}^2\) e \[ \dfrac{\partial^2 C(u,\nu)}{\partial u\partial\nu} =\dfrac{\partial^2 C(u,\nu)}{\partial\nu\partial u}\cdot \]
O teorema apresentado no título desta seção é fundamental para a teoria das copulas e é a base de muitas, se não da maioria, das aplicações dessa teoria à estatística. O teorema de Sklar elucida o papel que as copulas desempenham na relação entre as funções de distribuição multivariada e as suas e as suas distribuições marginais univariadas. Assim, começamos esta seção com uma breve discussão sobre funções de distribuição.
A função de distribuição acumulada \(F\) é uma função com domínio \(\overline{\bf R}\) tal que
\(F\) é não decrescente,
\(F(-\infty)=0\) e \(F(+\infty)=1\).
Para qualquer \(a\in{\bf R}\), o degrau unitário em \(a\) é a função de distribuição \(\epsilon_a\) dada por \[ \epsilon_a(x)=\left\{ \begin{array}{rl} 0, & x\in[-\infty,a) \\[0.8em] 1, & x\in [a,+\infty) \end{array}\right.; \] e para quaisquer números \(a,b\in{\bf R}\) com \(a < b\), a distribuição uniforme em [a,b] é a função de distribuição \(U_{[a,b]}\) dada por \[ U_{[a,b]}(x)=\left\{ \begin{array}{cc} 0, & x\in[-\infty,a) \\[0.8em] \dfrac{x-a}{b-a}, & x\in [a,b]\\[0.8em] 1, & x\in (b,+\infty] \end{array}\right.\cdot \]
A função de distribuição conjunta \(H\) é uma função com domínio em \(\overline{{\bf R}}^2\) tal que
\(H\) é 2-crescente,
\(H(x,-\infty)=H(-\infty,y)=0\) e \(H(+\infty,+\infty)=1\).
Assim, \(H\) é fundamental e, como o \(\mbox{Dom}(H) = \overline{\bf R}^2\), \(H\) tem marginais \(F\) e \(G\) dadas por \(F(x) = H(x,+\infty)\) e \(G(y) = H(\infty,y)\). Em virtude do Corolário 1.1, \(F\) e \(G\) são funções de distribuição.
Seja \(H\) uma função com domínio \(\overline{\bf R}^2\) dada por \[ H(x,y)=\left\{ \begin{array}{cc} \dfrac{(x+1)(e^y-1)}{x+2e^y-1}, & (x,y)\in [-1,1]\times [0,+\infty] \\[0.8em] 1-e^{-y}, & (x,y)\in (1,+\infty]\times [0,+\infty]\\[0.8em] 0, & \mbox{caso contrário} \end{array}\right., \]
É tedioso mas elementar verificar que \(H\) é 2-crescente e fundamental, e que \(H(+\infty,+\infty) = 1\). Assim, \(H\) é uma função de distribuição conjunta. As marginais de \(H\) são as funções de distribuição \(F\) e \(G\) dadas por \[ F=U_{[-1,1]} \qquad \mbox{e} \qquad G(y)=\left\{ \begin{array}{cc} 0, & y\in [-\infty,0) \\[0.8em] 1-e^{-y}, & y\in [0,+\infty] \end{array}\right. \]
Note-se que não há nada de “probabilístico” nestas definições de funções de distribuição. As variáveis aleatórias não são mencionadas, nem a continuidade à esquerda ou a continuidade à direita. Todas as funções de distribuição de uma ou de duas variáveis aleatórias normalmente encontradas em estatística satisfazem a primeira ou a segunda das definições acima.
A partir daí, todos os resultados que derivarmos para essas funções de distribuição serão válidos quando discutirmos variáveis aleatórias, independentemente de quaisquer restrições adicionais que possam ser impostas.
Seja \(H\) uma função de distribuição com marginais \(F\) e \(G\). Então existe um copula \(C\) de maneira que, para todo \(x,y\in\overline{\bf R}\), \[ \tag{1.11} H(x,y)=C\big( F(x),G(y)\big)\cdot \] Se \(F\) e \(G\) forem contínuas, então \(C\) é única; caso contrário, \(C\) é determinada de forma única em \(\mbox{Dom}(F)\times \mbox{Dom}(G)\). Inversamente, se \(C\) for uma copula e \(F\) e \(G\) forem funções de distribuição, então a função \(H\) definida em (1.11) é uma função de distribuição conjunta com marginais \(F\) e \(G\).
Este teorema apareceu pela primeira vez em Sklar (1959). O nome “copula” foi escolhido para realçar a forma como uma copula “acopla” uma função de distribuição conjunta às suas marginais univariadas. O argumento que apresentamos a seguir é essencialmente o mesmo que em Schweizer and Sklar (1974). Requer dois lemas.
Seja \(H\) uma função de distribuição com marginais \(F\) e \(G\). Então existe uma única subcopula \(C'\) de maeira que
\(\mbox{Dom}(C')=\mbox{Img}(F)\times \mbox{Img}(G)\),
para todos \(x,y\in\overline{\bf R}\), \(H(x,y)=C'\big( F(x),G(y)\big)\).
Seja \(C'\) uma subcopula. Então existe uma copula \(C\) tal que \(C(u,\nu) = C'(u,\nu)\) para todos os \((u,\nu)\in\mbox{Dom}(C')\); ou seja, qualquer subcopula pode ser alargada a uma copula. A extensão é geralmente não única.
Seja \(\mbox{Dom}(C')=S_1\times S_2\). Utilizando o Teorema 1.2 e o fato de \(C'\) ser não decrescente em cada lugar, podemos estender \(C'\) por continuidade a uma \(C''\) com domínio \(\overline{S}_1\times \overline{S}_2\), onde \(\overline{S}_1\) é o fecho de \(S_1\) e \(\overline{S}_2\) é o fecho de \(S_2\). É evidente que \(C''\) é também uma subcopula. De seguida, estendemos \(C''\) a uma função \(C\) com domínio \({\bf I}^2\) . Para o efeito, seja \((a,b)\) um ponto qualquer de \({\bf I}^2\), sejam \(a_1\) e \(a_2\), respetivamente, o maior e o menor elemento de \(\overline{S}_1\) que satisfazem \(a_1\leq a\leq a_2\) e sejam \(b_1\) e \(b_2\), respetivamente, o maior e o menor elemento de \(\overline{S}_2\) que satisfazem \(b_1\leq b\leq b_2\). Note-se que se \(a\) está em \(\overline{S}_1\), então \(a_1 = a = a_2\) e se \(b\) está em \(\overline{S}_2\), então \(b_1 = b = b_2\). Agora, sejam \[ \lambda_1=\left\{ \begin{array}{cc} \dfrac{a-a_1}{a_2-a_1}, & \mbox{se} \quad a_1<a_2 \\[0.8em] 1, & \mbox{se} \quad a_1=a_2 \end{array}\right.; \] \[ \mu_1=\left\{ \begin{array}{cc} \dfrac{b-b_1}{b_2-b_1}, & \mbox{se} \quad b_1<b_2 \\[0.8em] 1, & \mbox{se} \quad b_1=b_2 \end{array}\right. \] e definamos \[ \tag{1.12} \begin{array}{rcl} C(a,b) & = & (1-\lambda_1)(1-\mu_1)C''(a_1,b_1)+(1-\lambda_1)\mu_1 C''(a_1,b_2)+\\[0.8em] & & \qquad \qquad +\lambda_1(1-\mu_1)C''(a_2,b_1)+\lambda_1\mu_1 C''(a_2,b_2)\cdot \end{array} \]
Note-se que a interpolação definida em (1.12) é linear em cada lugar, o que chamamos interpolação bilinear, porque \(\lambda_1\) e \(\mu_1\) são lineares em \(a\) e \(b\), respetivamente. É óbvio que \(\mbox{Dom}(C)={\bf I}^2\), que \(C(a,b) = C''(a,b)\) para qualquer \((a,b)\) em \(\mbox{Dom}(C'')\) e que \(C\) satisfaz (1.3) e (1.4). Assim, somente temos de mostrar que \(C\) satisfaz (1.5). Para isso, seja \((c,d)\) outro ponto em \({\bf I}^2\) tal que \(c\geq a\) e \(d\geq b\) e que \(c_1\), \(d_1\), \(c_2\), \(d_2\), \(\lambda_2\), \(\mu_2\) estejam relacionados com \(c\) e \(d\) como \(a_1\), \(b_1\), \(a_2\), \(b_2\), \(\lambda_1\), \(\mu_1\) estão relacionados com \(a\) e \(b\). No cálculo de \(V_C(B)\) para o retângulo \(B = [a,c]\times [b,d]\), há vários casos a considerar, dependendo de haver ou não um ponto em \(\overline{S}_1\) estritamente entre \(a\) e \(c\) e de haver ou não um ponto em \(\overline{S}_2\) estritamente entre \(b\) e \(d\). No caso mais simples, não há nenhum ponto em \(\overline{S}_1\) estritamente entre \(a\) e \(c\) e nenhum ponto em \(\overline{S}_2\) estritamente entre \(b\) e \(d\), pelo que \(c_1 = a_1\) , \(c_2 = a_2\), \(d_1 = b_1\) e \(d_2 = b_2\). Substituindo (1.12) e os termos correspondentes para \(C(a,d)\), \(C(c,b)\) e \(C(c,d)\) na expressão dada por (1.1) para \(V_C(B)\) e simplificando, obtém-se \[ V_C(B)=V_C([a,c]\times [b,d])=(\lambda_2-\lambda_1)(\mu_2-\mu_1)V_C([a_1,a_2]\times [b_1,b_2]), \] de onde se conclui que \(V_C(B)\geq 0\) neste caso, pois \(c\geq a\) e \(d\geq b\) implicam \(\lambda_2\geq \lambda_1\) e \(\mu_2\geq \mu_1\).
Figura 1.4. O caso menos simples na prova do Lema 1.5.
No outro extremo, o caso menos simples ocorre quando há pelo menos um ponto em pelo menos um ponto em \(\overline{S}_1\) estritamente entre \(a\) e \(c\) e pelo menos um ponto em \(\overline{S}_2\) estritamente entre \(b\) e \(d\), de modo que \(a<a_2\leq c_1\) e \(b<b_2\leq d\). Neste caso, que é ilustrado na Figura 1.4, substituindo (1.12) e os termos correspondentes para \(C(a,d)\), \(C(c,b)\) e \(C(c,d)\) na expressão dada por (1.1) para \(V_C(B)\) e rearranjando os termos obtém-se \[ \begin{array}{rcl} V_C(B) & = & (1-\lambda_1)\mu_2 V_C([a_1,a_2]\times [d_1,,d_2])+\mu_2 V_C([a_2,c_1]\times [d_1,d_2])+ \\[0.8em] & & \qquad +\lambda_2 \mu_2 V_C([c_1,c_2]\times [d_1,d_2])+(1-\lambda_1)V_C([a_1,a_2]\times [b_2,d_1])+ \\[0.8em] & & \qquad +V_C([a_2,c_1]\times [b_2,d_1])+\lambda_2 V_C([c_1,c_2]\times [b_2,d_1])+ \\[0.8em] & & \qquad +(1-\lambda_1)(1-\mu_1)V_C([a_1,a_2]\times [b_1,b_2])+(1-\mu_1)V_C([a_1,a_2]\times [b_1,b_2])+ \\[0.8em] & & \qquad +\lambda_2(1-\mu_1)V_C([c_1,c_2]\times [b_1,b_2])\cdot \end{array} \] O lado direito da expressão acima é uma combinação de nove quantidades não negativas, os volumes \(C\) dos nove rectângulos determinados pelas linhas tracejadas na Figura 1.4 com coeficientes não negativos e, portanto, é não negativo. Os restantes casos são semelhantes, o que completa a prova.Seja \((a,b)\) um ponto qualquer em \(\overline{\bf R}^2\) e considere a seguinte função de distribuição \(H\), \[ H(x,y)=\left\{ \begin{array}{cc} 0, & x<a \quad \mbox{ou} \quad y<b \\[0.8em] 1, & x\geq a \quad \mbox{e} \quad y\geq b\end{array}\right.\cdot \] As marginais de \(H\) são as funções de degrau unitário \(F_a\) e \(F_b\). Aplicando o Lema 1.4, obtém-se a subcopula \(C'\) com domínio \(\{0,1\}\times \{0,1\}\) tal que \[ C'(0,0) = C'(0,1) = C'(1,0) = 0 \qquad \mbox{e} \qquad C'(1,1) = 1\cdot \] A extensão de \(C'\) a uma copula \(C\) através do Lema 1.5 é a coula \(C = \Pi\), isto é, \(C(u,\nu) = u\,\nu\). Note-se, no entanto, que cada copula concorda com \(C'\) no seu domínio e é, portanto, uma extensão desta \(C'\).
Estamos agora prontos para provar o Teorema de Sklar.
A equação (1.11) fornece uma expressão para funções de distribuição conjunta em termos de uma copula e duas funções de distribuição univariada. Mas (1.11) pode ser invertida para expressar as copulas em termos de uma função de distribuição conjunta e os “inversos” das duas marginais. Contudo, se uma marginal não for estritamente crescente, então não possui uma inversa no sentido habitual. Assim, precisamos primeiro de definir “quase-inversas” de funções de distribuição.
Seja \(F\) uma função de distribuição. Então a quase-inversa de \(F\) é qualquer função \(F^{(-1)}\) com domínio \({\bf I}\) de maneira que
se \(t\) estiver em \(\mbox{Img}(F)\), então \(F^{(-1)}(t)\) é um número qualquer \(x\) em \(\overline{\bf R}\) de tal froma que \(F(x)=t\), ou seja, para todo \(t\in\mbox{Img}(F)\), \[ F\big(F^{(-1)}(t)\big)=t; \]
se \(t\) não estiver em \(\mbox{Img}(F)\), então \[ F^{(-1)}(t)=\inf\{x \, : \, F(x)\geq t\}=\sup\{x \, : \, F(x)\leq t \}\cdot \]
Se \(F\) for estritamente crescente, então tem apenas uma quase-inversa, que é naturalmente o inverso ordinário, para o qual usamos a notação habitual \(F^{-1}\).
A quase-inversa de \(F_a\), o degrau unitário em \(a\) (ver Exemplo 1.4) são as funções dadas por \[ F_a^{(-1)}(t)=\left\{ \begin{array}{ccc} a_0, & \mbox{se} & t=0 \\[0.8em] a, & \mbox{se} & t\in (0,1)\\[0.8em] a_1, & \mbox{se} & t=1 \end{array}\right. \] onde \(a_0\) e \(a_1\) são quaisquer números em \(\overline{\bf R}\) tais que \(a_0<a\leq a_1\).
Usando quase-inversas de funções de distribuição, temos agora o seguinte corolário do Lema 1.4.
Sejam \(H\), \(F\), \(G\) e \(C'\) como no Lema 1.4 e sejam \(F^{(-1)}\) e \(G^{(-1)}\) quase-inversas de \(F\) e \(G\), respectivamente. Então, para quaisquer \((u,\nu)\in\mbox{Dom}(C')\), \[ \tag{1.13} C'(u,\nu)=H\big( F^{(-1)}(u),G^{(-1)}(\nu)\big)\cdot \]
Quando \(F\) e \(G\) são contínuos, o resultado acima também se aplica a copulas e fornece um método para construir copulas a partir de distribuições conjuntas. Exploraremos o Corolário 1.2 no próximo capítulo para construir famílias de copulas, mas por agora os exemplos seguintes servirão para ilustrar o procedimento.
Recordemos a função de distribuição \(H\) do Exemplo 1.5 \[ H(x,y)=\left\{ \begin{array}{cc} \dfrac{(x+1)(e^y-1)}{x+2e^y-1}, & (x,y)\in [-1,1]\times [0,+\infty] \\[0.8em] 1-e^{-y}, & (x,y)\in (1,+\infty]\times [0,+\infty]\\[0.8em] 0, & \mbox{caso contrário} \end{array}\right., \] com marginais \(F\) e \(G\) dadas por \[ F(x)=\left\{\begin{array}{cc} 0, & x<-1, \\[0.8em] \dfrac{x+1}{2}, & x\in [-1,1],\\[0.8em] 1, & x>1,\end{array}\right. \qquad \mbox{e} \qquad G(y)=\left\{\begin{array}{cc} 0, & y<0, \\[0.8em] 1-e^{-y}, & y\geq 0\end{array}\right.\cdot \]
Quase-inversas de \(T\) e \(G\) são dadas por \[ F^{(-1)}(u)=2u-1 \qquad \mbox{e} \qquad G^{(-1)}(\nu)=-\ln(1-\nu), \] para \(u,\nu\in {\bf I}\). Dados que \(\mbox{Img}(F)=\mbox{Img}(G)={\bf I}\) o resultado em (1.13) fornece a copula \(C\) dada por \[ \tag{1.14} C(u,\nu)=\dfrac{u\, \nu}{u+\nu-u\, \nu}\cdot \]
A distribuição exponencial bivariada de Gumbel (Gumbel 1960). Seja \(H_\theta\) a função de distribuição conjunta dada por \[ H_\theta(x,y)=\left\{ \begin{array}{cc} 1-e^{-x}-e^{-y}+e^{-(x+y+\theta xy)}, & x\geq 0, y\geq 0\\[0.8em] 0, & \mbox{caso contrário}\end{array}\right., \] onde \(\theta\) é um parámetro em \([0,1]\).
Então as funções de distribuição marginais são exponenciais, com quase-inversas \[ F^{(-1)}(u)=-\ln(1-u) \qquad \mbox{e} \qquad G^{(-1)}(\nu)=-\ln(1-\nu), \] para \(u,\nu\in{\bf I}\). Assim, a copula correspondente é \[ \tag{1.15} C_\theta(u,\nu)=u+\nu-1+(1-u)(1-\nu)e^{-\theta\ln(1-u)\ln(1-\nu)}\cdot \]
É um exercício em muitos textos de estatística matemática encontrar um exemplo de uma distribuição bivariada com marganais normais padrão que não seja a normal bivariada padrão com parâmetros \(\mu_X = \mu_Y = 0\), \(\sigma_X^2 =\sigma_Y^2 = 1\) e o coeficiente de correlação produto-momento de Pearson \(\rho\). Com o Teorema de Sklar e o Corolário 1.2, isto torna-se trivial.
Considere \(C\) ser uma copula como uma dos exemplos anteriores e utilize as margenais normais padrão em (1.13). De fato, se \(\Phi\) denota a função de distribuição normal padrão (univariada) e \(N_\rho\) denota a função de distribuição normal bivariada padrão, com o coeficiente de correlação produto-momento de Pearson \(\rho\), então qualquer copula, exceto uma da forma \[ \tag{1.16} \begin{array}{rcl} C(u,\nu) & = & \displaystyle N_\rho\big(\Phi^{-1}(u),\Phi^{-1}(\nu)\big) \\ & = & \displaystyle \dfrac{1}{2\pi\sqrt{1-\rho^2}}\int_{-\infty}^{\Phi^{-1}(u)}\int_{-\infty}^{\Phi^{-1}(\nu)}\exp\left(-\dfrac{s^2-2\rho st+t^2}{2(1-\rho^2)} \right)\mbox{d}s\mbox{d}t, \end{array} \] com \(\rho\neq -1\), 0 ou 1 será suficiente.
Construções explícitas usando outras copulas podem ser encontradas em Kowalski (1973) e uma usando a copula \(C_{1/2}\) do Exercício 9 em Vitale (1978).
Terminamos esta seção com uma observação final. Com uma extensão adequada do seu domínio a \(\overline{\bf R}^2\), cada copula é uma função de distribuição conjunta com marginais que são uniformes em \({\bf I}\). Para ser exato, seja \(C\) uma copula e defina a função \(H_C\) em \(\overline{\bf R}^2\) através de \[ H_C(x,y)=\left\{ \begin{array}{cc} 0, & x<0 \mbox{ ou } y<0, \\[0.8em] C(x,y), & (x,y)\in{\bf I}^2, \\[0.8em] x, & y>1, x\in {\bf I},\\[0.8em] y, & x>1, y\in{\bf I},\\[0.8em] 1, & x>1 \mbox{ e } y>1\cdot\end{array}\right. \]
Então \(H_C\) é uma função de distribuição cujas duas marganais são facilmente vistas como sendo \(U_{[0,1]}\). De fato, é muitas vezes útil pensar nas copulas como restrições a \({\bf I}^2\) de funções de distribuição conjunta cujas marganais são \(U_{[0,1]}\).
Neste texto, utilizaremos o termo “variável aleatória” no sentido estatístico e não probabilístico; ou seja, uma variável aleatória é uma quantidade cujos valores são descritos por uma função de distribuição de probabilidade, conhecida ou desconhecida.
É claro que todos os resultados que se seguem permanecem válidos quando uma variável aleatória é definida em termos de teoria da medida, ou seja, como uma função mensurável num determinado espaço de probabilidade. Mas, para os nossos objectivos, basta adotar as descrições de Wald (1947), “uma variável \(X\) é designada por variável aleatória se, para qualquer valor dado \(c\), puder ser atribuída uma probabilidade definida ao acontecimento de \(X\) assumir um valor inferior a \(c\)”; e de Gnedenko (1962), “uma variável aleatória é uma quantidade variável cujos valores dependem do acaso e para a qual existe uma função de distribuição”. Para uma discussão pormenorizada deste ponto de vista, ver Menger (1956).
No que se segue, utilizaremos letras maiúsculas, tais como \(X\) e \(Y\), para representar variáveis aleatórias e letras minúsculas \(x\), \(y\) para representar os seus valores. Dizemos que \(F\) é a função de distribuição da variável aleatória \(X\) quando, para todo o \(x\) em \(\overline{{\bf R}}\), \(F(x) = P(X\leq x)\). Definimos funções de distribuição de variáveis aleatórias para serem contínuas à direita - mas isso é simplesmente uma questão de costume e conveniência. As funções de distribuição contínuas à esquerda serviriam igualmente bem.
Uma variável aleatória é contínua se a sua função de distribuição for contínua. Quando discutimos duas ou mais variáveis aleatórias, adoptamos a mesma convenção - duas ou mais variáveis aleatórias são os componentes de uma quantidade, agora um vetor, cujos valores são descritos por uma função de distribuição conjunta.
Como consequência, assumimos sempre que o conjunto de variáveis aleatórias em discussão pode ser definido num espaço de probabilidade comum. Estamos agora em condições de reafirmar o Teorema de Sklar em termos de variáveis aleatórias e das suas funções de distribuição.
Sejam \(X\) e \(Y\) variáveis aleatórias com funções de distribuição \(F\) e \(G\), respetivamente, e função de distribuição conjunta \(H\). Então existe uma copula \(C\) tal que (1.11) é válida. Se \(F\) e \(G\) forem contínuas, \(C\) é única. Caso contrário, \(C\) é determinada de forma única em \(\mbox{Img}(F)\times \mbox{Img}(G)\).
A copula \(C\) do Teorema 1.6 será designada por copula de \(X\) e \(Y\) e denotada por \(C_{X,Y}\) quando a sua identificação com as variáveis aleatórias \(X\) e \(Y\) for vantajosa.
O teorema seguinte mostra que a copula produto \(\Pi(u,\nu) = u\nu\) caracteriza variáveis aleatórias independentes quando as funções de distribuição são contínuas.
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas. Então, \(X\) e \(Y\) são independentes se, e somente se, \(C_{X,Y}=\Pi\).
Grande parte da utilidade das copulas no estudo da estatística não paramétrica deriva do facto de que, para transformações estritamente monótonas das variáveis aleatórias, as copulas são invariantes ou mudam de forma previsível.
Recordemos que se a função de distribuição de uma variável aleatória \(X\) for contínua e se a for uma função estritamente monótona cujo domínio contém \(\mbox{Img}(X)\), então a função de distribuição da variável aleatória a \(\alpha(X)\) é também contínua. Começamos por tratar o caso das transformações estritamente crescentes.
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C_{X,Y}\). Se \(\alpha\) e \(\beta\) forem funções estritamente crescentes em \(\mbox{Img}(X)\) e \(\mbox{Img}(Y)\), respectivamente, então \[ C_{\alpha(X),\beta(Y)}=C_{X,Y}\cdot \] Assim, \(C_{X.Y}\) é invariante sob transformações estritamente crescentes de \(X\) e \(Y\).
Quando pelo menos um de \(\alpha\) e \(\beta\) é estritamente decrescente, obtemos resultados em que a copula das variáveis aleatórias \(\alpha(X)\) e \(\beta(Y)\) é uma simples transformação de \(C_{X,Y}\).
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C_{X,Y}\). Se \(\alpha\) e \(\beta\) forem funções estritamente monótonas em \(\mbox{Img}(X)\) e \(\mbox{Img}(Y)\), respectivamente,
Se \(\alpha\) for estritamente crescente e \(\beta\) estritamente decrescente, então \[ C_{\alpha(X),\beta(Y)}(u,\nu)=u-C_{X,Y}(u,1-\nu)\cdot \]
Se \(\alpha\) for estritamente decrescente e \(\beta\) estritamente crescente, então \[ C_{\alpha(X),\beta(Y)}(u,\nu)=\nu-C_{X,Y}(1-u,\nu)\cdot \]
Se \(\alpha\) e \(\beta\) forem ambas estritamente decrescentes, então \[ C_{\alpha(X),\beta(Y)}(u,\nu)=u+\nu-1+C_{X,Y}(1-u,1-\nu)\cdot \]
Note-se que em cada caso a forma da copula é independente das escolhas particulares de \(\alpha\) e \(\beta\) e note-se ainda que as três formas para \(C_{\alpha(X),\beta(Y)}\) que aparecem neste teorema foram encontradas pela primeira vez no Exercício 1.5. Poderíamos ser um pouco mais gerais nos dois teoremas anteriores, substituindo expressões como “estritamente crescente” por “quase certamente estritamente crescente” para permitir subconjuntos de medida de Lebesgue zero onde a propriedade pode não se manter.
Embora tenhamos optado por evitar a teoria da medida na definição de variáveis aleatórias, iremos, no entanto, precisar de alguma terminologia e resultados da teoria da medida nas restantes seções deste capítulo e nos capítulos seguintes. Cada função de distribuição conjunta \(H\) induz uma medida de probabilidade em \({\bf R}^2\) através de \[ V_H\big((-\infty,x]\times (\infty,y]\big)= H(x,y) \] e uma extensão padrão para subconjuntos Borel de \({\bf R}^2\) usando técnicas de teoria da medida.
Uma vez que as copulas são funções de distribuição conjunta, com marginais uniformes (0,1), cada copula \(C\) induz uma medida de probabilidade em \({\bf I}^2\) através de \(V_C([0,u]\times [0,\nu]) = C(u,v)\) de forma semelhante, ou seja, a medida \(C\) de um conjunto é o seu \(C\)-volume \(V_C\). Assim, a um nível intuitivo, a \(C\)-medida de um subconjunto de \({\bf I}^2\) é a probabilidade de duas variáveis aleatórias uniformes (0,1) \(U\) e \(V\) com função de distribuição conjunta \(C\) assumirem valores nesse subconjunto.
As \(C\)-medidas são muitas vezes designadas por medidas duplamente estocásticas, uma vez que, para qualquer subconjunto mensurável \(S\) de \({\bf I}\), \[ V_C(S\times {\bf I}) = V_C({\bf I}\times S) = \lambda(S), \] em que \(\lambda\) denota a medida de Lebesgue ordinária em \({\bf I}\). O termo “duplamente estocástico” é retirado da teoria das matrizes, em que as matrizes duplamente estocásticas têm entradas não negativas e todas as somas das linhas e das colunas são 1.
Para qualquer copula \(C\), seja \[ C(u,\nu)=A_C(u,\nu)+S_C(u,\nu), \] onde \[ \tag{1.17} A_C(U,\nu)=\int_0^u \int_0^\nu \dfrac{\partial^2}{\partial s\partial t} C(s,t)\mbox{d}t\mbox{d}s \qquad \mbox{e} \qquad S_C(u,\nu)=C(u,\nu)-A_C(u,\nu)\cdot \]
Ao contrário das distribuições bivariadas em geral, as marginais de uma copula são contínuas, pelo que uma copula não tem “átomos”, pontos individuais em \({\bf I}^2\) cuja \(C\)-medida seja positiva.
Se \(C=A_C\) em \({\bf I}^2\), isto é, se considerada como uma função de distribuição conjunta, \(C\) tem uma densidade conjunta dada por \[ \dfrac{\partial^2}{\partial u\partial\nu} C(u,\nu), \] então \(C\) é absolutamente contínua, enquanto que se \(C=S_C\) em \({\bf I}^2\), isto é, se \(\partial^2 C(u,\nu)/\partial u\partial\nu = 0\) em quase todo \({\bf I}^2\), então \(C\) é singular.
Caso contrário, \(C\) tem uma componente absolutamente contínua \(A_C\) e uma componente singular \(S_C\). Neste caso, nem \(A_C\) nem \(S_C\) são uma copula, porque nenhuma delas tem marginais uniformes (0,1). Além disso, a \(C\)-medida da componente absolutamente contínua é \(A_C(1,1)\) e a \(C\)-medida da componente singular é \(S_C(1,1)\).
Tal como o suporte de uma função de distribuição conjunta \(H\) é o complemento da união de todos os subconjuntos abertos de \({\bf R}^2\) com medida \(H\) zero, o suporte de uma copula é o complemento da união de todos os subconjuntos abertos de \({\bf I}^2\) com \(C\)-medida igual a zero. Quando o suporte de \(C\) é \({\bf I}^2\), dizemos que \(C\) tem “suporte total”. Quando \(C\) é singular, o seu suporte tem medida de Lebesgue zero e vice-versa. No entanto, muitas copulas que têm suporte total têm uma componente absolutamente contínua e uma componente singular.
O suporte do limite superior de Fréchet-Hoeffding \(M\) é a diagonal principal de \({\bf I}^2\), ou seja, o gráfico de \(\nu = u\) para \(u\) em \({\bf I}\), pelo que \(M\) é singular. Isto decorre do fato da medida \(M\) de qualquer retângulo aberto que esteja inteiramente acima ou abaixo da diagonal principal ser zero.
Note-se também que \(\partial^2 M/\partial u\partial\nu = 0\) em toda a parte de \({\bf I}^2\) exceto na diagonal principal. Da mesma forma, o suporte do limite inferior de Fréchet-Hoeffding \(W\) é a diagonal secundária de \({\bf I}^2\), isto é, o gráfico de \(\nu = 1-u\) para \(u\) em \({\bf I}\) e, portanto, \(W\) também é singular.
A copula produto \(\Pi(u,\nu)=u\, \nu\) é absolutamente contínua, porque para todos os \((u,\nu)\in{\bf I}^2\), \[ A_\Pi(u,\nu)=\int_0^u \int_0^\nu \dfrac{\partial^2}{\partial s\partial t} \Pi(s,t)\mbox{d}t\mbox{d}s=\int_0^u \int_0^\nu 1\mbox{d}t\mbox{d}s =u\,\nu =\Pi(u,\nu)\cdot \]
Na Seção 1.1 encontrámos os limites de Fréchet-Hoeffding como limites universais para copulas, ou seja, para qualquer copula \(C\) e para todos os \(u,\nu\in{\bf I}\), \[ W(u,\nu)=\max\{u+\nu-1,0\} \leq C(u,\nu)\leq \min\{u,\nu\}=M(u,\nu)\cdot \]
Como consequência do Teorema de Sklar, se \(X\) e \(Y\) são variáveis aleatórias com uma função de distribuição conjunta \(H\) e distribuições marginais \(F\) e \(G\), respetivamente, então para todos os \(x,y\in\overline{{\bf R}}\), \[ \tag{1.18} \max\{F(x)+G(y)-1,0\}\leq H(x,y)\leq \min\{F(x),G(y)\}\cdot \]
Como \(M\) e \(W\) são copulas, os limites acima são funções de distribuição conjunta e são designados por limites de Fréchet-Hoeffding para funções de distribuição conjunta \(H\) com marginais \(F\) e \(G\). Nesta seção, interessa a seguinte questão: O que podemos dizer sobre as variáveis aleatórias \(X\) e \(Y\) quando a sua função de distribuição conjunta \(H\) é igual a um dos seus limites de Fréchet-Hoeffding?
Para responder a esta pergunta, precisamos primeiro de introduzir as noções de de conjuntos não decrescentes e não crescentes em \({\bf R}^2\).
Um subconjunto \(S\) de \({\bf R}^2\) é não decrescente se, para quaisquer \((x,y)\) e \((u,\nu)\) em \(S\), \(x < u\) implica \(y\leq \nu\). Analogamente, um subconjunto \(S\) de \({\bf R}^2\) é não crescente se, para quaisquer \((x,y)\) e \((u,\nu)\) em \(S\), \(x < u\) implica \(y\geq \nu\).
A Figura 2.6 ilustra um conjunto simples não dedrescente.
Figura 1.5. O gráfico de um conjunto não decrescente
Vamos agora provar que a função de distribuição conjunta \(H\) para um par \((X,Y)\) de variáveis aleatórias é o limite superior de Fréchet-Hoeffding, isto é, a copula é \(M\) se, e somente se, o suporte de \(H\) estiver num conjunto não decrescente. A prova que se segue baseia-se na que aparece em Mikusiński, Sherwood, and Taylor (1991-92). Mas primeiro, precisamos de dois lemas:
Seja \(S\) um subconjunto de \(\overline{{\bf R}}^2\). Então, \(S\) é não decrescente se, e somente se, para cada \((x,y)\in\overline{{\bf R}}^2\), quer
para todo \((u,\nu)\in S\), \(u\leq x\) implica \(\nu\leq y\) ou
para todo \((u,\nu)\in S\), \(\nu\leq y\) implica \(u\leq x\).
Sejam \(X\) e \(Y\) variáveis aleatórias com função de distribuição conjunta \(H\). Então, \(H\) é igual ao seu limite superior de Fréchet-Hoeffding se, e somente se, para cada \((x,y)\) em \(\overline{{\bf R}}^2\), quer \[ P(X > x, Y\leq y) = 0 \qquad \mbox{ou} \qquad P(X\leq x, Y > y) = 0\cdot \]
Estamos agora prontos para provar o principal resultado nesta seção.
Sejam \(X\) e \(Y\) variáveis aleatórias com função de distribuição conjunta \(H\). Então \(H\) é identicamente igual ao seu limite superior de Fréchet-Hoeffding se, e somente se, o suporte de \(H\) for um subconjunto não decrescente de \(\overline{{\bf R}}^2\).
É claro que existe um resultado análogo para o limite inferior de Fréchet-Hoeffding e a sua prova está descrita nos Exercícios 18 a 20.
Sejam \(X\) e \(Y\) variáveis aleatórias com função de distribuição conjunta \(H\). Então, \(H\) é identicamente igual ao seu limite inferior de Fréchet-Hoeffding se, e somente se, o suporte de \(H\) for um subconjunto não crescente de \(\overline{{\bf R}}^2\).
Quando \(X\) e \(Y\) são contínuos, o suporte de \(H\) não pode ter segmentos de reta horizontais ou verticais e, neste caso, é comum dizer-se que “\(Y\) é quase seguramente uma função crescente de \(X\)” se, e somente se, a copula de \(X\) e \(Y\) for \(M\); e “\(Y\) é quase seguramente uma função decrescente de \(X\)” se, e somente se, a copula de \(X\) e \(Y\) for \(W\).
Se \(U\) e \(V\) forem variáveis aleatórias uniformes (0,1), cuja função de distribuição conjunta é a copula \(M\), então \(P(U = V) = 1\); e se a copula for \(W\), então \(P(U + V = 1) = 1\). As variáveis aleatórias com a copula \(M\) são frequentemente designadas por comonotónicas, e as variáveis aleatórias com a copula \(W\) são frequentemente designadas por contramonotónicas.
Em muitas aplicações, as variáveis aleatórias de interesse representam os tempos de vida de indivíduos ou objectos numa determinada população. A probabilidade de um indivíduo viver ou sobreviver para além do tempo \(x\) é dada pela função de sobrevivência ou função de fiabilidade \[ \overline{F}(x) = P(X > x) = 1- F ( x ), \] onde, como anteriormente, \(F\) denota a função de distribuição de \(X\).
Quando se trata de tempos de vida, o intervalo natural de uma variável aleatória é frequentemente \([0,+\infty)\); no entanto, utilizaremos o termo “função de sobrevivência” para \(P(X > x)\) mesmo quando o intervalo é \(\overline{{\bf R}}\).
Para um par \((X,Y)\) de variáveis aleatórias com função de distribuição conjunta \(H\), a função de sobrevivência conjunta é dada por \(\overline{H}(x,y) = P(X > x,Y > y)\). As marginais de \(H\) são as funções \(\overline{H}(x,-\infty)\) e \(\overline{H} (-\infty,y)\), que são as funções de sobrevivência univariadas \(F\) e \(G\), respetivamente.
Uma questão natural é a seguinte: Existe uma relação entre as funções de sobrevivência univariadas e conjuntas análoga à que existe entre as funções de distribuição univariadas e conjuntas, tal como se encontra no Teorema de Sklar? Para responder a esta pergunta, suponha-se que a copula de \(X\) e \(Y\) seja \(C\). Então temos \[ \begin{array}{rcl} \overline{H}(x,y) & = & 1-F(x)-G(y)+H(x,y)\\[0.8em] & = & \overline{F}(x)+\overline{G}(y)-1+C\big( F(x),G(y)\big)\\[0.8em] & = & \overline{F}(x)+\overline{G}(y)-1+C\big(1-\overline{F}(x),1-\overline{G}(y)\big)\, \end{array} \] de modo que se definirmos uma função \(\widehat{C}\) de \({\bf I}^2\) em \({\bf I}\) por \[ \tag{1.19} \widehat{C}(u,\nu)=u+\nu-1+C(1-u,1-\nu), \] temos \[ \tag{1.20} \overline{H}(x,y) =\widehat{C}\big(\overline{F}(x),\overline{G}(y)\big)\cdot \]
Primeiro, note-se que, como consequência do Exercício 6, a função \(\widehat{C}\) em (1.19) é uma copula, ver também a parte 3 do Teorema 1.9. Referimo-nos a \(\widehat{C}\) como a copula de sobrevivência de \(X\) e \(Y\). Em segundo lugar, note-se que \(\widehat{C}\) “acopla” a função de sobrevivência conjunta às suas marginais univariadas de uma forma completamente análoga à forma como uma copula liga a função de distribuição conjunta conjunta às suas marginais.
Deve ter-se o cuidado de não confundir a copula de sobrevivência \(\widehat{C}\) com a função de sobrevivência conjunta \(\overline{C}\) para duas variáveis aleatórias uniformes (0,1) cuja função de distribuição conjunta é a copula \(C\). Note-se que \[ \overline{C}(u,\nu) = P(U > u ,V > \nu) = 1 - u - \nu + C(u,\nu) = \widehat{C}(1-u,1-\nu)\cdot \]
No Exemplo 1.9, obtivemos a copula \(C_\theta\) em (1.15) para a distribuição exponencial bivariada de Gumbel: para \(\theta\in [0,1]\), \[ C_\theta(u,\nu)=u+\nu-1+(1-u)(1-\nu)e^{-\theta\ln(1-u)\ln(1-\nu)}\cdot \]
Tal como a função de sobrevivência para variáveis aleatórias univariadas exponencialmente distribuídas é funcionalmente mais simples do que a função de distribuição, o mesmo é frequentemente verdade no caso bivariado. Utilizando (1.19), temos \[ \widehat{C}_\theta(u,\nu)=u \, \nu e^{-\theta\ln(u)\ln(\nu)}\cdot \]
Uma distribuição de Pareto bivariada (Hutchinson and Lai 1990). Sejam \(X\) e \(Y\) variáveis aleatórias cuja função de sobrevivência conjunta é dada por \[ \overline{H}_\theta(x,y)= \left\{\begin{array}{cc} (1+x+y)^{-\theta}, & x\geq0, \; y\geq 0 \\[0.8em] (1+x)^{-\theta}, & x\geq0, \; y<0 \\[0.8em] (1+y)^{-\theta}, & x<0, \; y\geq 0\\[0.8em] 1, & x<0, \; y<0 \end{array} \right. \] onde \(\theta>0\).
Então as funções marginais de sobrevivência \(\overline{F}\) e \(\overline{G}\) são \[ \overline{F}(x)=\left\{ \begin{array}{cc} (1+x)^{-\theta}, & x\geq 0\\[0.8em] 1, & x<0 \end{array}\right. \qquad \mbox{e} \qquad \overline{G}(y)=\left\{ \begin{array}{cc} (1+y)^{-\theta}, & y\geq 0\\[0.8em] 1, & y<0 \end{array}\right. \] de modo a que \(X\) e \(Y\) tenham distribuições de Pareto idênticas. Invertendo as funções de sobrevivência e utilizando a versão de sobrevivência do Corolário 1.2 (ver Exercício 1.25) obtém-se a copula de sobrevivência \[ \widehat{C}_\theta(u,\nu)=\big(u^{-1/\theta}+\nu^{-1/\theta}-1\big)^{-\theta}\cdot \] Voltaremos a encontrar esta família no capítulo 3.
Duas outras funções estreitamente relacionadas com as copulas e com as copulas de sobrevivência são, o dual de uma copula e a co-copula (Schweizer and Sklar 1983). O dual de uma copula \(C\) é a função \(\widetilde{̃C}\) definida por \[ \widetilde{C}(u,\nu) = u + \nu - C(u,\nu); \] e a co-copula é a função \(C^*\) definida por \[ C^*(u,\nu) = 1-C(1-u,1-\nu)\cdot \]
Nenhuma delas é uma copula, mas quando \(C\) é a copula de um par de variáveis aleatórias \(X\) e \(Y\), o dual da copula e da co-copula expressam a probabilidade de um acontecimento que envolve \(X\) e \(Y\). Tal como \[ P(X\leq x,Y\leq y)=C\big(F(x),G(y)\big) \qquad \mbox{e} \qquad P(X>x,Y>y)=\widehat{C}(\overline{F}(x),\overline{G}(y)), \] temos \[ \tag{1.21} P(X\leq x \; \mbox{ou} \; Y\leq y)=\widetilde{C}\big( F(x),G(y)\big) \] e \[ \tag{1.22} P(X>x \; \mbox{ou} \; Y>y) = C^*\big(\overline{F}(x),\overline{G}(y) \big)\cdot \]
Outras relações entre \(C\), \(\widehat{C}\), \(\widetilde{C}\) e \(C^*\) são exploradas nos Exercícios 1.24 e 1.25.
Se \(X\) é uma variável aleatória e \(a\) é um número real, dizemos que \(X\) é simétrica em relação a \(a\) se as funções de distribuição das variáveis aleatórias \(X-a\) e \(a-X\) são as mesmas, isto é, se para qualquer \(x\in{\bf R}\), \[ P(X-a\leq x) = P(a-X\leq x )\cdot \] Quando \(X\) é contínua com função de distribuição \(F\), isto é equivalente a \[ \tag{1.23} F(a+x)=\overline{F}(a-x), \] quando \(F\) é descontínuo, (1.23) é válido apenas nos pontos de continuidade de \(F\).
Consideremos agora a situação bivariada. O que é que significa dizer que um par \((X,Y)\) de variáveis aleatórias é “simétrico” em relação a um ponto \((a,b)\)? Há várias maneiras de responder a esta pergunta e cada resposta leva a um tipo diferente de simetria bivariada.
Sejam \(X\) e \(Y\) variáveis aleatórias e seja \((a,b)\) um ponto em \({\bf R}^2\).
\((X,Y)\) é marginalmente simétrico em relação a \((a,b)\) se \(X\) e \(Y\) forem simétricas em relação a \(a\) e \(b\), respetivamente.
\((X,Y)\) é radialmente simétrico em relação a \((a,b)\) se a função de distribuição conjunta de \(X-a\) e \(Y-b\) for a mesma que a função de distribuição conjunta de \(a-X\) e \(b-Y\).
\((X,Y)\) é conjuntamente simétrico em relação a \((a,b)\) se os quatro pares de variáveis aleatórias têm uma distribuição conjunta comum: \((X-a,Y-b)\), \((X-a,b-Y)\), \((a-X,Y-b)\) e \((a-X,b-Y)\).
Quando \(X\) e \(Y\) são contínuos, podemos expresar a condição de simetria radial em termos da distribuição conjunta e das funções de sobrevivência de \(X\) e \(Y\) de uma forma análoga à relação em (1.23) entre a distribuição univariada e as funções de sobrevivência.
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\) e marginais \(F\) e \(G\), respetivamente. Seja \((a,b)\) um ponto em \({\bf R}^2\). Então \((X,Y)\) é radialmente simétrica em relação a \((a,b)\) se, e somente se, \[ \tag{1.24} H(a+x,b+y)=\overline{H}(a-x,b-y), \] para todo \((x,y)\in{\bf R}^2\).
O termo “radial” vem do fato de os pontos \((a+x,b+y)\) e \((a-x,b-y)\) que aparecem em (1.24) se encontrarem em raios que emanam em direcções opostas de \((a,b)\). Graficamente, o Teorema 1.12 afirma que regiões como as sombreadas na Figura 1.6(a) têm sempre igual volume \(H\) (ou igual \(H\)-volume).
Figura 1.6: Regiões de igual probabilidade para variáveis aleatórias radialmente simétricas.
A distribuição normal bivariada com parâmetros \(\mu_X\), \(\mu_Y\), \(\sigma^2_X\), \(\sigma^2_Y\) e \(\rho\) é radialmente simétrica em torno do ponto \((\mu_X,\mu_Y)\). A prova é simples, mas fastidiosa. Avalie os integrais duplos da densidade conjunta sobre as regiões sombreadas na Figura 1.6(a).
A normal bivariada é um membro da família de distribuições de contorno elíptico. As densidades para tais distribuições têm contornos que são elipses concêntricas com excentricidade constante. Membros bem conhecidos desta família, para além da normal bivariada, são as distribuições bivariadas de Pearson tipo II e tipo VII, esta última incluindo \(t\) bivariada e Cauchy como casos especiais. Tal como a normal bivariada normal bivariada, as distribuições de contorno elíptico são radialmente simétricas.
É imediato que a simetria conjunta implica a simetria radial e é podemos ver que a simetria radial implica a simetria marginal, definindo \(x=-\infty\) em (1.24) obtém-se (1.23); do mesmo modo para \(y=\infty\). De fato, a simetria conjunta é uma condição muito forte é pode-se mostrar que as variáveis aleatórias conjuntamente simétricas têm de ser não correlacionadas quando existem os momentos de segunda ordem necessários (Randles and Wolfe 1979). Consequentemente, concentrar-nos-emos na simetria radial, em vez da simetria conjunta, para distribuições bivariadas.
Como a condição para a simetria radial em (1.24) envolve tanto a distribuição conjunta como as funções de sobrevivência é natural perguntar se as copulas e as copulas de sobrevivência desempenham um papel na simetria radial. A resposta é dada pelo teorema seguinte.
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\), funções de distribuição marginal \(F\) e \(G\), respetivamente e copula \(C\). Suponha ainda que \(X\) e \(Y\) são simétricas em torno de \(a\) e \(b\), respetivamente. Então \((X,Y)\) é radialmente simétrico em relação a \((a,b)\), isto é, \(H\) satisfaz (1.24) se, e somnete se, \(C=\widehat{C}\), ou seja, se, e somente se, \(C\) satisfaz a equação funcional \[ \tag{1.25} C(u,\nu)=u+\nu-1+C(1-u,1-\nu), \] para todo \((u,\nu)\in{\bf I}^2\).
Geometricamente, (1.25) afirma que, para qualquer \((u,v)\in{\bf I}^2\), os rectângulos \([0,u]\times [0,\nu]\) e \([1-u,1]\times [1-\nu,1]\) têm igual \(C\)-volume, como ilustrado na Figura 1.6(b).
Outra forma de simetria é a permutabilidade, as variáveis aleatórias \(X\) e \(Y\) são permutáveis se os vectores \((X,Y)\) e \((Y,X)\) forem identicamente distribuídos. Assim, se a função de distribuição conjunta de \(X\) e \(Y\) for \(H\), então \[ H(x,y) = H(y,x) \] para todos os \((x,y)\in{\bf R}^2\).
É evidente que as variáveis aleatórias permutáveis devem ser identicamente distribuídas, ou seja, ter uma função de distribuição univariada comum. Para variáveis aleatórias identicamente distribuídas, a permutabilidade é equivalente à simetria da sua copula, tal como expresso no teorema que se segue, cuja prova é simples.
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com função de distribuição conjunta \(H\), marginais \(F\) e \(G\), respetivamente e copula \(C\). Então \(X\) e \(Y\) são permutáveis se, e somente se, \[ F = G \qquad \mbox{e} \qquad C(u,\nu) = C(\nu,u), \] para todo \((u,\nu)\in{\bf I}^2\).
Quando \(C(u,\nu) = C(\nu,u)\) para todos os \((u,\nu)\in{\bf I}^2\), dizemos simplesmente que \(C\) é simétrico.
Embora as variáveis aleatórias independentes distribuídas de forma idêntica tenham de ser permutáveis, porque a copula \(\Pi\) é simétrica, o inverso não é verdadeiro. As variáveis aleatórias permutáveis distribuídas de forma idêntica não têm de ser independentes. Para mostrar isto, basta escolher para a copula de \(X\) e \(Y\) qualquer copula simétrica exceto \(\Pi\), como a do Exemplo 1.8, 1.9 ou 1.13 ou de uma das famílias dos Exercícios 1.4 e 1.5.
Existem outros conceitos de simetria bivariada. Ver Nelsen (1993) para pormenores.
A desigualdade dos limites de Fréchet-Hoeffding, \[ W(u,\nu) \leq C(u,\nu) \leq M(u,\nu) \] para cada copula \(C\) e todos os \(u,v\in {\bf I}\), sugere uma ordem parcial no conjunto de copulas.
Se \(C_1\) e \(C_2\) são copulas, dizemos que \(C_1\) é menor do que \(C_2\) ou \(C_2\) é maior do que \(C_1\) e escrevemos \(C_1\prec C_2\) ou \(C_2\succ C_1\) se \(C_1(u,\nu)\leq C_2(u,\nu)\) para todos os \(u,\nu\) em \({\bf I}\).
Por outras palavras, a copula do limite inferior de Fréchet-Hoeffding \(W\) é menor do que todas as copulas e a copula do limite superior de Fréchet-Hoeffding \(M\) é maior do que todas as copulas.
Esta ordenação parcial pontual do conjunto de copulas chama-se ordenação de concordância e será importante no Capítulo 4, quando discutirmos a relação entre as copulas e as propriedades de dependência das variáveis aleatórias, altura em que a razão do nome da ordenação se tornará evidente. É uma ordem parcial em vez de uma ordem total; porque nem todos os pares de copulas são comparáveis.
A copula produto \(\Pi\) e a copula obtida pela média dos limites de Fréchet-Hoeffding não são comparáveis. Considrando \[ C(u,\nu) = \dfrac{W(u,\nu)+M(u,\nu)}{2}, \] então \(C(1/4,1/4)> \Pi(1/4,1/4)\) e \(C(1/4,3/4) < \Pi (1/4,3/4)\), pelo que nem \(C\prec\Pi\) nem \(\Pi\prec C\) se cumpre.
No entanto, há famílias de copulas que são totalmente ordenadas. Chamaremos uma família de copulas paramétrica \(\{C_\theta\}\) totalmente ordenada positivamente se \(C_\alpha\prec C_\beta\), sempre que \(\alpha\leq \beta\) e será chamda negativamente ordenada se \(C_\alpha \succ C_\beta\), sempre que \(\alpha\leq \beta\).
A família de copulas de Cuadras-Augé, introduzida no Exercício 5, é positivamente ordenada, pois para \(0\leq \alpha\leq \beta\leq 1\) e \(u,v\) em (0,1), \[ \dfrac{C_\alpha(u,\nu)}{C_\beta(u,\nu)}=\left(\dfrac{u\, \nu}{\min\{u,\nu\}} \right)^{\beta-\alpha}\leq 1, \] e, por conseguinte, \(C_\alpha\prec C_\beta\).
Uma das principais aplicações das copulas é a simulação e os estudos de Monte Carlo. Nesta seção, abordaremos o problema de gerar uma amostra a partir de uma distribuição conjunta especificada. Essas amostras podem ser utilizadas para estudar modelos matemáticos de sistemas do mundo real ou para estudos estatísticos, como a comparação de um novo método estatístico com outros métodos concorrentes, propriedades de robustez ou a concordância de resultados assintóticos com resultados de pequenas amostras.
Assumimos que o leitor está familiarizado com vários procedimentos utilizados para gerar variáveis uniformes independentes e com algoritmos para utilizar essas variáveis para obter amostras de uma dada distribuição univariada.
Um desses métodos é o método da função de distribuição inversa. Para obter uma observação \(x\) de uma variável aleatória \(X\) com função de distribuição \(F\):
Gerar uma observação \(u\) de uma variável \(U\) que seja uniforme (0,1);
Definir \(x=F^{(-1)}(u)\), em que \(F^{(-1)}\) é qualquer quase-inversa de \(F\) (ver Definição 1.8).
Para uma discussão e para métodos alternativos, ver M. E. Johnson (1987) ou Devroye (1986).
Existe uma variedade de procedimentos utilizados para gerar observações \((x,y)\) de um par de variáveis aleatórias \((X,Y)\) com uma função de distribuição conjunta \(H\). Nesta seção, vamos concentrar-nos na utilização da copula como uma ferramenta.
Em virtude do Teorema de Sklar, basta gerar um par \((u,\nu)\) de observações de variáveis aleatórias \((U,V)\) uniformes (0,1) cuja função de distribuição conjunta seja \(C\), a copula de \(X\) e \(Y\) e depois transformar essas observações uniformes através de um algoritmo, como o do parágrafo anterior.
Um procedimento para gerar esse par \((u,\nu)\) de observações uniformes (0,1) é o método da distribuição condicional. Para este método, precisamos da função de distribuição condicional de \(V \, | \, U = u\), que designamos por \(c_u(\nu)\): \[ \tag{1.26} c_u(\nu)= P\big(V\leq \nu \, | \, U=u \big) = \lim_{\Delta u\to 0} \dfrac{C(u+\Delta u, \nu)-C(u,\nu)}{\Delta u} = \dfrac{\partial C(u,\nu)}{\partial u}\cdot \] Recorde-se do Teorema 1.3, no qual a função \(\nu\to \partial C(u,\nu)/\partial u\), que agora designamos por \(c_u(\nu)\), existe e é não decrescente em quase todo o lado em \({\bf I}\).
Gerar duas observações \(u\) e \(t\), de variáveis uniformes independentes (0,1);
Definimos \(\nu=c_u^{(-1)}(t)\), em que \(c_u^{(-1)}\) denota uma quase-inversa de \(c_u\).
O par desejado é \((u,v)\).
Tal como para as distribuições univariadas, existem muitos outros algoritmos, ver M. E. Johnson (1987) ou Devroye (1986) para mais pormenores.
Sejam \(X\) e \(Y\) variáveis aleatórias cuja função de distribuição conjunta \(H\) é \[ H(x,y)=\left\{ \begin{array}{cc} \dfrac{(x+1)(e^y-1)}{x+2e^y-1}, & (x,y)\in [-1,1]\times [0,+\infty]\\[0.8em] 1-e^y, & (x,y)\in (1,+\infty]\times [0,+\infty] \\[0.8em] 0, & \mbox{caso contrário}\end{array}\right.\cdot \] Recordar os Exemplos 1.3 e 1.5. A copula \(C\) de \(X\) e \(Y\) é \[ C(u,\nu)=\dfrac{u\, \nu}{u+\nu-u\, \nu}, \] e, por conseguinte, a função de distribuição condicional \(c_u\) e a sua inversa \(c_u^{(-1)}\) são dadas por \[ c_u(\nu)=\dfrac{\partial}{\partial u} C(u,\nu)=\left(\dfrac{\nu}{u+\nu-u\, \nu} \right)^2 \qquad \mbox{e} \qquad c_u^{(-1)}(t)=\dfrac{u\sqrt{t}}{1-(1-u)\sqrt{t}}\cdot \]
Assim, um algoritmo para gerar as observações \((x,y)\) é:
Gerar duas observações \(u\) e \(t\) de variáveis aleatórias uniformes independentes (0,1);
Definir \(\nu = \dfrac{u\sqrt{t}}{1-(1-u)\sqrt{t}}\);
Definir \(x = 2u-1\) e \(y = -\ln(1-\nu)\). Veja o Exemplo 1.8 para os inversos das funções de distribuição marginal.
O par desejado é \((x,y)\).
As copulas de sobrevivência também podem ser utilizadas no método da função de distribuição condicional para gerar observações de variáveis aleatórias a partir de uma distribuição, com uma dada função de sobrevivência.
Recorde-se, ver parte 3 do Teorema 1.9 e (1.19), que se a copula \(C\) é a função de distribuição de um par \((U,V)\), então a correspondente copula de sobrevivência \(\widehat{C}(u,\nu) = u + \nu - 1 + C(1-u,1-\nu)\) é a função de distribuição do par \((1- U,1- V)\). Note-se também que se \(U\) é uniforme em (0,1), também o é a variável aleatória \(1- U\).
Assim, temos o seguinte algoritmo para gerar um par \((U,V)\) cuja função de distribuição é a copula \(C\), dado \(\widehat{C}\):
Gerar duas observações, \(u\) e \(t\), de variáveis aleatórias uniformes independentes (0,1);
Definir \(\nu = \widehat{c}_u^{(-1)}(t)\), onde \(\widehat{c}_u^{(-1)}\) denota uma quase-inversa de \(\widehat{c}_u(\nu) = \partial \widehat{C}(u,\nu)/\partial u\).
O par desejado é \((u,\nu)\).
No próximo capítulo apresentaremos métodos que podem ser usados para construir famílias de copulas. Para muitas dessas famílias, também indicaremos para gerar amostras aleatórias das distribuições que correspondem a essas copulas.
Nesta seção, estendemos os resultados das seções anteriores ao caso multivariado. Embora muitas das definições e teoremas tenham versões multivariadas análogas, nem todas têm, pelo que é preciso proceder com cuidado. Por uma questão de clareza, vamos reafirmar a maioria das definições e teoremas nas suas versões multivariadas. Omitiremos as demonstrações de teoremas para os quais a prova é semelhante à do caso bivariado. Muitos dos teoremas desta seção, com as respectivas provas, podem ser encontrados em Schweizer and Sklar (1983) ou nas referências alí contidas.
Neste ponto, será vantajosa uma nova notação. Para qualquer número inteiro positivo \(n\), \(\overline{{\bf R}}^n\) designa o \(n\)-espaço alargado \(\overline{{\bf R}}\times \overline{{\bf R}}\times \cdots \times\overline{{\bf R}}\). Usaremos a notação vetorial para pontos em \(\overline{{\bf R}}^n\), por exemplo, \(\pmb{a} = (a_1,a_2,\cdots, a_n)\) e escreveremos \(\pmb{a}\leq \pmb{b}\) quando \(a_k\leq b_k\) para todo \(k\). Para \(\pmb{a}\leq \pmb{b}\), vamos deixar \([\pmb{a},\pmb{b}]\) denotar a \(n\)-caixa \(B = [a_1,b_1]\times [a_2,b_2]\times \cdots \times [a_n,b_n]\), o produto cartesiano de \(n\) intervalos fechados.
Os vértices de uma \(n\)-caixa \(B\) são os pontos \(\pmb{c} = (c_1,c_2,\cdots,c_n)\) em que cada \(c_k\) é igual a \(a_k\) ou \(b_k\). O \(n\)-cubo unitário \({\bf I}^n\) é o produto \({\bf I}\times{\bf I}\times \cdots\times{\bf I}\). Uma função de \(n\)-lugares real \(H\), cujo domínio, \(\mbox{Dom}(H)\) é um subconjunto de \(\overline{{\bf R}}^n\) e e cuja imágem \(\mbox{Img}(H)\), é um subconjunto de \({\bf R}\). Note-se que o “2-cubo” unitário é o quadrado unitário \({\bf I}^2\) e uma “2-caixa” é um retângulo \([x_1,x_2]\times [y_1,y_2]\) em \(\overline{{\bf R}}^2\).
Sejam \(S_1,S_2,\cdots,S_n\) subconjuntos não vazios de \({\bf R}\) e seja \(H\) uma função de \(n\)-lugares real tal que \(\mbox{Dom}(H) = S_1\times S_2\times \cdots\times S_n\). Seja \(B = [\pmb{a},\pmb{b}]\) uma \(n\)-caixa cujos vértices estão todos em \(\mbox{Dom}(H)\). Então o \(H\)-volume de \(B\) é dado por \[ \tag{1.27} V_H(B)=\sum \mbox{sgn}(\pmb{c})H(\pmb{c}), \] em que a soma é efectuada sobre todos os vértices \(c\) de \(B\) e \(\mbox{sgn}(\pmb{c})\) é dado por \[ \mbox{sgn}(\pmb{c})=\left\{ \begin{array}{rl} 1, & \mbox{se } c_k=a_k \mbox{ para um número par de k's}, \\[0.8em] -1, & \mbox{se } c_k=a_k \mbox{ para um número ímpar de k's.} \end{array}\right.\cdot \]
Equivalentemente, o \(H\)-volume de uma \(n\)-caixa \(B = [\pmb{a},\pmb{b}]\) é a diferença de \(n\)-ésima ordem de \(H\) em \(B\) \[ V_H(B)=\Delta_{\pmb{a}}^{\pmb{b}} H(\pmb{t})=\Delta_{a_n}^{b_n} \Delta_{a_{n-1}}^{b_{n-1}}\cdots \Delta_{a_2}^{b_2}\Delta_{a_1}^{b_1} H(\pmb{t}), \] onde definimos as \(n\) diferenças de primeira ordem de uma função de \(n\)-lugares, tal como \(H\), como \[ \Delta_{a_k}^{b_k} H(\pmb{t})=H(t_1,\cdots,t_{k-1},b_k,t_{k+1},\cdots,t_n)-H(t_1,\cdots,t_{k-1},a_k,t_{k+1},\cdots,t_n)\cdot \]
Seja \(H\) uma função real de 3 lugares com domínio \(\overline{{\bf R}}^3\) e seja \(B\) a caixa de 3 elementos \([x_1,x_2]\times [y_1,y_2]\times [z_1,z_2]\). O volume \(H\) de \(B\) é \[ \begin{array}{rcl} V_H(B) & = & H(x_2,y_2,z_2)-H(x_2,y_2,z_1)-H(x_2,y_1,z_2)-H(x_1,y_2,z_2)\\[0.8em] & & + H(x_2,y_1,z_1)+H(x_1,y_2,z_1)+H(x_1,y_1,z_2)-H(x_1,y_1,z_1)\cdot \end{array} \]
Uma função real \(n\)-local \(H\) é \(n\)-crescente se \(V_H(B)\geq 0\) para todas as \(n\)-caixas \(B\) cujos vértices se situam no \(\mbox{Dom}(H)\).
Suponhamos que o domínio de uma função real \(n\)-local \(H\) é dado por \[ \mbox{Dom}(H) = S_1\times S_2\times \cdots \times S_n, \] onde cada \(S_k\) tem um mínimo elemento \(a_k\). Dizemos que \(H\) é fundamental se \(H(\pmb{t}) = 0\) para todo \(\pmb{t}\) em \(\mbox{Dom}(H)\) tal que \(t_k = a_k\) para pelo menos um \(k\).
Se cada \(S_k\) for não vazio e tiver um maior elemento \(b_k\), então dizemos que \(H\) tem marginais e as marginais unidimensionais de \(H\) são as funções \(H_k\) dadas por \(\mbox{Dom}(H_k) = S_k\) e \[ \tag{1.28} H_k(x)=H(b_1,\cdots,b_{k-1},x,b_{k+1},\cdots,b_n), \qquad \forall x\in S_k\cdot \] As marginais de maior dimensão são definidas através da fixação de um menor número de posições em \(H\).
Seja \(H\) a função com domínio \([-1,1]\times [0,-\infty]\times [0,\pi/2]\) dada por \[ H(x,y,z)=\dfrac{(x+1)(e^y-1)\sin(z)}{x+2e^y-1}\cdot \] Então \(H\) é fundamental porque \(H(x,y,0) = 0\), \(H(x,0,z) = 0\) e \(H(-1,y,z) = 0\); \(H\) tem marginais unidimensionais \(H_1(x)\), \(H_2(y)\) e \(H_3(z)\) dadas por \[ H_1(x)=H(x,+\infty,\pi/2)=\dfrac{x+1}{2}, \qquad H_2(y)=H(1,y,\pi/2)=1-e^{-y} \] e \[ H_3(z)=H(1,+\infty,z)=\sin(z); \] e \(H\) tem marginais bidimensionais \(H_{1,2}(x,y)\), \(H_{2,3}(y,z)\) e \(H_{1,3}(x,z)\) dadas por \[ \begin{array}{l} \displaystyle H_{1,2}(x,y)=H(x,y,\pi/2)=\dfrac{(x+1)(e^y-1)}{x+2e^y-1}, \\[0.8em] \displaystyle \qquad \qquad H_{2,3}(y,z)=H(1,y,z)=(1-e^{-y})\sin(z) \quad \mbox{e}\\[0.8em] \displaystyle \qquad \qquad \qquad \qquad H_{1,3}(x,z)=H(x,+\infty,z)=\dfrac{(x+1)\sin(z)}{2}\cdot \end{array} \]
Na sequência, as marginais unidimensionais serão chamadas simplesmente “marginais” e para \(k\geq 2\), escreveremos “\(k\)-marginais” para as marginais \(k\)-dimensionais.
Sejam \(S_1,S_2,\cdots,S_n\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função \(n\)-crescente fundamental com domínio \(S_1\times S_2\times \cdots \times S_n\). Então \(H\) é não decrescente em cada argumento, isto é, se \((t_1,\cdots,t_{k-1},x,t_{k+1},\cdots,t_n)\) e \((t_1,\cdots,t_{k-1},y,t_{k+1},\cdots,t_n)\) estão em \(\mbox{Dom}(H)\) e \(x < y\), então \[ H(t_1,\cdots,t_{k-1},x,t_{k+1},\cdots,t_n)\leq H(t_1,\cdots,t_{k-1},y,t_{k+1},\cdots,t_n)\cdot \]
O lema seguinte, que é o análogo \(n\)-dimensional do Lema 1.3 é necessário para mostrar que as \(n\)-copulas são uniformemente contínuas e na prova da versão \(n\)-dimensional do Teorema de Sklar. A sua prova, no entanto, é um pouco mais complicada do que a do Lema 1.3; ver Schweizer and Sklar (1983) para mais pormenores.
Sejam \(S_1,S_2,\cdots,S_n\) subconjuntos não vazios de \(\overline{{\bf R}}\) e seja \(H\) uma função \(n\)-crescente fundamental com marginais cujo domínio é \(S_1\times S_2\times \cdots\times S_n\). Sejam \(\pmb{x} = (x_1,x_2,\cdots,x_n)\) e \(\pmb{y}= (y_1,y_2,\cdots,y_n)\) quaisquer pontos no domínio. Então \[ | \, H(\pmb{x})-H(\pmb{y}) \,| \leq \sum_{k=1}^n \, | H_k(x_k)-H_k(y_k) \, |\cdot \]
Estamos agora em condições de definir sub-copulas e copulas \(n\)-dimensionais. As definições são análogas às Definições 1.3 e 1.4.
Uma subcopula \(n\)-dimensional (ou \(n\)-subcopula) é uma função \(C'\) com as seguintes propriedades:
\(\mbox{Dom}(C')= S_1\times S_2\cdots \times S_n\) em que cada \(S_k\) é um subconjunto de \({\bf I}\) contendo 0 e 1;
\(C'\) é fundamental e \(n\)-crescente;
\(C'\) tem marginais (unidimensionais) \(C'_k\), \(k = 1,2,\cdots,n\), que satisfazem \[ \tag{1.29} C'_k(u)=u \qquad \forall u\in S_k\cdot \]
Note-se que, para cada \(u\) em \(\mbox{Dom}(C')\), \(0\leq C'(u)\leq 1\), pelo que \(\mbox{Img}(C')\) é também um subconjunto de \({\bf I}\).
Uma copula \(n\)-dimensional ou \(n\)-copula é uma \(n\)-subcopula \(C\) cujo domínio é \({\bf I}^n\).
Equivalentemente, uma \(n\)-copula é uma função \(C\) de \({\bf I}^n\) para \({\bf I}\) com as seguintes propriedades:
Para cada \(\pmb{u}\in{\bf I}^n\), \[ \tag{1.30a} C(\pmb{u}) = 0, \quad \mbox{se, pelo menos, uma coordenada de } \pmb{u} \mbox{ for } 0, \] e, se todas as coordenadas de \(\pmb{u}\) forem 1, exceto \(u_k\), então \[ \tag{1.30b} C(\pmb{u}) = u_k; \]
Para todos os \(\pmb{a}\) e \(\pmb{b}\) em \({\bf I}^n\) tais que \(\pmb{a}\leq \pmb{b}\), \[ \tag{1.30c} V_C([\pmb{a},\pmb{b}])\geq 0\cdot \]
Pode-se mostrar (ver Exercício 34) que para qualquer \(n\)-copula \(C\), \(n\geq 3\), cada \(k\)-marginal de \(C\) é uma \(k\)-copula, \(2\leq k < n\).
As \(2\)-marginais de \(C\) são as 2-copulas \[ \begin{array}{rcl} C_{1,2}(u,\nu) & = & \displaystyle C(u,\nu,1) = 1\times \min\{u,\nu\} = M(u,\nu),\\[0.8em] C_{1,3}(u,\omega) & = & \displaystyle C(u,1,\omega) = \omega \times \min\{u,1\} = \Pi(u,\omega) \quad \mbox{ e}\\[0.8em] C_{2,3}(\nu,\omega) & = & \displaystyle C(1,\nu,\omega) = \omega\times \min\{1,\nu\}) = \Pi(\nu,\omega)\cdot \end{array} \]
Uma consequência do Lema 1.8 é a continuidade uniforme das \(n\)-subcopulas e, portanto, das \(n\)-copulas temos o seguinte resultado.
Seja \(C'\) uma \(n\)-subcopula. Então, para cada \(pmb{u}\) e \(\pmb{\nu}\) em \(\mbox{Dom}(C')\), \[ | \, C'(\pmb{\nu})-C'(\pmb{u}) \, | \leq \sum_{k=1}^n | \, \nu_k-u_k \,|\cdot \] Por conseguinte, \(C'\) é uniformemente contínua no seu domínio.
Estamos agora em condições de afirmar a versão \(n\)-dimensional do Teorema de Sklar. Para o fazer, começamos por definir funções de distribuição \(n\)-dimensionais.
Uma função de distribuição \(n\)-dimensional é uma função \(H\) com domínio \({\bf R}^n\) tal que
\(H\) é \(n\)-crescente,
\(H(\pmb{t}) = 0\) para todo o \(\pmb{t}\in{\bf R}^n\) tal que \(t_k = -\infty\) para pelo menos um \(k\) e \[ H(\infty,\infty,\cdots,\infty) = 1\cdot \]
Assim, \(H\) é fundamental e porque \(\mbox{Dom}(H) = {\bf R}^n\), segue-se do Lema 1.7 que as funções marginais unidimensionais, dadas por (1.28), de uma função de distribuição \(n\)-dimensional são funções de distribuição que, para \(n\geq 3\), denotaremos por \(F_1,F_2,\cdots,F_n\).
Seja \(H\) uma função de distribuição \(n\)-dimensional com marginais \(F_1,F_2,\cdots,F_n\). Então, existe uma copula \(C\) \(n\)-dimensional de maneira que, para todo \(\pmb{x}\in\overline{{\bf R}}^n\), \[ \tag{1.31} H(x_1,x_2,\cdots,x_n) = C\big( F_1(x_1),F_2(x_2),\cdots,F_n(x_n)\big)\cdot \] Se \(F_1,F_2,\cdots,F_n\) forem todas contínuas, então \(C\) é única; caso contrário, \(C\) é determinada de forma única em \(\mbox{Img}(F_1)\times\mbox{Img}(F_2)\times \cdots\times\mbox{Img}(F_n)\). Inversamente, se \(C\) é uma \(n\)-copula e \(F_1,F_2,\cdots,F_n\) são funções de distribuição, então a função \(H\) definida por (1.31) é uma função de distribuição \(n\)-dimensional com marginais \(F_1,F_2,\cdots,F_n\).
A prova do Teorema 1.15 procede como no caso de duas dimensões - primeiro provam-se as versões \(n\)-dimensionais do Lema 1.4, que é simples, e depois o Lema 1.5, o “lema da extensão”. A prova do lema da extensão \(n\)-dimensional, em que se mostra que toda a \(n\)-subcopula pode ser estendida a uma \(n\)-copula, procede por uma “interpolação multilinear” da subcopula para uma copula semelhante à versão bidimensional em (1.12).
A prova no caso \(n\)-dimensional, contudo, é um pouco mais complexa (Moore and Spruill 1975; Deheuvels 1978; Sklar 1996).
Sejam \(H\), \(C\), \(F_1,F_2,\cdots,F_n\) como no Teorema 1.15 e sejam \(F_1^{(-1)},F_2^{(-1)},\cdots,F_n^{(-1)}\) quasi-inversos de \(F_1,F_2,\cdots,F_n\), respetivamente. Então, para qualquer \(\pmb{u}\in{\bf I}^n\), \[ \tag{1.32} C(u_1,u_2,\cdots,u_n)=H\Big(F_1^{(-1)}(u_1),F_2^{(-1)}(u_2),\cdots,F_n^{(-1)}(u_n)\Big)\cdot \]
É claro que a versão \(n\)-dimensional do Teorema de Sklar para variáveis aleatórias, novamente definido num espaço de probabilidade comum, é semelhante a Teorema 1.6.
Sejam \(X_1,X_2,\cdots,X_n\) variáveis aleatórias com distribuições \(F_1,F_2,\cdots,F_n\), respecivamente e função de distribuição conjunta \(H\). Então, existe uma copula \(C\) \(n\)-dimensional talque (1.16) seja válida. Se \(F_1,F_2,\cdots,F_n\) forem todas contínuas, \(C\) é única. Caso contrário, \(C\) é univocamente determinada em \(\mbox{Img}(F_1)\times\mbox{Img}(F_2)\times \cdots\times\mbox{Img}(F_n)\).
As extensões das \(2\)-copulas \(M\), \(\Pi\) e \(W\) a \(n\) dimensões são designadas por \(M^n\), \(\Pi^n\) e \(W^n\), um sobrescrito no nome de uma copula denotará dimensão em vez de exponenciação, e são dadas por: \[ \tag{1.33} \begin{array}{rcl} M^n(\pmb{u}) & = & \min\{u_1,u_2,\cdots,u_n\};\\[0.8em] \Pi^n(\pmb{u}) & = & u_1\times u_2\times \cdots\times u_n;\\[0.8em] W^n(\pmb{u}) & = & \max\{u_1+u_2,u_1+\cdots+u_n-n+1,0\}\cdot \end{array} \]
As funções \(M^n\) e \(\Pi^n\) são \(n\)-copulas para todo \(n\geq 2\) (Exercício 1.34), enquanto a função \(W^n\) não é uma \(n\)-copula para qualquer \(n > 2\) (Exercício 1.36). No entanto, temos a seguinte versão \(n\)-dimensional da desigualdade de Fréchet-Hoeffding encontrada pela primeira vez em (1.7).
Seja \(C'\) uma \(n\)-subcopula. Então, para qualquer \(\pmb{u}\in\mbox{Dom}(C')\), \[ \tag{1.34} W^n(\pmb{u})\leq C'(\pmb{u})\leq M^n(\pmb{u})\cdot \]
Embora o limite inferior de Fréchet-Hoeffding \(W^n\) nunca seja uma copula para \(n > 2\), a desigualdade à esquerda em (1.34) é a “melhor possível”, no sentido em que para qualquer \(n\geq 3\) e qualquer \(\pmb{u}\in{\bf I}^n\), existe uma \(n\)-copula \(C\) tal que que \(C(\pmb{u}) = W^n(\pmb{u})\).
Para qualquer \(n\geq 3\) e qualquer \(\pmb{u}\in{\bf I}^n\), existe uma \(n\)-copula \(C\), que depende de \(\pmb{u}\), tal que \[ C(\pmb{u})=W^n(\pmb{u})\cdot \]
(Schweizer and Sklar 1983) Seja \(\pmb{u} = (u_1,u_2,\cdots,u_n)\) um ponto (fixo) em \({\bf I}^n\) diferente de \(\pmb{0} = (0,0,\cdots,0)\) ou \(\pmb{1} = (1,1,\cdots,1)\). Há dois casos a considerar.
Suponha que \(0 < u_1+u_2+\cdots+u_n\leq n-1\). Considere os pontos \(\pmb{\nu}= (\nu_1,\cdots,\nu_n)\), em que cada \(\nu_k\) é 0, 1, ou \[ t_k=\min\{(n-1)u_k/(u_1+u_2+\cdots+u_n),1\}\cdot \] Define-se uma função C de \(n\)-lugares nestes pontos por \(C'(\pmb{\nu})=W^n(\nu)\). Pode-se verificar que \(C'\) satisfaz as condições da Definição 1.14 e, portanto, é uma \(n\)-subcopula. Estendemos agora \(C'\) a uma \(n\)-copula \(C\) através de uma “interpolação multilinear” semelhante à de (1.12). Então, para cada \(\pmb{x}\) na \(n\)-caixa \([0,\pmb{t}]\), \(\pmb{t}=(t_1,t_2,\cdots,t_n)\), que inclui \(\pmb{u}\), \(C(\pmb{x})=W^n(\pmb{x}) = 0\).
Suponha que \(n-1<u_1+u_2+\cdots+u_n<n\). Considere os pontos \(\pmb{\nu}=(\nu_1,\cdots,\nu_n)\), em que agora cada \(\nu_k\) é 0, 1, ou \[ s_k = 1-(1-u_k)/\big( n-(u_1+u_2+\cdots+u_n)\big)\cdot \] Define-se uma função \(C'\) de \(n\)-lugares nestes pontos por \(C'(\pmb{\nu})=W^n(\nu)\) e estendê-la a uma \(n\)-copula \(C\) como anteriormente. Seja \(\pmb{s} = ( s_1,s_2,\cdots,s_n)\), então para cada \(\pmb{x}\) na \(n\)-caixa \([\pmb{s},1]\), que inclui \(\pmb{u}\), temos temos \(C(\pmb{x}) = W^n(\pmb{x}) = x_1 + x_2 +\cdots + x_n - n + 1\).
As \(n\)-copulas \(M^n\) e \(\Pi^n\) têm caracterizações semelhantes às caracterizações de \(M\) e \(P\), dadas nos Teoremas 1.7 e 1.10.
Para \(n\geq 2\), sejam \(X_1,X_2,\cdots,X_n\) variáveis aleatórias contínuas. Então
\(X_1,X_2,\cdots,X_n\) são independentes se, e somente se, a \(n\)-copula de \(X_1,X_2,\cdots,X_n\) é \(\Pi^n\), e
cada uma das variáveis aleatórias \(X_1,X_2,\cdots,X_n\) é quase certamente uma função estritamente crescente de qualquer uma das outras se, e somente se, a \(n\)-copula de \(X_1,X_2,\cdots,X_n\) é \(M^n\).
1.1- Verificar as afirmações nos Exemplos 1.1 e 1.2
1.2- Mostre que \(M(u,\nu)=\min\{u,\nu\}\), \(W(u,\nu)=\max\{u+\nu-1,0\}\) e \(\Pi(u,\nu)=u\nu\) são, de fato,
copulas.
1.3-
Seja \(C_0\) e \(C_1\) copulas e seja \(\theta\) um número qualquer em \(\bf{I}\). Mostre que a média aritmética ponderada \((1-\theta)C_0+\theta \, C_1\) é também uma copula. Conclui-se, portanto, que qualquer combinação linear convexa de copulas é uma copula.
Mostre que a média geométrica de duas copulas pode não ser uma copula. Dica: Seja \(C\) a média geométrica de \(\Pi\) e \(W\), e mostre que o volume \(C\) do retângulo \([1/2,3/4]\times [1/2,3/4]\) é negativo.
1.4- A família Fréchet-Mardia de copulas.
Sejam \(\alpha,\beta\in{\bf I}\) com \(\alpha+\beta\leq 1\). Seja \[ C_{\alpha,\beta}(u\nu)=\alpha M(u,\nu)+(1-\alpha-\beta)\Pi(u,\nu)+\beta \, W(u,\nu)\cdot \] Mostre que \(C_{\alpha,\beta}\) é uma copula. Uma família de copulas que inclui \(M\), \(\Pi\) e \(W\) é chamada de abrangente. Esta família abrangente de dois parâmetros deve-se a Fréchet (1958).
Seja \(\theta\in[-1,1]\) e seja \[ C_\theta(u,\nu)=\dfrac{\theta^2(1+\theta)}{2}M(u,\nu)+(1-\theta^2)\Pi(u,\nu)+\dfrac{\theta^1(1-\theta)}{2} W(u,\nu). \] Mostre que \(C_\theta\) é uma copula. Esta família abrangente de um parâmetro é devida a Mardia (1970).
1.5- Família Cuadras-Augé de copulas. Seja
\(\theta\in{\bf I}\) e seja \[
C_\theta(u,\nu)=\big(\min\{u,\nu\} \big)^\theta \big(u\,
\nu\big)^{1-\theta} = \left\{\begin{array}{cc} u\,\nu^{1-\theta}, &
u\leq \nu \\[0.8em] u^{1-\theta}\nu, & u\geq \nu
\end{array}\right.\cdot
\] Mostre que \(C_\theta\) é uma
copula. Mostre que \(C_0=\Pi\) e \(C_1=M\). Esta família de médias geométricas
ponderadas de \(M\) e \(\Pi\) é devida a Cuadras and Augé (1981).
1.6- Seja \(C\) uma copula e
\((a,b)\in{\bf I}^2\). Para \((u,\nu)\in{\bf I}^2\) definamos \[
K_{a,b}(u,\nu)=V_C\big([a(1-u),u+a(1-u)]\times [b(1-\nu),\nu+b(1-\nu)]
\big)\cdot
\] Mostrar que \(K_{a,b}\) é uma
copula. Observe que \(K_{0,0}=C(u,\nu)\). Vários casos especiais
serão de interesse, nomeadamente: \[
\begin{array}{rcl}
K_{0,1}(u,\nu) & = & u-C(u,1-\nu), \\[0.8em]
K_{1,0}(u,\nu) & = & \nu-C(1,1-u,\nu), \\[0.8em]
K_{1,1}(u,\nu) & = & u+\nu-1+C(1-u,1-\nu)\cdot
\end{array}
\]
1.7- Seja \(f\) uma função de
\({\bf I}^2\) em \({\bf I}\) não decrescente em cada variável
com marginais dadas por \(f(t,1) = t =
f(1,t)\) para todo o \(t\in{\bf
I}\). Prove que \(f\) é
fundamental.
1.8-
Mostre que para qualquer copula \(C\), \(\max\{2t-1,0\}\leq \delta_C(t)\leq t\) para todo \(t\) em \({\bf I}\).
Mostre que \(\delta_C(t)=\delta_M(t)\) para todo \(t\) em \({\bf I}\) implica que \(C=M\).
Mostre que \(\delta_C(t)=\delta_W(t)\) para todo \(t\) em \({\bf I}\) não implica que \(C=W\).
1.9- A seção diagonal secundária de \(C\) é dada por \(C(t,1-t)\). Mostrar que \(C(t,1-t) = 0\) para todo \(t\) em \({\bf
I}\) implica \(C = W\).
1.10- Seja \(t\in [0,1)\) e
seja \(C_t\) uma função de \({\bf I}^2\) em \({\bf I}\) dada por \[
C_t(u,\nu)=\left\{ \begin{array}{cc} \max\{u+\nu-1,t\}, & (u,\nu)\in
[t,1]^2\\[0.8em] \min\{u,\nu\}, & \mbox{caso contrário}\cdot
\end{array}\right.
\]
Mostre que \(C_t\) é uma copula.
Mostre que o conjunto de nível \(\{(u,\nu)\in{\bf I}^2 \, | \, C_t(u,\nu) = t\}\) é o conjunto dos pontos do triângulo com vértices \((t,1)\), \((1,t)\) e \((t,t)\), ou seja, a região região sombreada na Figura 1.3. A copula deste exercício ilustra porque o termo “conjunto de níveis” é preferível a “curva de níveis” para algumas copulas.
1.11- Este exercício mostra que a condição de 2-crescente (1.5)
para copulas não é uma consequência de propriedades mais simples. Seja
\(Q\) a função função de \({\bf I}^2\) em \({\bf I}\) dada por \[
Q(u,\nu)=\left\{ \begin{array}{rcl} \min\{u,\nu,1/3,u+\nu-2/3\}, &
\mbox{ caso} & 2/3\leq u+\nu\leq 4/3 \\[0.8em] \max\{u+\nu-1,0\},
& \mbox{ caso} & \mbox{contrário} \end{array}\right.,
\] isto é, \(Q\) tem os valores
dados na figura abaixo nas várias partes de \({\bf I}^2\).
Mostre que, para cada \(u,\nu\) em \({\bf I}\), \[ Q(u,0) = 0 = Q(0,\nu), \quad Q(u,1) = u \quad \mbox{ e } \quad Q(1,\nu) =\nu; \] \(W(u,\nu)\leq Q(u,\nu)\leq M(u,\nu)\) e que \(Q\) é contínua, satisfaz a condição de Lipschitz (1.8) e é não decrescente em cada variável.
Mostre que \(Q\) não é 2-crescente e, portanto, não é uma copula. Dica: considere o \(Q\)-volume do retângulo \([1/3,2/3]^2\).
1.12- Distribuição logística bivariada de
Gumbel (Gumbel 1961). Sejam \(X\) e \(Y\) variáveis aleatórias com uma função de
distribuição conjunta dada por \[
H(x,y)=\big(1+e^{-x}+e^{-y}\big)^{-1},
\] para todo \(x,y\in\overline{{\bf
R}}\).
Mostre que \(X\) e \(Y\) têm distribuições logísticas padrão (univariadas), ou seja, \[ F(x)=(1+e^{-x})^{-1} \qquad \mbox{e} \qquad G(y)=(1+e^{-y})^{-1}\cdot \]
Mostre que a copula de \(X\) e \(Y\) é a copula dada por (1.14) no Exemplo 2.8.
1.13- Distribuições de valores extremos bivariados do
tipo B (N. L. Johnson and Kotz
1972). Sejam \(X\) e \(Y\) variáveis aleatórias com uma função de
distribuição conjunta dada por \[
H_\theta(x,y)=\exp\left(-\big(e^{-\theta x}+e^{-\theta y}
\big)^{1/\theta} \right),
\] para todo \(x,y\in\overline{{\bf
R}}\), onde \(\theta\geq 1\).
Mostre que a copula de \(X\) e \(Y\) é dada por \[
C_\theta(x,y)=\exp\left( -\Big(\big(-\ln(u)\big)^\theta +
\big(-\ln(\nu)\big)^\theta \Big)^{1/\theta}\right)\cdot
\] Esta família paramétrica de copulas é conhecida como a família
Gumbel-Hougaard (Hutchinson and Lai
1990).
1.14- Conway (1979) e Hutchinson and Lai (1990) referem que a
distribuição logística bivariada de Gumbel (Exercício 12) tem o defeito
de não ter um parâmetro, o que limita a sua utilidade em aplicações.
Este fato pode ser corrigido de várias formas, uma das quais (Ali, Mikhail, and Haq 1978) é definir \(H_\theta\) como \[
H_\theta(x,y)=\left( 1+e^{-x}+e^{-y}+(1+\theta)e^{-x-y}\right)^{-1},
\] para todo \(x,y\in\overline{{\bf
R}}\), onde \(\theta\in[-1,1]\).
Mostre que
as marginais são distribuições logísticas padrão;
quando \(\theta=1\), temos a distribuição logística Gumbel bivariada;
quando \(\theta=0\), \(X\) e \(Y\) são independentes;
a copula de \(X\) e \(Y\) é dada por \[ C_\theta(u,\nu)=\dfrac{u\, \nu}{1-\theta(1-u)(1-\nu)}\cdot \] Esta é a família de copulas Ali-Mikhail-Haq (Hutchinson and Lai 1990).
1.15- Sejam \(X_1\) e \(Y_1\) variáveis aleatórias com funções de
distribuição contínua \(F_1\) e \(G_1\), respetivamente e uma copula \(C\). Sejam \(F_2\) e \(G_2\) sejam outro par de funções de
distribuição contínuas e \[
X_2 = F_2^{(-1)}\big( F_1 (X_1)\big) \qquad \mbox{e} \qquad Y_2 =
G_2^{(-1)}\big( G_1(Y_1)\big)\cdot
\] Prove que
as funções de distribuição de \(X_2\) e \(Y_2\) são \(F_2\) e \(G_2\), respetivamente;
a copula de \(X_2\) e \(Y_2\) é \(C\).
1.16-
Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com copula \(C\) e funções de distribuição univariadas \(F\) e \(G\), respetivamente. As variáveis aleatórias \(\max\{X,Y\}\) e \(\min\{X,Y\}\) são as estatísticas de ordem para \(X\) e \(Y\). Prove que as funções de distribuição das estatísticas de ordem são dadas por \[ P\left(\max\{X,Y\}\leq t \right) = C\big( F(t),G(t)\big) \] e \[ P\left(\min\{X,Y\}\leq t \right) = F(t)+G(t)-C\big( F(t),G(t)\big), \] de modo que, quando \(F = G\), \[ P\left(\max\{X,Y\}\leq t \right) = \delta_C\big( F(t)\big) \quad \mbox{e} \quad P\left(\min\{X,Y\}\leq t \right) = 2F(t)-\delta_C\big( F(t)\big)\cdot \]
Mostre que os limites das funções de distribuição das estatísticas de ordem são dadas por \[ \max\{F(t)+G(t)-1,0\} \leq P\left(\max\{X,Y\}\leq t \right) \leq \min\{F(t),G(t)\} \] e \[ \max\{F(t),G(t))\}\leq P\left(\min\{X,Y\}\leq t \right) \leq \min\{ F(t)+G(t),1\}\cdot \]
1.17- Demonstre o Teorema 1.9.
1.18- Prove a versão do limite inferior de Fréchet-Hoeffding no
Lema 1.6: Seja \(S\) um subconjunto de
\(\overline{{\bf R}}^2\). Então \(S\) é não crescente se, e apenas se, para
cada \((x,y)\in\overline{{\bf R}}^2\),
ou
para todos os \((u,\nu)\in S\), \(u\leq x\) implica \(\nu > y\); ou
para todos os \((u,v)\in S\), \(\nu > y\) implica \(u\leq x\).
1.19-Prove a versão do limite inferior de Fréchet-Hoeffding no
Lema 1.7: Sejam \(X\) e \(Y\) variáveis aleatórias cuja função de
distribuição conjunta \(H\) é igual ao
seu limite inferior de Fréchet-Hoeffding. Então para cada \((x,y)\in{\bf R}^2\) ou \(P(X > x,Y > y) = 0\) ou \(P(X\leq x,Y\leq y) =0\).
1.20- Prove o Teorema 1.11.
1.21- Sejam \(X\) e \(Y\) variáveis aleatórias não negativas cuja
função de sobrevivência é \[
\overline{H}(x,y) = (e^x+e^y-1)^{-1},
\] para \(x,y\geq 0\).
Mostre que \(X\) e \(Y\) são variáveis aleatórias exponenciais padrão.
Mostre que a copula de \(X\) e \(Y\) é a copula dada por (1.14) no Exemplo 1.8.
1.22- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas cuja
função de distribuição conjunta é dada por \(C\big(F(x),G(y)\big)\), em que \(C\) é a copula de \(X\) e \(Y\), sendo \(F\) e \(G\) as funções de distribuição de \(X\) e \(Y\), respetivamente. Verifique que (1.21) e
(1.22) se mantêm válidos.
1.23- Sejam \(X_1\), \(Y_1\), \(F_1\), \(G_1\), \(F_2\), \(G_2\) e \(C\) como no Exercício 15. Seja \(X_2=F^{(-1)}_2\big(1-F_1(X_1)\big)\) e
\(Y_2=G^{(-1)}_2\big(1-G_1(Y_1)\big)\).
Prove que:
a função de distribuição de \(X_2\) e \(Y_2\) são \(F_2\) e \(G_2\), respectivamente.
a copula de \(X_2\) e \(Y_2\) é \(\widehat{C}\).
1.24- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com
copula \(C\) e uma função de
distribuição univariada comum \(F\).
Mostre que as funções de distribuição e de sobrevivência das
estatísticas de ordem (ver Exercício 16) são dadas por: \[
\begin{array}{c|cc}\hline
\mbox{Estatísticas} & \mbox{Função de} & \mbox{Função de}
\\[0.em]
\mbox{de ordem} & \mbox{distribuição} & \mbox{sobrevivência}
\\[0.8em]\hline
\max\{X,Y\} & \delta\big(F(t)\big) &
\delta^*\big(\overline{F}(t)\big) \\[0.8em]
\min\{X,Y\} & \widetilde{\delta}\big(F(t)\big) &
\widehat{\delta}\big(\overline{F}(t)\big)\\\hline
\end{array}
\] onde \(\delta\), \(\widetilde{\delta}\), \(\widehat{\delta}\) e \(\delta^*\) denotam as seções diagonais de
\(C\), \(\widetilde{C}\), \(\widehat{C}\) e \(C^*\), respetivamente.
1.25- Mostrar que, sob a composição \(\circ\), o conjunto de operações de
formação de a copula de sobrevivência, o dual de uma copula e a
co-copula de uma de uma dada copula, juntamente com a identidade, isto
é, “\(\wedge\)”, “\(\sim\)”, “\(\ast\)” e “\(i\)” dá origem ao grupo diédrico, ou seja,
\(C^{**} = C\), logo \(\ast\circ\ast = i\); \(\widehat{C}^* = \widetilde{C}̃\), logo \(\wedge\circ\ast = \sim\), etc.: \[
\begin{array}{c|cccc}\hline
\circ & i & \wedge & \sim & \ast \\[0.4em]\hline
i & i & \wedge & \sim & \ast \\[0.4em]
\wedge & \wedge & i & \ast & \sim \\[0.4em]
\sim & \sim & \ast & i & \wedge\\[0.4em]
\ast & \ast & \sim & \wedge & i \\
\end{array}
\]
1.26- Prove a seguinte versão “de sobrevivência” do Corolário
1.2: Sejam \(H\), \(F\), \(G\)
e \(\widehat{C}\) como em (1.20) e
sejam \(F^{(-1)}\) e \(G^{(-1)}\) quasi-inversas de \(F\) e \(G\), respetivamente. Então, para qualquer
\((u,v)\in{\bf I}^2\), \[
\widehat{C}(u,\nu)=\overline{H}\big(\overline{F}^{(-1)}(u),\overline{G}^{(-1)}(\nu)
\big)\cdot
\]
1.27- Sejam \(X\) e \(Y\) variáveis aleatórias contínuas
simétricas em torno de \(a\) e \(b\) com funções de distribuição marginais
\(F\) e \(G\), respetivamente e com copula \(C\). É \((X,Y)\) radialmente simétrico ou
conjuntamente simétrico em torno de \((a,b)\) se \(C\) for
um membro da família de Fréchet no Exercício 4?
um membro da família de Cuadras-Augé no Exercício 5?
1.28- Suponha que \(X\) e \(Y\) sejam variáveis aleatórias contínuas
distribuídas de forma idêntica, cada uma simétrica em torno de \(a\). Mostre que a “permutabilidade” não
implica “simetria radial”, nem “simetria radial” implica
“permutabilidade”.
1.29- Prove o seguinte análogo do Teorema 1.12 para variáveis
aleatórias conjuntamente simétricas: Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com
função de distribuição conjunta \(H\) e
marginais \(F\) e \(G\), respectivamente. Seja \((a,b)\) um ponto em \({\bf R}^2\). Então \((X,Y)\) é conjuntamente simétrico em
relação a \((a,b)\) se, e somente se,
\[
H(a+x,b + y ) = F ( a + x ) - H ( a + x ,b - y ) \quad \mbox{para todos}
\quad (x,y)\in\overline{{\bf R}}^2
\] e \[
H ( a + x ,b + y ) = G (b + y ) - H ( a - x ,b + y ) \quad \mbox{para
todos} \quad (x,y)\in\overline{{\bf R}}^2\cdot
\]
1.30- Prove o seguinte análogo do Teorema 1.13 para variáveis
aleatórias conjuntamente simétricas: Sejam \(X\) e \(Y\) variáveis aleatórias contínuas com
função de distribuição conjunta \(H\),
funções de distribuição marginal \(F\)
e \(G\), respectivamente e copula \(C\). Suponha ainda que \(X\) e \(Y\) sejam simétricos em relação \(a\) e \(b\), respectivamente. Então \((X,Y)\) é conjuntamente simétrico em
relação a \((a,b)\), ou seja, \(H\) satisfaz as equações no Exercício 28
se, e somente se, \(C\) satisfaz \[
C(u,\nu)=u-C(u,1-\nu) \qquad \mbox{e} \qquad C(u,\nu)=\nu-C(1-u,\nu),
\] para todo \((u,\nu)\in{\bf
I}^2\). Dica: utilizar o Exercício 6 e o Teorema
1.9.
1.31-
Mostre que \(C_1\prec C_2\) se, e somente se, \(\overline{C}_1\prec \overline{C}_2\).
Mostre que \(C_1\prec C_2\) se, e somente se, \(\widehat{C}_1\prec \widehat{C}_2\).
1.32- Mostre que a família de copulas Ali-Mikhail-Haq, definida
no Exercício 14, é ordenada positivamente.
1.33- Mostre que a família Mardia de copulas, definida no
Exercício 4, não é nem positiva nem negativamente ordenada.
Dica: avalie \(C_0\),
\(C_{1,4}\) e \(C_{1,2}\) em \((u,v) = (3/4,1/4)\).
1.34-
Mostre que as \((n-1)\)-marginais de uma \(n\)-copula são \((n-1)\)-copulas. Dica: considere \(n\)-caixas da forma \([a_1,b_1]\times \cdots\times [a_{k-1},b_{k-1}]\times [0,1]\times [a_{k+1},b_{k+1}]\times \cdots\times [a_n,b_n]\).
Mostre que se \(C\) é uma \(n\)-copula, \(n\geq 3\), então para qualquer \(k\), \(2\leq k < n\), todas as \(\binom{n}{k}\)-marginais de \(C\) são \(k\)-copulas.
1.35- Sejam \(M^n\) e \(\Pi^n\) as funções definidas em (1.30) e
seja \([\pmb{a},\pmb{b}]\) uma \(n\)-caixa em \({\bf I}^n\). Prove que \[
V_{M^n}\big([\pmb{a},\pmb{b}]
\big)=\max\left\{\min\{b_1,b_2,\cdots,b_n\}-\max\{a_1,a_2,\cdots,a_n\},0\right\}
\] e que \[
V_{\Pi^n}\big([\pmb{a},\pmb{b}] \big)=(b_1-a_1)(b_2-a_2)\cdots (b_n-a_n)
\] e, portanto, conclua que \(M^n\) e \(\Pi^n\) são \(n\)-copulas para todo \(n\geq 2\).
1.36- Mostre que \[
V_{W^n}\big([\pmb{1/2},\pmb{1}] \big)=1-(n/2),
\] onde \(\pmb{1} =
(1,1,\cdots,1)\) e \(\pmb{1/2} =
(1/2,1/2,\cdots,1/2)\) e, portanto, \(W^n\) falha em ser uma \(n\)-copula sempre que \(n > 2\).
1.37- Sejam \(X_1,X_2,\cdots,X_n\) variáveis aleatórias
contínuas com copula \(C\) e funções de
distribuição \(F_1,F_2,\cdots,F_n\),
respectivamente. Sejam \(X_{(1)}\) e
\(X_{(n)}\) as estatísticas de ordem
extrema para \(X_1,X_2,\cdots,X_n\), ou
seja, \(X_{(1)}=\min\{X_1,X_2,\cdots,X_n\}\) e
\(X_{(n)}=\max\{X_1,X_2,\cdots,X_n\}\)
n ) = max( X1, X2 ,…, Xn )) (ver Exercício 16). Prove que as funções de
distribuição \(F_{(1)}\) e \(F_{(n)}\), respectivamente, de \(X_{(1)}\) e \(X_{(n)}\) satisfazem \[
\max\left\{F_1(t),F_2(t),\cdots,F_n(t) \right\}\leq F_{(1)}(t)\leq
\min\left\{\sum_{k=1}^n F_k(t),,1\right\}
\] e \[
\max\left\{\sum_{k=1}^n F_k(t)-n+1,0\right\}\leq F_{(n)}(t)\leq
\min\left\{F_1(t),F_2(t),\cdots,F_n(t) \right\}\cdot
\]