Não foi possível enviar o arquivo. Será algum problema com as permissões?
Diferenças

Diferenças

Aqui você vê as diferenças entre duas revisões dessa página.

Link para esta página de comparações

Ambos lados da revisão anterior Revisão anterior
Próxima revisão
Revisão anterior
disciplinas:ce227-2018-01:historico [2018/04/24 18:28]
paulojus
disciplinas:ce227-2018-01:historico [2019/11/04 11:52]
paulojus
Linha 33: Linha 33:
 | 16/04 Seg |Resolução e discussão do exercício 6.1. Obtendo a preditiva: (i) analiticamente,​ (ii) por aproximação normal (iii) por simulação ​ | |[[#​16/​04|ver abaixo]] | | 16/04 Seg |Resolução e discussão do exercício 6.1. Obtendo a preditiva: (i) analiticamente,​ (ii) por aproximação normal (iii) por simulação ​ | |[[#​16/​04|ver abaixo]] |
 | 18/04 Qua |Algoritmo amostrador de Gibbs (Gibbs sampler). Exemplo na inferência para distribuição normal ​ | |[[#​18/​04|ver abaixo]] | | 18/04 Qua |Algoritmo amostrador de Gibbs (Gibbs sampler). Exemplo na inferência para distribuição normal ​ | |[[#​18/​04|ver abaixo]] |
-| 23/04 Seg |Revisão Gibbs sampler. Modelo Poisson com  priori Gamma e hiperpriori InvGamma. Derivação da posteriori ​condicionais completas e implementação do algoritmo de Gibbs. +| 23/04 Seg |Revisão Gibbs sampler. Modelo Poisson com priori Gamma e hiperpriori InvGamma. Derivação da posterioricondicionais completas e implementação do algoritmo de Gibbs. Regressão linear: expressões para amostragem exata e via Gibbs| |[[#​23/​04|ver abaixo]] ​
-Regressão linear: expressões para amostragem exata e via Gibbs| |[[#​23/​04|ver abaixo]] |+| 25/04 Qua |Gibbs sampler compasso Metrópolis. Modelo Poisson com priori Normal. Derivação da posteriori, condicionais completas e implementação do algoritmo de Gibbs com um passo metrópolis. | |[[#​23/​04|ver abaixo]] | 
 +| 30/04 Seg |Feriado | | | 
 +| 02/05 Qua |1a prova | | | 
 +| 07/05 Seg |Discussão das questões da 1a prova. Definição de atividades para sequencia do curso | |[[#​07/​05|ver abaixo]] | 
 +| 09/05 Qua |Recursos computacionais para inferência Bayesiana - Atividades indicadas na aula anterior. Sem aula expositiva. | | | 
 +| 14/05 Seg |Gibbs sampler: exemplo das minas de carvão. Programação e utilização do JAGS | |[[#​14/​05|ver abaixo]] | 
 +| 16/05 Qua |Modelo de componentes de variância e correlação intraclasse,​ análise Bayesiana e não Bayesiana. Análise via JAGS | |[[#​16/​05|ver abaixo]] | 
 +| 21/05 Seg |Sem aula expositiva: semana dedicada às atividades do RDay e RBras | | | 
 +| 23/05 Qua |Sem aula expositiva: semana dedicada às atividades do RDay e RBras | | | 
 +| 28/05 Seg |Sem aula expositiva: interrupção de aulas na UFPR | | | 
 +| 30/05 Qua |Sem aula expositiva: interrupção de aulas na UFPR | | | 
 +| 04/06 Seg |Reorganização do curso. Dúvidas e perguntas dos alunos | | | 
 +| 06/06 Qua |2a prova. Toda matéria discutida até aqui | | | 
 +| 11/06 Qua |Bayesiano empírico - modelo Poisson-Gamma para taxas  |  |  | 
 +| 13/06 Qua |Apresentações ​ |  |  | 
 +| 18/06 Qua |Apresentações ​ |  |  | 
 +| 20/06 Qua |3a prova. |  |  ​|
  
 === 19/02 === === 19/02 ===
Linha 65: Linha 81:
 === 26/02 === === 26/02 ===
   - Completar problemas propostas nas aulas anteriores após as discussões em aula   - Completar problemas propostas nas aulas anteriores após as discussões em aula
-  - Escrever um código para o Exemplo da Poisson (2.3 do material), que permita ​desenhas ​as funções e avaliar efeitos de prioris e dados+  - Escrever um código para o Exemplo da Poisson (2.3 do material), que permita ​desenhar ​as funções e avaliar efeitos de prioris e dados
   - Ler e resolver exercícios do Capítulo 2 da apostila   - Ler e resolver exercícios do Capítulo 2 da apostila
  
Linha 154: Linha 170:
 === 09/04 === === 09/04 ===
   - Fazer um código (com operações matriciais) para os cálculos do Exemplo 1. O código deve permitir definir diferentes prioris e verossimilhanças. Experimentar com valores diferentes do exemplo.   - Fazer um código (com operações matriciais) para os cálculos do Exemplo 1. O código deve permitir definir diferentes prioris e verossimilhanças. Experimentar com valores diferentes do exemplo.
-  - Especificar valores para os hiperparâmetros p e q no Exemplo 2 e simular um conjunto de dados. Obter a posteriori e maginais. Fazer gráficos conjuntos e marginais da priori e posteriori.+  - Especificar valores para os hiperparâmetros ​//p// //q// no Exemplo 2 e simular um conjunto de dados. Obter a posteriori e maginais. Fazer gráficos conjuntos e marginais da priori e posteriori.
   - No Exemplo 3 obter a marginal <​latex>​[\sigma^2|y]</​latex>​ e a posteriori condicional <​latex>​[\mu|\sigma^2,​y]</​latex>​   - No Exemplo 3 obter a marginal <​latex>​[\sigma^2|y]</​latex>​ e a posteriori condicional <​latex>​[\mu|\sigma^2,​y]</​latex>​
   - Ainda no exemplo 3 definir os hiperparâmetros de obter uma simulação de dados do modelo ​   - Ainda no exemplo 3 definir os hiperparâmetros de obter uma simulação de dados do modelo ​
Linha 274: Linha 290:
 ## ##
 ## A estratégia de Gibbs é alternar as simulações entre **as distribuições condicionais** ## A estratégia de Gibbs é alternar as simulações entre **as distribuições condicionais**
-## o que "​parece"​ errado ,as provouse ​que a cadeia de valores assim simulados **converge** para a distribuição conjunta ​+## o que "​parece"​ errado ,as provou-se ​que a cadeia de valores assim simulados **converge** para a distribuição conjunta ​
 ##    [\mu|\sigma^2,​ y] \sim {\rm N}(\overline{y},​ \sigma^2/n) ##    [\mu|\sigma^2,​ y] \sim {\rm N}(\overline{y},​ \sigma^2/n)
 ##    [\sigma^2|\mu,​ y] \sim {\rm IG}(\frac{n}{2},​ \frac{2}{A}) ##    [\sigma^2|\mu,​ y] \sim {\rm IG}(\frac{n}{2},​ \frac{2}{A})
Linha 293: Linha 309:
 sigma2.simG[1] <- 100 sigma2.simG[1] <- 100
  
-{for(i in 2:N){+{ 
 +for(i in 2:N){
     A <- with(dados, SQ + n*(mu.simG[i-1]-m)^2)     A <- with(dados, SQ + n*(mu.simG[i-1]-m)^2)
     sigma2.simG[i] <- with(dados, 1/rgamma(1, shape=n/2, scale=2/A))     sigma2.simG[i] <- with(dados, 1/rgamma(1, shape=n/2, scale=2/A))
Linha 325: Linha 342:
  
 === 23/04 === === 23/04 ===
-  - Implementar modelo semelhante ao visto em aula porém com <​math>​log(lambda ~Normal). (ver detalhes na versão revisada do Cap 8 do material do curso.+  - Implementar modelo semelhante ao visto em aula porém com <​math>​log(lambda ~Normal)</​math>​. (ver detalhes na versão revisada do Cap 8 do material do curso.
   - Implementar a regressão linear via algoritmo de Gibbs. Usar dados simulados de uma regressão linear simples. Incluir amostras da preditiva no algoritmo   - Implementar a regressão linear via algoritmo de Gibbs. Usar dados simulados de uma regressão linear simples. Incluir amostras da preditiva no algoritmo
   - Código para o modelo visto em aula:<​code R>   - Código para o modelo visto em aula:<​code R>
Linha 379: Linha 396:
 plot(density(beta.sam,​ from=0, to=5)); abline(v=mean(betas));​ rug(betas) plot(density(beta.sam,​ from=0, to=5)); abline(v=mean(betas));​ rug(betas)
 plot(density(lambda.sam,​ from=0, to=20)); abline(v=mean(lambdas));​ rug(lambdas) plot(density(lambda.sam,​ from=0, to=20)); abline(v=mean(lambdas));​ rug(lambdas)
-</code R>+</code
 + 
 +=== 07/05 === 
 +  - **Atividade 1** (individual ou duplas) Buscar algum pacote do ou outro programa que permita obter os resultados (analíticos) vistos até aqui no curso. Evitar coincidẽncias entre os escolhidos 
 +  - **Atividade 2** (individual ou duplas) Buscar algum pacote do R ou outro programa que permita obter por simulação resultados pera os exemplos vistos até aqui no curso. Evitar coincidẽncias entre os escolhidos 
 +  - **Atividade 3** (individual ou duplas) Utilizar o recurso visto na Atividade 2 para analizar algum modelo/​exemplo não visto no curso. Evitar coincidẽncias entre os escolhidos 
 + 
 +=== 14/05 === 
 +  - {{:​disciplinas:​ce227:​changepointjags.r|Script R/JAGS para análise dos dados do Cap 8}} (changepoint Poisson) 
 + 
 +=== 16/05 === 
 +  - Coeficiente de correlação ​ intraclasse <code R> 
 +## Dados simulados do modelo: 
 +## Y_{ij} \sim N(\mu_{i}, \sigma^2_y) 
 +##     ​mu_{i} = theta + b_{i} 
 +##     b_{i} \sim N(0, \sigma^2_b) 
 +## que, por ser normal (com ligação identidade) 
 +## pode ser escrito por: 
 +## Y_{ij} = \beta_0 + b_{i} + \epsilon_{ij}  
 +## 
 +## simulando dados: 
 +Ngr <-  25 
 +Nobs <- 10 
 +set.seed(12) 
 +sim <- data.frame(id ​ = Ngr*Nobs, 
 +                  gr  = rep(1:Ngr, each=Nobs),​ 
 +                  bs  = rep(rnorm(Ngr,​ m=0, sd=10), each=Nobs),​ 
 +                  eps = rnorm(Ngr*Nobs,​ m=0, sd=4) 
 +                  ) 
 +sim <- transform(sim,​ y = 100 + bs + eps) 
 +sim 
 + 
 +## estimativas "​naive"​ 
 +resumo <- function(x) c(media=mean(x),​ var=var(x), sd=sd(x), CV=100*sd(x)/​mean(x)) 
 +(sim.res <- aggregate(y~gr,​ FUN=resumo, data=sim)) 
 +var(sim.res$y[,​1]) 
 +mean(sim.res$y[,​2]) 
 +mean(sim$y) 
 + 
 +## A seguir serão obtidas inferências de três formas diferentes:​ 
 +## - ajuste modelo de efeito aleatório (não bayesiano) 
 +## - ajuste via JAGS (inferência por simulação da posteriori) 
 +## - ajuste via INLA (inferência por aproximação da posteriori) 
 + 
 +## 
 +## Modelo de efeitos aleatórios 
 +## 
 +require(lme4) 
 +fit.lme <- lmer(y ~ 1|gr, data=sim) 
 +summary(fit.lme) 
 +ranef(fit.lme) 
 +coef(fit.lme)$gr - fixef(fit.lme) 
 +print(VarCorr(fit.lme),​ comp="​Variance"​) 
 + 
 +## JAGS 
 +require(rjags) 
 + 
 +sim.lst <- as.list(sim[c("​gr","​y"​)]) 
 +sim.lst$N <- nrow(sim) 
 +sim.lst$Ngr <- length(unique(sim$gr)) 
 +mean(sim.lst$y) 
 + 
 +cat("​model{ 
 +    for(j in 1:N){ 
 +        y[j] ~ dnorm(mu[gr[j]],​ tau.e) 
 +     } 
 +    for(i in 1:Ngr){ 
 +        mu[i] ~ dnorm(theta,​ tau.b) 
 +    } 
 +    theta ~ dnorm(0, 1.0E-6) 
 +    tau.b ~ dgamma(0.001,​ 0.001) 
 +    sigma2.b <- 1/tau.b 
 +    tau.e ~ dgamma(0.001,​ 0.001) 
 +    sigma2.e <- 1/tau.e 
 +    cci <- sigma2.e/​(sigma2.e+sigma2.b) 
 +}", file="​sim.jags"​) 
 + 
 +sim.jags <- jags.model(file="​sim.jags",​ data=sim.lst,​ n.chains=3, n.adapt=1000) 
 +## inits = ... 
 + 
 +fit.jags <- coda.samples(sim.jags,​ c("​theta",​ "​sigma2.b",​ "​sigma2.e",​ "​cci"​),​ 10000, thin=10) 
 + 
 +summary(fit.jags) 
 +plot(fit.jags) 
 + 
 +## 
 +require(INLA) 
 + 
 +fit.inla <- inla(y ~ f(gr) , family="​gaussian",​ data=sim) 
 +summary(fit.inla) 
 +sqrt(1/​fit.inla$summary.hyperpar[,​1]) 
 +</​code>​  
 + 
 +<fs large>​**Atividades propostas:​**</​fs> ​  
 +  - Complementar as análise acima com exploração dos resultados, obtenção de gráficos e resultados de interesse 
 +  - Ajustar o modelo acima aos dados de:\\ Julio M. Singer, Carmen Diva Saldiva de André, Clóvis de Araújo Peres\\ **Confiabilidade e Precisão na Estimação de Médias**\\ [[http://​www.rbes.ibge.gov.br/​images/​doc/​rbe_236_jan_jun2012.pdf|Revista Brasileira de Estatística,​ v73]], n. 236, jan./jun. 2012. 
 +  - Identificar e ajustar modelos (não bayesianos, bayesianos por simulação ou aproximados) para dados simulados da seguinte forma: <code R> 
 +set.seed(123456L) 
 +n <- 50 
 +m <- 10 
 +w <- rnorm(n, sd=1/3) 
 +u <- rnorm(m, sd=1/4) 
 +b0 <- 0 
 +b1 <- 1 
 +idx <- sample(1:m, n, replace=TRUE) 
 +y <- rpois(n, lambda = exp(b0 + b1 * w + u[idx] 
 +</code> 

QR Code
QR Code disciplinas:ce227-2018-01:historico (generated for current page)