Não foi possível enviar o arquivo. Será algum problema com as permissões?
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Ambos lados da revisão anterior Revisão anterior Próxima revisão | Revisão anterior Próxima revisão Ambos lados da revisão seguinte | ||
disciplinas:ce227-2018-01:historico [2018/04/19 18:55] paulojus |
disciplinas:ce227-2018-01:historico [2018/05/15 16:40] paulojus |
||
---|---|---|---|
Linha 32: | Linha 32: | ||
| 11/04 Qua |Sem aula expositiva. Fazer atividades recomendadas da aula anterior ([[#09/04|ver abaixo]]) | | | | | 11/04 Qua |Sem aula expositiva. Fazer atividades recomendadas da aula anterior ([[#09/04|ver abaixo]]) | | | | ||
| 16/04 Seg |Resolução e discussão do exercício 6.1. Obtendo a preditiva: (i) analiticamente, (ii) por aproximação normal (iii) por simulação | |[[#16/04|ver abaixo]] | | | 16/04 Seg |Resolução e discussão do exercício 6.1. Obtendo a preditiva: (i) analiticamente, (ii) por aproximação normal (iii) por simulação | |[[#16/04|ver abaixo]] | | ||
+ | | 18/04 Qua |Algoritmo amostrador de Gibbs (Gibbs sampler). Exemplo na inferência para distribuição normal | |[[#18/04|ver abaixo]] | | ||
+ | | 23/04 Seg |Revisão Gibbs sampler. Modelo Poisson com priori Gamma e hiperpriori InvGamma. Derivação da posteriori, condicionais completas e implementação do algoritmo de Gibbs. Regressão linear: expressões para amostragem exata e via Gibbs| |[[#23/04|ver abaixo]] | | ||
+ | | 25/04 Qua |Gibbs sampler compasso Metrópolis. Modelo Poisson com priori Normal. Derivação da posteriori, condicionais completas e implementação do algoritmo de Gibbs com um passo metrópolis. | |[[#23/04|ver abaixo]] | | ||
+ | | 30/04 Seg |Feriado | | | | ||
+ | | 02/05 Qua |1a prova | | | | ||
+ | | 07/05 Seg |Discussão das questões da 1a prova. Definição de atividades para sequencia do curso | |[[#07/05|ver abaixo]] | | ||
+ | | 09/05 Qua |Recursos computacionais para inferência Bayesiana - Atividades indicadas na aula anterior. Sem aula expositiva. | | | | ||
+ | | 14/05 Seg |Gibss samples: exemplo das inas de carvão. Programação e utilização do JAGS | |[[#14/05|ver abaixo]] | | ||
=== 19/02 === | === 19/02 === | ||
Linha 270: | Linha 278: | ||
## Amostra (Gibbs) da posteriori | ## Amostra (Gibbs) da posteriori | ||
## | ## | ||
- | ## A estatégia de Gibbs é alternar as simulações entre **as distribuições condicionais** | + | ## A estratégia de Gibbs é alternar as simulações entre **as distribuições condicionais** |
## o que "parece" errado ,as provouse que a cadeia de valores assim simulados **converge** para a distribuição conjunta | ## o que "parece" errado ,as provouse que a cadeia de valores assim simulados **converge** para a distribuição conjunta | ||
## [\mu|\sigma^2, y] \sim {\rm N}(\overline{y}, \sigma^2/n) | ## [\mu|\sigma^2, y] \sim {\rm N}(\overline{y}, \sigma^2/n) | ||
Linha 321: | Linha 329: | ||
</code> | </code> | ||
+ | === 23/04 === | ||
+ | - Implementar modelo semelhante ao visto em aula porém com <math>log(lambda ~Normal). (ver detalhes na versão revisada do Cap 8 do material do curso. | ||
+ | - Implementar a regressão linear via algoritmo de Gibbs. Usar dados simulados de uma regressão linear simples. Incluir amostras da preditiva no algoritmo | ||
+ | - Código para o modelo visto em aula:<code R> | ||
+ | ## Simulando dados do modelo sendo estudado | ||
+ | set.seed(2018) | ||
+ | ctes <- list(a=3, c=2.5, d=0.8, n=50) | ||
+ | with(ctes, EVIG(c, d)) | ||
+ | betas <- with(ctes, 1/rgamma(n, shape=c, scale=d)) | ||
+ | c(mean(betas),var(betas)) | ||
+ | lambdas <- with(ctes, rgamma(n, shape=a, rate=betas)) | ||
+ | (ctes$y <- rpois(ctes$n, lambda=lambdas)) | ||
+ | with(ctes, c(media=mean(y), var=var(y))) | ||
+ | with(ctes, plot(prop.table(table(y)), type="h", ylim=c(0,0.3))) | ||
+ | with(ctes,lines((0:max(y))+0.1, dpois(0:max(y), lambda=mean(y)), type="h", col=2)) | ||
+ | ## | ||
+ | ## Iniciando inferência a ser feita via amostrador de Gibbs | ||
+ | ## | ||
+ | ctes$sumY <- sum(ctes$y) | ||
+ | ## | ||
+ | N <- 11000 # número de simulação no algorítmo | ||
+ | B <- 1000 # bunr-in - amostras s serem descartadas no início da cadeia | ||
+ | beta.sam <- lambda.sam <- numeric(N) | ||
+ | beta.sam[1] <- lambda.sam[1] <- 10 | ||
+ | { | ||
+ | for(i in 2:N){ | ||
+ | beta.sam[i] <- with(ctes, 1/rgamma(1, shape=a+c, scale=d/(d*lambda.sam[i-1]+1))) | ||
+ | lambda.sam[i] <- with(ctes, rgamma(1, shape=ctes$a+sumY, scale=beta.sam[i]/(n*beta.sam[i]+1))) | ||
+ | } | ||
+ | } | ||
+ | |||
+ | ## Explorando simulações | ||
+ | par(mfrow=c(2,1)) | ||
+ | plot(beta.sam, type="l") | ||
+ | plot(lambda.sam, type="l") | ||
+ | ## retirando amostras consideradas aquecimento | ||
+ | beta.sam <- beta.sam[-(1:B)] | ||
+ | lambda.sam <- lambda.sam[-(1:B)] | ||
+ | plot(beta.sam, type="l") | ||
+ | plot(lambda.sam, type="l") | ||
+ | plot(log(beta.sam), type="l") | ||
+ | plot(lambda.sam, type="l") | ||
+ | |||
+ | par(mfrow=c(1,2)) | ||
+ | plot(density(beta.sam)); abline(v=mean(betas)); rug(betas) | ||
+ | plot(density(lambda.sam)); abline(v=mean(lambdas)); rug(lambdas) | ||
+ | summary(ctes$y) | ||
+ | summary(betas) | ||
+ | summary(beta.sam) | ||
+ | summary(lambdas) | ||
+ | summary(lambda.sam) | ||
+ | |||
+ | par(mfrow=c(1,2)) | ||
+ | plot(density(beta.sam, from=0, to=5)); abline(v=mean(betas)); rug(betas) | ||
+ | plot(density(lambda.sam, from=0, to=20)); abline(v=mean(lambdas)); rug(lambdas) | ||
+ | </code> | ||
+ | |||
+ | === 07/05 === | ||
+ | - *Atividade 1* (individual ou duplas) Buscar algum pacote do R ou outro programa que permita obter os resultados (analíticos) vistos até aqui no curso. Evitar coincidẽncias entre os escolhidos | ||
+ | - *Atividade 2* (individual ou duplas) Buscar algum pacote do R ou outro programa que permita obter por simulação resultados pera os exemplos vistos até aqui no curso. Evitar coincidẽncias entre os escolhidos | ||
+ | - *Atividade 3* (individual ou duplas) Utilizar o recurso visto na Atividade 2 para analizar algum modelo/exemplo não visto no curso. Evitar coincidẽncias entre os escolhidos | ||
+ | |||
+ | === 14/05 === | ||
+ | - {{:disciplinas:ce227:changepointjags.r|Script R/JAGS para análise dos dados do Cap 8}} (changepoint Poisson) |