Não foi possível enviar o arquivo. Será algum problema com as permissões?
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Ambos lados da revisão anterior Revisão anterior Próxima revisão | Revisão anterior Próxima revisão Ambos lados da revisão seguinte | ||
disciplinas:ce227-2016-01:historico [2016/03/28 16:56] paulojus |
disciplinas:ce227-2016-01:historico [2016/05/12 17:40] paulojus |
||
---|---|---|---|
Linha 1: | Linha 1: | ||
- | ====== CE-227 - Primeiro semestre de 2014 ====== | + | ====== CE-227 - Primeiro semestre de 2016 ====== |
No quadro abaixo será anotado o conteúdo dado em cada aula do curso. \\ | No quadro abaixo será anotado o conteúdo dado em cada aula do curso. \\ | ||
Linha 23: | Linha 23: | ||
| 21/03 Seg |Apresentação e discussão crítica das implementações computacionais. | | | | | | 21/03 Seg |Apresentação e discussão crítica das implementações computacionais. | | | | | ||
| 23/03 Qua |Discussão sobre Cap 1 do texto do curso. Paradigmas de inferência. | | | | | | 23/03 Qua |Discussão sobre Cap 1 do texto do curso. Paradigmas de inferência. | | | | | ||
- | | 28/03 Seg |Discussão sobre Cap 2 do texto do curso. | | | | | + | | 28/03 Seg |Discussão sobre Cap 2 do texto do curso. |Exercícios do Capítulo | | | |
+ | | 30/03 Seg |Discussão sobre Cap 3 do texto do curso (prioris). |Exercícios do Capítulo | | | | ||
+ | | 04/04 Seg |Inferência (bayesiana e não bayesiana) sobre o parâmetro variância de uma distribuição normal (com média fixa). Revisão conceitual e comparações. |{{:disciplinas:ce227:ce227-av01.pdf|arquivo discutido em aula}} | | | | ||
+ | | 06/04 Qua |desenvolver análises análogas às vistas na última aula para algum outro modelo com 1 parâmetro (excluindo da binomial ou algum dos parâmetros da normal) | | | | | ||
+ | | 11/04 Seg |Discussão das análises feitas pelos participantes do curso. Modelos com mais de um parâmetro - ideais fundamentais. Distribuições posterioris marginais, conjuntas e condicionais. |Cap 4 do material do curso | | | | ||
+ | | 13/04 Qua |Resumos da posteriori |Cap 5 do material do curso | |Preparar material para discussão sobre FBST | | ||
+ | | 18/04 Seg |Predição Bayesiana |Cap 6 do material do curso | |[[#18/04|Ver abaixo]] | | ||
+ | | 20/04 Qua |Testes FBST - parte 1/2 | | | | | ||
+ | | 25/04 Seg |Testes FBST - parte 2/2 e revisão/dúvidas para prova | | | | | ||
+ | | 27/04 Qua |1a prova | | | | | ||
+ | | 02/05 Seg |Discussão da 1a prova | | | | | ||
+ | | 04/05 Qua |Atividades dos alunos - revisão da prova | | | | | ||
+ | | 09/05 Seg |Discussão da prova e detalhamento do problema da questão 5 | | |[[#09/05|Ver abaixo]] | | ||
+ | | 11/05 Qua |Discussão Caps 7 e 8 do material | | |[[#11/05|Ver abaixo]] | | ||
=== 29/02 === | === 29/02 === | ||
Manifestar uma opinião subjetiva sobre o parâmetro de uma distribuição binomial. (basear-se no contexto de intenção de voto discutido em aula) | Manifestar uma opinião subjetiva sobre o parâmetro de uma distribuição binomial. (basear-se no contexto de intenção de voto discutido em aula) | ||
Linha 40: | Linha 52: | ||
Propor e implementar algorítimos para discretização da posteriori e amostragem via métodos a rejeição e MCMC. | Propor e implementar algorítimos para discretização da posteriori e amostragem via métodos a rejeição e MCMC. | ||
+ | === 18/04 === | ||
+ | Considere o modelo de verossimilhança <latex>[Y|\mu, \sigma^2] \sim N(\theta, \sigma^2)</latex> e a priori <latex>\tau = 1/\sigma^2 \sim Ga(a, b)</latex>. Mostre como obter a densidade: \\ <latex>[Y|\theta, a, b] = \frac{\Gamma((n/2)+a)}{\pi^{n/2} \Gamma(a) (\sum_i (x_i - \theta)^2 + 2b)^{(n/2)+a}}</latex>. \\ Como este resultado pode ser interpretado? | ||
+ | === 09/05 === | ||
+ | - Obter os resultados analíticos possíveis para o problema da questão 5 da prova (posteriori, constante de integração, aproximação quadrática, etc) | ||
+ | - Implementar os diferentes métodos para inferência baseada na posteriori (exata, aproximação normal, discretização, amostragem) | ||
+ | === 11/05 === | ||
+ | - Derivar os expressões das condicionais completas no problema do ponto de mudança da Poisson (ex. do capitulo 8) | ||
+ | - Implementar o algorítmo de Gibbs para este exemplo. | ||