Thuis
Contacten

    Hoofdpagina


Docent: drs. Rob Flohr

Dovnload 2 Mb.

Docent: drs. Rob Flohr



Pagina11/25
Datum05.12.2018
Grootte2 Mb.

Dovnload 2 Mb.
1   ...   7   8   9   10   11   12   13   14   ...   25
aannames (vgl. het verschil tussen de stelling van Bayes - is puur deductief - en de regel van Bayes (want waarom zouden we onze prior beliefs moeten aanpassen in het licht van nieuwe data?; dat is een aanname die niet uit de Bayesiaanse statistiek zelf valt af te leiden, die komt a.h.w. 'van buitenaf', is een buitenwetenschappelijk uitgangspunt, ->de vraag:
welke aannames zijn nodig om van data tot conclusies te komen? , en hoe rechtvaardig je die aannames? is een relevante vraag.
M.b.v. Dutch Book argumenten hebben sommigen getracht aan te tonen dat het aangaan van een weddenschap waarbij de regels van de kansrekening niet in acht genomen worden, altijd tot nadelige uitkomsten leidt voor de degene die de weddenschap aangaat.

In het kader van het ter discussie stellen van de waarheidspretentie van de wetenschappen is interessant:


Michel Foucault (1926 -1984): over de relatie tussen macht en kennis; heersende kennisopvattingen worden in een taal (epistèmè) uitgedrukt en in verschillende historische perioden zijn er verschillende epistèmès.

vb. De mens in de ME leefde in een andere werkelijkheid dan wij

vb: onweer: Donar of elektrische ontladingen

ONDERDEEL III)

- werkstuk: groepsgesprek

ONDERDEEL IV)


- uitleg MCMC:
alles draait om de posterior verdeling, die bevat alle informatie die we hebben (prior plus data) en het is een kansverdeling die kansuitspraken over de onbekende (kans)variabele - de parameter - mogelijk maakt.

Stel dat we een likelihoodfunctie en een prior kansverdeling hebben waaruit we niet langs theoretische weg de posterior kansverdeling kunnen afleiden.


Wat we dan kunnen doen is uit die posterior een groot aantal representatieve waarden genereren en uit die waarden de posterior te schatten. Vaak kunnen we niet direct trekkingen uit de posterior doen en gaat het langs een omweg, namelijk via een Markov Chain Monte Carlo simulatie.
We lichten dit toe aan de hand van een posterior in het kader van enkelvoudige lineaire regressie (zie huiswerkopgave voor les 4):

We hebben data () verzameld omtrent een onafhankelijke ('Beers') en een afhankelijke variabele ('BAC'), en we hebben een model ,


met (dat is een aanname van het lineaire regressiemodel)

Verder hebben we priors voor , en .
Nu kunnen we uit de 'joint posterior distribution' trekkingen doen via de corresponderende 'conditional posterior distributions':
, ,

Dit heet Gibbs Sampling, BUGS betekent dan ook: Bayesian Inference Using the Gibbs Sampler.

Dit gaat als volgt:

- kies startwaarden voor de onbekende parameters , en , deze startwaarden duiden we aan met , en .



Doe een trekking uit
om te verkrijgen en vervolgens uit
om te verkrijgen en dan uit
om te verkrijgen.

Vervolgens doe je een trekking uit om te verkrijgen enz.

Door deze stappen te herhalen op basis van de verkregen waarden die de startwaarden vervangen, krijgen we een reeks waarden die een Markov keten vormen welke (als het goed gaat) convergeert naar een evenwichtsverdeling die de gewenste posterior verdeling benadert.

(Gibbs sampling is een specifiek algoritme en is een vorm van MCMC-sampling, het is in feite een vorm van het Metropolis-Hastings algoritme, zie hoofdstuk 6 van De Bayesiaanse benadering voor meer informatie)

ONDERDEEL V)

-BUGS project: www.mrc-bsu.cam.ac.uk/bugs



- Inleiding WinBUGS aan de hand van de voorbeelden

Voorbeelden:

(1) werpen van munt uit les 1 (instructie wordt tijdens de les uitgedeeld)

(2) enkelvoudige lineaire regressie uit de huiswerkopdracht m.b.v. WinBUGS (zie hieronder)

(3) uitgever met Gamma-Poisson

(4) snelweg met Gamma-Poisson

-----------------------------------------------------------------------------------------------------------------------
Voorbeeld (1): 20 keer gooien van een munt levert 5 keer kop op
-----------------------------------------------------------------------------------------------------------------------
Voorbeeld (2): enkelvoudige lineaire regressie

Met initial values:

#Model
model{

for(i in 1:n){

BAC[i]~dnorm(mu[i],tau)

mu[i]<-beta0+beta1*Beers[i]

}

tau~dgamma(0.01,0.01)



beta0~dnorm(0,0.01)

beta1~dnorm(0,0.01)

}
#Data
list(n=16,Beers=c(5,2,9,8,3,7,3,5,3,5,4,6,5,7,1,4),BAC=c(0.10,0.03,0.19,0.12,0.04,0.095,0.07,0.06,0.032,0.05,0.07,0.10,0.085,0.09,0.01,0.05))
#Initial values
list(tau=1,beta0=0,beta1=1)

WinBUGS OUTPUT:

model is syntactically correct

data loaded

model compiled

model is initialized


Time series


Kernel density




Node statistics



node mean sd MC error 2.5% median 97.5% start sample

beta0 -0.01034 0.03175 4.446E-4 -0.06617 -0.01008 0.04551 1 5000

beta1 0.0176 0.005977 9.055E-5 0.007173 0.01752 0.0283 1 5000

tau 551.6 205.4 3.547 220.5 526.0 1025.0 1 5000


----------------------------------------------------------------------------------------------------------------------
Zonder initial values:

# Model
model{

for(i in 1:n){

BAC[i]~dnorm(mu[i],tau)

mu[i]<-beta0+beta1*Beers[i]

}

tau~dgamma(0.01,0.01)



beta0~dnorm(0,0.01)

beta1~dnorm(0,0.01)

}
# Data
list(n=16,Beers=c(5,2,9,8,3,7,3,5,3,5,4,6,5,7,1,4),BAC=c(0.10,0.03,0.19,0.12,0.04,0.095,0.07,0.06,0.032,0.05,0.07,0.10,0.085,0.09,0.01,0.05))

WinBUGS OUTPUT:

model is syntactically correct

data loaded

model compiled

initial values generated, model initialized


Time series

model is syntactically correct

data loaded

model compiled



initial values generated, model initialized
Time series
Kernel density


Node statistics



node mean sd MC error 2.5% median 97.5% start sample

beta0 -0.008422 0.2774 0.001836 -0.06626 -0.01008 0.04554 1 5000

beta1 0.01043 0.4364 0.007156 0.007127 0.01751 0.02825 1 5000

tau 551.2 205.7 3.646 220.4 525.8 1025.0 1 5000


---------------------------------------------------------------------------------------------------------------------
Voorbeeld (3): Uitgever met Gamma-Poisson:

model{


for (i in 1:25)

{

y[i]~dpois(m)



}

m~dgamma(0.02,0.01)

}
list(y=c(15,11,10,14,13,9,4,9,6,7,9,7,13,9,11,16,12,15,13,14,16,11,10,9,8))
list(m=5)

WinBUGS-OUTPUT:


model is syntactically correct

data loaded

model compiled

model is initialized







Node statistics
1   ...   7   8   9   10   11   12   13   14   ...   25

  • node mean sd MC error 2.5% median 97.5% start sample

  • Dovnload 2 Mb.