Binomivalintamallissa oletetaan latentti muuttuja Un, hyöty (tai nettohyöty), jonka henkilö n saa ryhtymällä johonkin toimeen (vastakohtana sille, että ei ryhdy toimeen). Hyöty, jonka henkilö saa toimen suorittamisesta, riippuu henkilön ominaisuuksista, joista osaa tutkija havainnoi ja osaa ei:
U n = β ⋅ s n + ε n {\displaystyle U_{n}={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} +\varepsilon _{n}}
jossa β {\displaystyle {\boldsymbol {\beta }}}
on joukko regressiokertoimia ja s n {\displaystyle \mathbf {s_{n}}} }
on joukko henkilö n:ää kuvaavia riippumattomia muuttujia (joita kutsutaan myös ”ominaisuuksiksi”), jotka voivat olla joko diskreettejä ”dummy-muuttujia” tai säännöllisiä jatkuvia muuttujia. ε n {\displaystyle \varepsilon _{n}}
on satunnaismuuttuja, joka määrittää ennusteen ”kohinaa” tai ”virhettä” ja jonka oletetaan jakautuvan jonkin jakauman mukaisesti. Tavallisesti, jos jakaumassa on keskiarvo tai varianssiparametri, sitä ei voida tunnistaa, joten parametrit asetetaan sopiviin arvoihin – sopimuksen mukaan yleensä keskiarvo 0, varianssi 1.
Henkilö ryhtyy toimeen, yn = 1, jos Un > 0. Havaitsemattomalla termillä, εn, oletetaan olevan logistinen jakauma.
Espesifikaatio kirjoitetaan ytimekkäästi seuraavasti:
-
- Un = βsn + εn
- Y n = { 1 , jos U n > 0 , 0 , jos U n ≤ 0 {\displaystyle Y_{n}={\begin{cases}1,&{\text{if }}U_{n}>0,\\\0,&{\text{if }}U_{n}\leq 0\end{cases}}}}
- ε ∼ logistinen, standardinormaali jne.
Kirjoitetaan se hieman eri tavalla:
-
- Un = βsn – en
- Y n = { 1 , jos U n > 0 , 0 , jos U n ≤ 0 {\displaystyle Y_{n}={\begin{cases}1,&{\text{if }}U_{n}>0,\\\0,&{\text{if }}U_{n}\leq 0\end{cases}}}}
- e ∼ logistinen, standardinormaali jne.
Tässä olemme tehneet korvauksen en = -εn. Tämä muuttaa satunnaismuuttujan hieman erilaiseksi satunnaismuuttujaksi, joka on määritelty negaatioalueen yli. Sattumalta tavallisesti tarkastelemamme virhejakaumat (esim. logistinen jakauma, vakionormaalijakauma, vakio Studentin t-jakauma jne.) ovat symmetrisiä 0:n suhteen, ja näin ollen jakauma en:n yli on identtinen jakauman εn:n yli.
Merkitään e:n kumulatiivinen jakaumafunktio (cumulative distribution function, CDF) {\displaystyle e}
muodossa F e , {\displaystyle F_{e},}
ja e:n kvantiilifunktio (käänteinen CDF) {\displaystyle e}
kuin F e – 1 . {\displaystyle F_{e}^{-1}.}
Huomaa, että
Pr ( Y n = 1 ) = Pr ( U n > 0 ) = Pr ( β ⋅ s n – e n > 0 ) = Pr ( – e n > – β ⋅ s n ) = Pr ( e n ≤ β β ⋅ s n ) = F e ( β ⋅ s n ) {\displaystyle {\begin{aligned}\Pr(Y_{n}=1)&=\Pr(U_{n}>0)\\\&=\Pr({\boldsymbol {\beta }}\cdot \mathbf {s_{n}} -e_{n}>0)\\&=\Pr(-e_{n}>-{\\&=\Pr(e_{n}\leq {\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )\\\&=F_{e}({\boldsymbol {\beta }}\cdot \mathbf {s_{n}})\\\_end{aligned}}}}
Jos Y n {\displaystyle Y_{n}}}
on Bernoulli-kokeilu, jossa E = Pr ( Y n = 1 ) , {\displaystyle \mathbb {E} =\Pr(Y_{n}=1),}
meillä on E = F e ( β ⋅ s n ) {\displaystyle \mathbb {E} =F_{e}({\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )}
tai vastaavasti
F e – 1 ( E ) = β ⋅ s n . {\displaystyle F_{e}^{-1}(\mathbb {E} )={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} .}
Huomaa, että tämä vastaa täsmälleen binomista regressiomallia ilmaistuna yleistetyn lineaarisen mallin formalismilla.
Jos e n ∼ N ( 0 , 1 ) , {\displaystyle e_{n}\sim {\mathcal {N}}(0,1),}
ts. jakaantuu tavallisena normaalijakaumana, niin Φ – 1 ( E ) = β ⋅ s n {\displaystyle \Phi ^{-1}(\mathbb {E} )={\boldsymbol {\beta}}\cdot \mathbf {s_{n}} }
joka on täsmälleen probit-malli.
Jos e n ∼ Logistinen ( 0 , 1 ) , {\displaystyle e_{n} \sim \operaattorinnimi {Logistic}} (0,1),}
eli jakaantuu tavallisena logistisena jakaumana, jonka keskiarvo on 0 ja asteikkoparametri 1, niin vastaava kvantiilifunktio on logit-funktio, ja logit ( E ) = β ⋅ s n {\displaystyle \operatorname {logit} (\mathbb {E} )={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} }
joka on juuri logit-malli.
Huomaa, että kaksi eri formalismia – yleistetyt lineaariset mallit (GLM:t) ja diskreetit valintamallit – ovat ekvivalentteja yksinkertaisten binääristen valintamallien tapauksessa, mutta niitä voidaan laajentaa, jos eri tavoin:
- GLM:t pystyvät helposti käsittelemään mielivaltaisesti jakaantuneita vastemuuttujia (riippuvaisia muuttujia), eivät vain kategorisia muuttujia tai ordinaalisia muuttujia, joihin diskreetit valintamallit rajoittuvat luonteeltaan. GLM:t eivät myöskään rajoitu linkkifunktioihin, jotka ovat jonkin jakauman kvanttifunktioita, toisin kuin virhemuuttujan käyttö, jolla on oletuksen mukaan oltava todennäköisyysjakauma.
- Toisaalta, koska diskreettien valintojen mallit kuvataan eräänlaisina generatiivisina malleina, on käsitteellisesti helpompaa laajentaa niitä monimutkaisiin tilanteisiin, joissa on useita, mahdollisesti korreloivia valintoja kullekin henkilölle, tai muita variaatioita.