En binär valmodell utgår från en latent variabel Un, den nytta (eller nettonytta) som person n får av att vidta en åtgärd (jämfört med att inte vidta åtgärden). Nyttan som personen får genom att vidta åtgärden beror på personens egenskaper, varav en del observeras av forskaren och en del inte:

U n = β ⋅ s n + ε n {\displaystyle U_{n}={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} +\varepsilon _{n}}}

U_{n}={\boldsymbol \beta }\cdot {\mathbf {s_{n}}}+\varepsilon _{n}

varvid β {\displaystyle {\boldsymbol {\beta }}}

{\boldsymbol {\beta }}

är en uppsättning regressionskoefficienter och s n {\displaystyle \mathbf {s_{n}} }

{\mathbf {s_{n}}}

är en uppsättning oberoende variabler (även kallade ”egenskaper”) som beskriver person n, vilka kan vara antingen diskreta ”dummy-variabler” eller vanliga kontinuerliga variabler. ε n {\displaystyle \varepsilon _{n}}

\varepsilon _{n}

är en slumpmässig variabel som anger ”brus” eller ”fel” i förutsägelsen och som antas vara fördelad enligt någon fördelning. Om det finns en medelvärde- eller variansparameter i fördelningen kan den normalt inte identifieras, så parametrarna sätts till bekväma värden – enligt konvention vanligen medelvärde 0, varians 1.

Personen vidtar åtgärden, yn = 1, om Un > 0. Den icke-observerade termen, εn, antas ha en logistisk fördelning.

Specifikationen skrivs kortfattat som:

    • Un = βsn + εn
    • Y n = { 1 , om U n > 0 , 0 , om U n ≤ 0 {\displaystyle Y_{n}={\begin{cases}1,&{\text{if }}U_{n}>0,\\0,&{\text{if }}U_{n}\leq 0\end{cases}}}
      Y_{n}={\begin{cases}1,&{\text{if }}U_{n}0,\\0,&{\text{if }}U_{n}\leq 0\end{cases}}
    • ε ∼ logistisk, standardnormal, etc.

Låt oss skriva det lite annorlunda:

    • Un = βsn – en
    • Y n = { 1 , om U n > 0 , 0 , om U n ≤ 0 {\displaystyle Y_{n}={\begin{cases}1,&{\text{if }}U_{n}>0,\\0,&{\text{if }}U_{n}\leq 0\end{cases}}}
      Y_{n}={\begin{cases}1,&{\text{if }}U_{n}0,\\0,&{\text{if }}U_{n}\leq 0\end{cases}}
    • e ∼ logistik, standardnormal osv.

Här har vi gjort utbytet en = -εn. Detta ändrar en slumpvariabel till en något annorlunda variabel, definierad över en negerad domän. Som synes är de felfördelningar som vi vanligtvis betraktar (t.ex. logistisk fördelning, standardnormalfördelning, studentens t-fördelning etc.) symmetriska kring 0, och därmed är fördelningen över en identisk med fördelningen över εn.

Anteckna den kumulativa fördelningsfunktionen (CDF) för e {\displaystyle e}.

e

som F e , {\displaystyle F_{e},}

F_{e},

och kvantilfunktionen (omvänd CDF) för e {\displaystyle e}

e

som F e – 1 . {\displaystyle F_{e}^{-1}.}

F_{e}^{{-1}}.

Observera att

Pr ( Y n = 1 ) = Pr ( U n > 0 ) = Pr ( β ⋅ s n – e n > 0 ) = Pr ( – e n > – β ⋅ s n ) = Pr ( e n ≤ β ⋅ s n ) = F e ( β ⋅ s n ) {\displaystyle {\begin{aligned}\Pr(Y_{n}=1)&=\Pr(U_{n}>0)\\&=\Pr({\boldsymbol {\beta }}\cdot \mathbf {s_{n}}} -e_{n}>0)\\&=\Pr(-e_{n}>-{\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )\\&=\Pr(e_{n}\leq {\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )\\&=F_{e}({\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )\end{aligned}}}

{\begin{aligned}\Pr(Y_{n}=1)=\Pr(U_{n}0)\\=\Pr({\boldsymbol \beta }\cdot {\mathbf {s_{n}}}-e_{n}0)\\=\Pr(-e_{n}-{\boldsymbol \beta }\cdot {\mathbf {s_{n}}})\\=\Pr(e_{n}\leq {\boldsymbol \beta }\cdot {\mathbf {s_{n}}})\\=F_{e}({\boldsymbol \beta }\cdot {\mathbf {s_{n}}})\end{aligned}}}

Då Y n {\displaystyle Y_{n}}

Y_{n}

är ett Bernoulliförsök, där E = Pr ( Y n = 1 ) , {\displaystyle \mathbb {E} =\Pr(Y_{n}=1),}

{\mathbb {E}}=\Pr(Y_{n}=1),

har vi E = F e ( β ⋅ s n ) {\displaystyle \mathbb {E} =F_{e}({\boldsymbol {\beta }}\cdot \mathbf {s_{n}} )}

{\mathbb {E}}=F_{e}({\boldsymbol \beta }\cdot {\mathbf {s_{n}}}})

eller på motsvarande sätt

F e – 1 ( E ) = β ⋅ s n . {\displaystyle F_{e}^{-1}(\mathbb {E} )={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} .}

F_{e}^{{{-1}}}({\mathbb {E}})={\boldsymbol \beta }\cdot {\mathbf {s_{n}}}.

Bemärk att detta är exakt likvärdigt med den binomiala regressionsmodellen uttryckt i formalismen för den generaliserade linjära modellen.

Om e n ∼ N ( 0 , 1 ) , {\displaystyle e_{n}\sim {\mathcal {N}}(0,1),}

e_{n}\sim {\mathcal {N}}(0,1),

dvs. fördelas som en standard normalfördelning, då Φ – 1 ( E ) = β ⋅ s n {\displaystyle \Phi ^{-1}(\mathbb {E}} )={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} }

\Phi ^{{{-1}}({\mathbb {E}})={\boldsymbol \beta }\cdot {\mathbf {s_{n}}}

vilket är exakt en probit-modell.

Om e n ∼ Logistic ( 0 , 1 ) , {\displaystyle e_{n}\sim \operatorname {Logistic} (0,1),}

e_{n}\sim \operatorname {Logistic}(0,1),

d.v.s. fördelas som en standardlogistisk fördelning med medelvärde 0 och skalparameter 1, så är motsvarande kvantilfunktion logitfunktionen, och logit ( E ) = β ⋅ s n {\displaystyle \operatorname {logit} (\mathbb {E} )={\boldsymbol {\beta }}\cdot \mathbf {s_{n}} }

\operatorname {logit}({\mathbb {E}})={\boldsymbol \beta }\cdot {\mathbf {s_{n}}}}

vilket är exakt en logitmodell.

Bemärk att de två olika formalismerna – generaliserade linjära modeller (GLM) och diskreta valmodeller – är likvärdiga när det gäller enkla binära valmodeller, men kan utvidgas på olika sätt:

  • GLM kan lätt hantera godtyckligt fördelade svarsvariabler (beroende variabler), inte bara kategoriska variabler eller ordningsvariabler, som diskreta valmodeller av naturliga skäl är begränsade till. GLM är inte heller begränsade till länkfunktioner som är kvantifunktioner av någon fördelning, till skillnad från användningen av en felvariabel, som av naturliga skäl måste ha en sannolikhetsfördelning.
  • Å andra sidan, eftersom diskreta valmodeller beskrivs som typer av generativa modeller, är det begreppsmässigt lättare att utvidga dem till komplicerade situationer med flera, möjligen korrelerade, val för varje person, eller andra variationer.

Lämna ett svar

Din e-postadress kommer inte publiceras.