Un modelo de elección binaria supone una variable latente Un, la utilidad (o beneficio neto) que la persona n obtiene al realizar una acción (frente a no realizarla). La utilidad que la persona obtiene al realizar la acción depende de las características de la persona, algunas de las cuales son observadas por el investigador y otras no:

U n = β ⋅ s n + ε n {\displaystyle U_{n}={símbolo de negrita {\beta }}\cdot \mathbf {s_{n}} +\Nvarepsilon _{n}}

U_{n}={símbolo de negrilla} {{mathbf {s_{n}}+{varepsilon _{n}}

donde β {{displaystyle} {{símbolo de negrilla}}

 {símbolo de negrita {beta}

es un conjunto de coeficientes de regresión y s n {{displaystyle \mathbf {s_{n}} }

 {\mathbf {s_{n}}

es un conjunto de variables independientes (también conocidas como «características») que describen a la persona n, que pueden ser «variables ficticias» discretas o variables continuas regulares. ε n {\displaystyle \varepsilon _{n}}

\varepsilon _{n}

es una variable aleatoria que especifica el «ruido» o el «error» en la predicción, y se supone que se distribuye según alguna distribución. Normalmente, si hay un parámetro de media o varianza en la distribución, no se puede identificar, por lo que los parámetros se fijan en valores convenientes – por convención normalmente media 0, varianza 1.

La persona toma la acción, yn = 1, si Un > 0. Se supone que el término no observado, εn, tiene una distribución logística.

La especificación se escribe sucintamente como:

    • Un = βsn + εn
    • Y n = { 1 , si U n > 0 , 0 , si U n ≤ 0 {\displaystyle Y_{n}={comenzar{casos}1,&{texto{si}U_{n}>0,\\\i}0,&{texto{si}U_{n}leq 0{finalizar{casos}}
      Y_{n}={comenzar}1,&{texto{si}U_{n}0,&{texto{si}U_{n}leq 0{final}}
    • ε ∼ logístico, normal estándar, etc.

Escribámoslo de forma ligeramente diferente:

    • Un = βsn – en
    • Y n = { 1 , si U n > 0 , 0 , si U n ≤ 0 {\displaystyle Y_{n}={comenzar{casos}1,&{texto{si}U_{n}>0,\\\N0,&{texto{si}U_{n}leq 0{fin{casos}}
      Y_{n}={comenzar}1,&{texto{si}U_{n}0,&{texto{si}U_{n}leq 0{final}}
    • e ∼ logístico, normal estándar, etc.

Aquí hemos hecho la sustitución en = -εn. Esto cambia una variable aleatoria por otra ligeramente diferente, definida sobre un dominio negado. Resulta que las distribuciones de error que solemos considerar (por ejemplo, la distribución logística, la distribución normal estándar, la distribución t de Student estándar, etc.) son simétricas con respecto a 0 y, por tanto, la distribución sobre en es idéntica a la distribución sobre εn.

Denotemos la función de distribución acumulativa (FDC) de e {\displaystyle e}

e

como F e , {\displaystyle F_{e},}

F_{e},

y la función cuantil (CDF inversa) de e {\displaystyle e}

e

como F e – 1 . {\displaystyle F_{e}^{-1}.}

F_{e}^{{-1}}.

Nótese que

Pr ( Y n = 1 ) = Pr ( U n > 0 ) = Pr ( β ⋅ s n – e n > 0 ) = Pr ( – e n > – β ⋅ s n ) = Pr ( e n ≤ β ⋅ s n ) = F e ( β ⋅ s n ) {\displaystyle {\begin{aligned}=Pr(Y_{n}=1)&=Pr(U_{n}>0)\2808>=Pr({\boldsymbol {\beta }}\cdot \mathbf {s_{n}} -e_{n}>0)\\&=\Pr(-e_{n}>-{)=Pr(e_{n}leq {\boldsymbol {\beta }}cdot \mathbf {s_{n}} )=F_{e}({\boldsymbol {\beta }}cdot \mathbf {s_{n}})|fin{aligned}}.

{\begin{aligned}\Pr(Y_{n}=1)=\Pr(U_{n}0)\\=\Pr({\boldsymbol \beta }\cdot {\mathbf {s_{n}}}-e_{n}0)\\=\Pr(-e_{n}-{= Pr(e_{n}leq {\boldsymbol \beta }\cdot {\mathbf {s_{n}}) {= F_{e}({\boldsymbol \beta }\cdot {\mathbf {s_{n}})|end{aligned}}

Dado que Y n {{displaystyle Y_{n}}

Y_{n}

es un ensayo Bernoulli, donde E = Pr ( Y n = 1 ) , {\displaystyle \mathbb {E} =\Pr(Y_{n}=1),

{mathbb {E}}=Pr(Y_{n}=1),

tenemos que E = F e ( β ⋅ s n ) {\displaystyle \mathbb {E} =F_{e}({\boldsymbol {\beta }}cdot \mathbf {s_{n}} )}

{mathbb {E}}=F_{e}({\boldsymbol \beta }\cdot {\mathbf {s_{n}})

o de forma equivalente F e – 1 ( E ) = β ⋅ s n . {\displaystyle F_{e}^{-1}(\mathbb {E} )={símbolo de negrita} {\beta} {\cdot \mathbf {s_{n}} .}

F_{e}^{1}({\mathbb {E}})={{símbolo de boldes \beta} {\cdot {\mathbf {s_{n}}.

Nótese que esto es exactamente equivalente al modelo de regresión binomial expresado en el formalismo del modelo lineal generalizado.

Si e n ∼ N ( 0 , 1 ) , {\displaystyle e_{n}\sim {\mathcal {N}(0,1),}

e_{n}\sim {\mathcal {N}(0,1),

es decir. distribuido como una distribución normal estándar, entonces Φ – 1 ( E ) = β ⋅ s n {\displaystyle \Phi ^{-1}(\mathbb {E} )={boldsymbol {\beta }}\cdot \mathbf {s_{n}} }

Phi ^{-1}}({\mathbb {E}})={símbolo de boldes \beta} {\cdot {\mathbf {s_{n}}

que es exactamente un modelo probit.

Si e n ∼ Logistic ( 0 , 1 ) , {\displaystyle e_{n} {sim \catorname {Logistic} (0,1),}

e_{n} {sim \operatorname {Logistic}(0,1),

es decir, se distribuye como una distribución logística estándar con media 0 y parámetro de escala 1, entonces la función cuantil correspondiente es la función logit, y logit ( E ) = β ⋅ s n {\displaystyle \operatorname {logit} (\mathbb {E} )= {\boldsymbol {\beta }}\cdot \mathbf {s_{n}} }

 {operatorname {logit}({\mathbb {E}})={símbolo de boldes \beta }\cdot {\mathbf {s_{n}}

que es exactamente un modelo logit.

Nótese que los dos formalismos diferentes -los modelos lineales generalizados (GLM) y los modelos de elección discreta- son equivalentes en el caso de los modelos de elección binaria simples, pero pueden ampliarse de diferentes maneras:

  • Los GLM pueden manejar fácilmente variables de respuesta distribuidas arbitrariamente (variables dependientes), no sólo variables categóricas o variables ordinales, a las que los modelos de elección discreta están limitados por su naturaleza. Los GLM tampoco están limitados a funciones de enlace que sean funciones cuantílicas de alguna distribución, a diferencia del uso de una variable de error, que debe tener, por supuesto, una distribución de probabilidad.
  • Por otra parte, dado que los modelos de elección discreta se describen como tipos de modelos generativos, es conceptualmente más fácil extenderlos a situaciones complicadas con múltiples elecciones, posiblemente correlacionadas, para cada persona, u otras variaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.