Máxima verosimilitude: Diferenzas entre revisións

Contido eliminado Contido engadido
Jglamela (conversa | contribucións)
En uso
Jglamela (conversa | contribucións)
→‎Fundamento: Arranxos
Liña 7:
 
== Fundamento ==
Supóñase que se ten unha mostra x1''x''<sub>1</sub>, x2''x''<sub>2</sub>, …, xn''x''<sub>''n''</sub> de ''n'' observacións [[Variables aleatorias independientes e idénticamente distribuidas|independentes e identicamente distribuídas]] extraídas dunha [[función de distribución]] descoñecida con [[función de densidade]] (ou función de probabilidade) f0''f''<sub>0</sub>(·). Sábese, con todo, que f0''f''<sub>0</sub> pertence a unha familia de distribucións { f(·{nowrap|θ), { ''f''(·|{{!}}''θ''), ''θ'' ∈ Θ  ∈  }}}, chamada [[modelo paramétrico]], de maneira que f0''f''<sub>0</sub> corresponde a {{nowrap|1=''θ'' = θ0''θ''<sub>0</sub>}}, que é o ''verdadeiro valor'' do parámetro. Deséxase atopar o valor <math style="vertical-align:0">\scriptstyle\hat\theta</math> (ou ''estimador'') que estea o máis próximo posible ao verdadeiro valor ''θ''<sub>0</sub>.
<math />
^
{\displaystyle \scriptstyle {\hat {\theta }}}
(ou ''estimador'') que estea o máis próximo posible ao verdadeiro valor θ0.<math />
 
Tanto xi''x''<sub>''i''</sub> como ''θ'' poden ser vectores.
 
A idea deste método é a de atopar primeiro a función de densidade conxunta de todas as observacións, que baixo condicións de independencia, é
: <math />
 
f(x_1,x_2,\ldots,x_n\;|\;\theta) = f(x_1|\theta)\cdot f(x_2|\theta)\cdots f(x_n|\theta)\,
Observando esta función baixo un ángulo lixeiramente distinto, pódese supor que os valores observados x1, x2, …, xn son fixos mentres que ''θ'' pode variar libremente. Esta é a función de verosimilitude:
<math /math>
Observando esta función baixo un ángulo lixeiramente distinto, pódese supor que os valores observados x1''x''<sub>1</sub>, x2''x''<sub>2</sub>, …, xn''x''<sub>''n''</sub> son fixos mentres que ''θ'' pode variar libremente. Esta é a función de verosimilitude:
: <math />
\mathcal{L}(\theta\,|\,x_1,\ldots,x_n) = \prod_{i=1}^n f(x_i|\theta).
</math>
 
Na práctica, adóitase utilizar o logaritmo desta función:
: <math>
\hat\ell(\theta\,|\,x_1,\ldots,x_n) = \ln\mathcal{L} = \sum_{i=1}^n \ln f(x_i|\theta).
</math>
 
O método da '''máxima verosimilitudverosimilitude estima ''θ' estima θ0'<sub>0</sub> buscando o valor de ''θ'' que maximiza <math style="vertical-align:-.32em">\scriptstyle\hat\ell(\theta|x)</math>. Este é o chamado '''estimador de máxima verosimilitude''' ('''MLE''') de ''θ''<sub>0</sub>:
: <math>
\hat\theta_\mathrm{mle} = \underset{\theta\in\Theta}{\operatorname{arg\,max}}\ \hat\ell(\theta\,|\,x_1,\ldots,x_n).
<math />
</math>
^
(
θ
<math />
x
)
{\displaystyle \scriptstyle {\hat {\ell }}(\theta |x)}
.<math /> Este é o chamado '''estimador de máxima verosimilitud''' ('''MLE''') de θ0:
 
En ocasións este estimador é unha función explícita dos datos observados x1''x''<sub>1</sub>, …, xn''x''<sub>''n''</sub>, pero moitas veces hai que recorrer a optimizacións numéricas. Tamén pode ocorrer que o máximo non sexa único ou non exista.
 
Na exposición anterior asumiuse a independencia das observacións, pero non é un requisito necesario: abonda con poder construír a función de probabilidade conxunta dos datos para poder aplicar o método. Un contexto no que isto é habitual é o da análise de [[Serie temporal|series temporais]].