Abrir o menú principal

Cambios

m
bot Modificado: af:Kleinstekwadratemetode; cambios estética
 
 
== Formulación do problema ==
 
Supóñase que o conxunto de datos consite nos puntos (''x''<sub>''i''</sub>, ''y''<sub>''i''</sub>) con ''i'' = 1, 2, ..., ''n''. Queremos obter unha función ''f'' tal que
Isto explica o nome ''mínimos cadrados''.
 
== Resolvendo o problema dos mínimos cadrados ==
 
No exemplo anterior, ''f'' é [[función lineal|lineal]] nos parámetros ''a'', ''b'' e ''c''. O problema simplifícase considerablemente neste caso e esencialmente redúcese a un [[sistema lineal de ecuacións]]. Isto explícase no artigo sobre os [[mínimos cadrados lineais]].
O problema é moito máis dificil se ''f'' nón é lineal nos parámetros. Entón temos que resolver un problema xeral (non condicionado) de [[optimización]]. Calquer algoritmo para ditos problemas, como o [[Método de Newton]] e [[gradente descendente]], pode ser usado. Outra posibilidade e aplicar un algoritmo que sexa desenrolado especificamente para tratar problemas de mínimos cadrados, por exemplo o [[Algoritmo Gauss-Newton]] ou o [[Algoritmo Levenberg-Marquardt]].
 
== Mínimos cadrados e análise de regresión ==
 
Na [[análise de regresión]], reemplazamos a relación
:<math>f(x_i) = y_i + \varepsilon_i,</math>
 
onde o termo de ruido &epsilon;ε é unha [[variable aleatoria]] con media cero. Téñase en conta que estamos asumindo que os valores <math>x</math> son exactos, e que todo o error está nos valores <math>y</math>. De novo, distinguimos entre [[regresión lineal]], que en tal caso a función ''f'' é lineal nos parámetros a ser determinados (p.e., ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c''), e [[regresión non lineal]]. Como antes, a regresión lineal é moito máis facil que a non lineal. (Téndese a pensar que a razón do nome ''regresión lineal'' é que o gráfico da función ''f''(''x'') = ''ax'' + ''b'' é unha línea. Axustar unha curva ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c'', estimando ''a'', ''b'', e ''c'' mediante mínimos cadrados, é un tipo de regresión ''lineal'' porque o vector de estimacións por mínimos cadrados de ''a'', ''b'', e ''c'' é unha [[transformación lineal]] do vector cos seguintes compoñentes
''f''(''x''<sub>''i''</sub>)&nbsp;+&nbsp;&epsilon;ε<sub>''i''</sub>.)
 
Os valores estimados por mínimos cadrados minimizan ''S''. O [[Teorema Gauss-Markov]] demostra que as estimacións de mínimos cadrados son óptimas se collemos ''f''(''x'') = ''ax'' + ''b'' sendo ''a'' e ''b'' os parámetros a determinar e os termos de ruido &epsilon;ε son independentes e identicamente distribuidos.
 
== Véxase tamén ==
 
* [[regresión lineal]]
* [[análise de regresión]]
 
[[Categoría:Optimización]][[Categoría:Estatística]]
[[Categoría:Estatística]]
 
{{Link FA|de}}
 
[[af:Kleinste-kwadratemetodeKleinstekwadratemetode]]
[[ca:Mínims quadrats ordinaris]]
[[cs:Metoda nejmenších čtverců]]
75.993

edicións