Mínimos cadrados: Diferenzas entre revisións

Contido eliminado Contido engadido
Sen resumo de edición
 
Sen resumo de edición
Liña 31:
:<math>f(x_i) = y_i + \varepsilon_i,</math>
 
onde o termo de ruido &epsilon; é unha [[variable aleatoria]] con media cero. Téñase en conta que estamos asumindo que os valores <math>x</math> son exactos, e que todo o error está nos valores <math>y</math>. De novo, distinguimos entre [[regresión lineal]], que en tal caso a función ''f'' é lineal nos parámetros a ser determinados (p.e., ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c''), e [[regresión non lineal]]. Como antes, a regresión lineal é moito máis facifacil que a non lineal. (Téndese a pensar que a razón do nome ''regresión lineal'' é que o gráfico da función ''f''(''x'') = ''ax'' + ''b'' é unha línea. Axustar unha curva ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c'', estimando ''a'', ''b'', e ''c'' mediante mínimos cadrados, é un tipo de regresión ''lineal'' porque o vector de estimacións por mínimos cadrados de ''a'', ''b'', e ''c'' é unha [[transformación lineal]] do vector cos seguintes compoñentes
''f''(''x''<sub>''i''</sub>)&nbsp;+&nbsp;&epsilon;<sub>''i''</sub>.)