Abrir o menú principal

Cambios

ligazóns
Os '''mínimos cadrados''' é unha técnica [[matemática]] de [[optimización matemática|optimización]] que intenta encontrar o "mellor axuste" para un conxunto de datos mediante a minimización da suma dos cadrados das diferenzas ordinais (chamadas [[residuos]]) entre a [[axuste de funcións|función axustada]] e os datos.
 
Un requisito implícito do método dos mínimos cadrados para que funcione é que os erros en cada medida deben estar distribuídos aleatoriamente. O [[Teorema Gauss-Markov]] proba que os estimadores de mínimos cadrados son [[insesgado]]s e que os datos mostrais non teñen que seguir por exemplo unha [[distribución normal]]. É tamén importante que os datos recollidos estean ben escollidos, para permitir a visibilidade nas variables a resolver (dando maior peso a datos concretos, ver [[Mínimos cadrados ponderados]]).
No exemplo anterior, ''f'' é [[función lineal|lineal]] nos parámetros ''a'', ''b'' e ''c''. O problema simplifícase considerablemente neste caso e esencialmente redúcese a un [[sistema lineal de ecuacións]]. Isto explícase no artigo sobre os [[mínimos cadrados lineais]].
 
O problema é moito máis difícil se ''f'' nón é lineal nos parámetros. Entón temos que resolver un problema xeral (non condicionado) de [[optimización matemática|optimización]]. Calquera algoritmo para ditos problemas, como o [[Método de Newton]] e [[gradiente descendente]], pode ser usado. Outra posibilidade e aplicar un algoritmo que sexa desenvolvido especificamente para tratar problemas de mínimos cadrados, por exemplo o [[Algoritmo Gauss-Newton]] ou o [[Algoritmo Levenberg-Marquardt]].
 
== Mínimos cadrados e análise de regresión ==
28.839

edicións