Optimización matemática: Diferenzas entre revisións
Contido eliminado Contido engadido
En uso |
Arranxos |
||
Liña 1:
{{enuso}}
[[Ficheiro:MaximumParaboloid.png|miniatura|
En [[matemáticas]], [[estatística]], [[Método empírico-analítico|ciencias empíricas]], [[Ciencias da computación|ciencia da computación]], ou [[economía]], a '''optimización matemática''' (ou ben, '''optimización''' ou '''programación matemática''') é a selección do mellor elemento (con respecto a algún criterio) dun conxunto de elementos dispoñibles.<ref>"[http://web.archive.org/web/http://glossary.computing.society.informs.org/index.php?page=nature.html The Nature of Mathematical Programming]," ''Mathematical Programming Glossary'', INFORMS Computing Society.</ref>
No caso máis simple, un [[problema de optimización]] consiste en [[Extremos dunha función|maximizar ou minimizar]] unha [[función]] real escollendo sistematicamente [[Magnitude matemática|valores]] de entrada (tomados dun conxunto permitido) e computando o valor da función. A xeneralización da teoría da optimización e das técnicas para outras formulacións comprende unha grande área
== Problemas de optimización ==
Liña 11:
Esta formulación chámase problema de optimización ou problema de programación matemática (un termo non directamente relacionado coa [[Linguaxe de programación|programación de computadoras]] pero aínda en uso, por exemplo na [[programación linear]]). Moitos problemas teóricos e do mundo real poden ser modelados mediante este esquema xeral. Problemas formulados usando esta técnica nos campos da [[física]] e visión por computadora refírense á técnica como minimización da enerxía, falando do valor da función f representando a enerxía do [[sistema]] que está a ser [[Modelo matemático|modelado]].
Tipicamente, ''A'' é algún [[
A función ''f'' chámase
Por convenio, o formato estándar dun problema de optimización realízase en termos de minimización. Xeralmente, a menos que ambas, a función obxectivo e a rexión factible sexan convexas nun problema de minimización, pode haber varios mínimos locais, onde un mínimo local x* se
a expresión
Liña 21:
é verdadeira; é dicir, nalgunha rexión ao redor de x* todos os valores da función son maiores ou iguais que o valor nese punto. O máximo local defínese de modo similar.
Un gran número de algoritmos propostos para resolver problemas non convexos, incluíndo a maioría dos solucionadores dispoñibles comercialmente, non son capaces de facer unha distinción entre solucións óptimas locais e solucións óptimas rigorosas, e tratan as primeiras como solucións actuais do problema orixinal. A rama das [[
== Notación ==
Liña 75:
{\displaystyle (-\infty ,-<math />]}
que minimiza (ou minimizan) a función obxectivo
De modo similar,
Liña 107:
{\displaystyle [-5,5]}
(novamente, o valor máximo da función non importa).
== Historia ==
[[Pierre de Fermat]] e [[Joseph Louis Lagrange]] atoparon fórmulas baseadas no cálculo para identificar valores óptimos, mentres que [[Isaac Newton]] e [[Carl Friedrich Gauss]] propuxeron métodos iterativos para aproximar o óptimo. Historicamente, o termo [[programación linear]] para referirse a certos problemas de optimización débese a [[George B. Dantzig]], aínda que gran parte da teoría fora introducida por [[Leonid Kantorovich]] en 1939. Dantzig publicou o [[
== Subcampos principais ==
Liña 132 ⟶ 128:
* ''Optimización dimensional-infinita'': estuda o caso onde o conxunto de solucións factibles é un subconjunto dun espazo de [[dimensión]] infinita, por exemplo un espazo de funcións.
* ''Heurísticas'' e ''metaheurísticas'': fan suposicións sobre o problema que está a ser optimizado. Usualmente, as heurísticas non garanten que se atope calquera solución óptima. Por iso as heurísticas son empregadas para atopar solucións aproximadas para moitos problemas de optimización complicados.
* ''Satisfacción de restrición'': estuda o caso no cal a función obxectivo f é constante (esta se emprega en [[intelixencia artificial]], particularmente en [[
* ''Programación disxuntiva'': úsase cando polo menos unha restrición pode ser satisfeita pero non todas. Esta é de uso particular na programación nun número de subcampos. As técnicas son deseñadas principalmente para a optimización en contextos dinámicos (é dicir, toma de decisións co transcurso do tempo).
* ''[[
* ''[[Programación dinámica (computación)|Programación dinámica]]'' estuda o caso no que a estratexia de optimización baséase na división do problema en subproblemas máis pequenos. A ecuación que describe a relación entre estes subproblemas chámase ecuación de Bellman.
* ''Programación matemática con restricións de equilibrio'' é onde as restricións inclúen desigualdades variables ou complementarias.
== Clasificación de puntos críticos e extremos ==
=== Factibilidade do problema ===
A solubilidade do problema, tamén chamada factibilidade do problema, é a cuestión de se existe algunha solución factible, á marxe do seu valor obxectivo. Este pode considerarse como o caso especial da optimización matemática onde o valor obxectivo é o mesmo para toda solución, e así calquera solución é óptima.
Liña 149 ⟶ 144:
=== Condicións necesarias de optimalidade ===
Un dos teoremas de Fermat asegura que os óptimos dos problemas sen restricións se atopan nos [[puntos estacionarios]], onde a primeira [[derivada]] da función obxectivo é cero (ou o seu [[gradiente]] nulo). De forma máis xeral, tamén poden atoparse nos puntos críticos onde a primeira derivada ou o gradiente da función obxectivo non está definido, ou na [[
Os óptimos dos problemas con restricións de desigualdade atópanse en cambio mediante o método dos [[
=== Condicións suficientes de optimalidade ===
Mentres a proba da primeira derivada identifica os puntos que poden ser extremos, esta proba non distingue se un punto é mínimo, máximo ou ningún dos dous. Cando a función obxectivo é dúas veces diferenciable, estes casos poden distinguirse estudando a segunda derivada ou a matriz das segundas derivadas (chamada [[matriz hessiana]]), en problemas sen restricións, ou a matriz das segundas derivadas da función obxectivo e das restricións chamada a matriz hessiana orlada, en problemas con restricións.
As condicións que distinguen os máximos ou mínimos doutros puntos estacionarios chámanse condicións de segunda orde
=== Sensibilidade e continuidade do óptimo ===
Liña 166 ⟶ 161:
Para os problemas sen restricións con funcións dúas veces diferenciables, algúns [[Punto crítico (matemáticas)|puntos críticos]] poden ser atopados detectando os puntos onde o [[gradiente]] da función obxectivo é cero (é dicir, os puntos estacionarios). De forma máis xeral, un subgradiente cero certifica que un mínimo local foi atopado para os problemas de minimización con funcións convexas ou outras [[Función lipschitziana|funcións de Lipschitz]].
Ademais, os puntos críticos poden ser clasificados usando a definitude da [[
Os problemas con restricións poden con frecuencia ser transformados en problemas sen elas con axuda dos multiplicadores de Lagrange. A relaxación lagrangiana pode tamén prover solucións aproximadas a problemas difíciles con restricións.
Liña 173 ⟶ 168:
== Técnicas de optimización computacional ==
Para resolver problemas, os investigadores poden usar [[
=== Algoritmos de optimización ===
Liña 182 ⟶ 177:
=== Métodos iterativos ===
Os [[métodos iterativos]] usados para resolver problemas de [[programación non linear]] difiren segundo o que avalíen: hessianas, gradientes, ou soamente valores de función. Mentres que avaliando hessianas (H) e gradientes (G) mellórase a velocidade de converxencia, tales avaliacións aumentan a [[
=== Métodos heurísticas ===
Ademais dos [[
* [[Evolución diferencial]].
* Algoritmo de procura diferencial.
Liña 192 ⟶ 187:
* Ascenso de montañas.
* [[Método Nelder-Mead|Nelder-Mead]]: un método popular para aproximar a minimización sen chamadas a gradientes.
* [[
* Optimización artificial da colonia de abellas.
* [[Optimización multiobjetivo|Optimización multiobxectivo]].▼
* [[Eficiencia de Pareto]].▼
== Notas ==
{{listaref}}
==
=== Outros artigos ===
* COIN-OR—Computational Infrastructure for Operations Research▼
▲* [[Eficiencia de Pareto]].
=== Ligazóns externas ===
▲* [http://www.coin-or.org/ COIN-
* [http://plato.asu.edu/guide.html Decision Tree for Optimization Software] Links to optimization source codes
* [http://www.mat.univie.ac.at/%7Eneum/glopt.html Global optimization]
Liña 214 ⟶ 208:
* [http://web.archive.org/web/http://see.stanford.edu/see/courseinfo.aspx?coll=2db7ced4-39d1-4fdb-90e8-364129597c87 Convex Optimization I] EE364a: Course from Stanford University
* [http://www.stanford.edu/~boyd/cvxbook Convex Optimization – Boyd and Vandenberghe] Book on Convex Optimization
{{Control de autoridades}}
[[Categoría:Optimización]]
|