Optimización convexa

Subcampo de la optimización matemática

La optimización convexa es un subcampo de la optimización matemática que estudia el problema de minimizar funciones convexas sobre conjuntos convexos (o, equivalentemente, maximizar funciones cóncavas sobre conjuntos convexos). Muchas clases de problemas de optimización convexa admiten algoritmos de tiempo polinomial, [1] mientras que la optimización matemática es en general NP-hard . [2] [3] [4]

Definición

Forma abstracta

Un problema de optimización convexa se define mediante dos ingredientes: [5] [6]

  • La función objetivo , que es una función convexa de valor real de n variables, ; F : D R norte R {\displaystyle f:{\mathcal {D}}\subseteq \mathbb {R} ^{n}\to \mathbb {R} }
  • El conjunto factible , que es un subconjunto convexo . do R norte {\displaystyle C\subseteq \mathbb {R} ^{n}}

El objetivo del problema es encontrar algún logro. incógnita do {\displaystyle \mathbf {x^{\ast }} \en C}

información { F ( incógnita ) : incógnita do } {\displaystyle \inf\{f(\mathbf {x} ):\mathbf {x} \en C\}} .

En general, hay tres opciones respecto a la existencia de una solución: [7] : cap.4 

  • Si existe tal punto x *, se habla de punto óptimo o solución ; el conjunto de todos los puntos óptimos se denomina conjunto óptimo ; y el problema se denomina solucionable .
  • Si no tiene límites por debajo de , o no se alcanza el ínfimo, entonces se dice que el problema de optimización no tiene límites . F {\estilo de visualización f} do {\estilo de visualización C}
  • De lo contrario, si es el conjunto vacío, entonces se dice que el problema es inviable . do {\estilo de visualización C}

Formulario estándar

Un problema de optimización convexa está en forma estándar si se escribe como

minimizar incógnita F ( incógnita ) s b yo mi do a   a o gramo i ( incógnita ) 0 , i = 1 , , metro yo i ( incógnita ) = 0 , i = 1 , , pag , {\displaystyle {\begin{aligned}&{\underset {\mathbf {x} }{\operatorname {minimizar} }}&&f(\mathbf {x} )\\&\operatorname {sujeto\ a} &&g_{i}(\mathbf {x} )\leq 0,\quad i=1,\dots ,m\\&&&h_{i}(\mathbf {x} )=0,\quad i=1,\dots ,p,\end{aligned}}}

donde: [7] : cap.4 

  • incógnita R norte {\displaystyle \mathbf {x} \in \mathbb {R} ^{n}} es el vector de variables de optimización;
  • La función objetivo es una función convexa ; F : D R norte R {\displaystyle f:{\mathcal {D}}\subseteq \mathbb {R} ^{n}\to \mathbb {R} }
  • Las funciones de restricción de desigualdad , , son funciones convexas; gramo i : R norte R {\displaystyle g_{i}:\mathbb {R} ^{n}\to \mathbb {R} } i = 1 , , metro {\displaystyle i=1,\lpuntos ,m}
  • Las funciones de restricción de igualdad , , son transformaciones afines , es decir, de la forma: , donde es un vector y es un escalar. yo i : R norte R {\displaystyle h_{i}:\mathbb {R} ^{n}\to \mathbb {R} } i = 1 , , pag {\displaystyle i=1,\lpuntos ,p} yo i ( incógnita ) = a i incógnita b i {\displaystyle h_{i}(\mathbf {x} )=\mathbf {a_{i}} \cdot \mathbf {x} -b_{i}} a i {\displaystyle \mathbf {a_{i}}} b i Estilo de visualización b_{i}

El conjunto factible del problema de optimización está formado por todos los puntos que satisfacen las restricciones de desigualdad e igualdad. Este conjunto es convexo porque es convexo, los conjuntos de subniveles de funciones convexas son convexos, los conjuntos afines son convexos y la intersección de conjuntos convexos es convexa. [7] : cap.2  do {\estilo de visualización C} incógnita D {\displaystyle \mathbf {x} \in {\mathcal {D}}} D {\displaystyle {\mathcal {D}}}

Muchos problemas de optimización pueden formularse de forma equivalente en esta forma estándar. Por ejemplo, el problema de maximizar una función cóncava puede reformularse de forma equivalente como el problema de minimizar la función convexa . El problema de maximizar una función cóncava sobre un conjunto convexo se denomina comúnmente problema de optimización convexa. [8] f {\displaystyle f} f {\displaystyle -f}

Forma de epígrafe (forma estándar con objetivo lineal)

En la forma estándar es posible suponer, sin pérdida de generalidad, que la función objetivo f es una función lineal . Esto se debe a que cualquier programa con un objetivo general puede transformarse en un programa con un objetivo lineal añadiendo una única variable t y una única restricción , de la siguiente manera: [9] : 1.4 

minimize x , t t s u b j e c t   t o f ( x ) t 0 g i ( x ) 0 , i = 1 , , m h i ( x ) = 0 , i = 1 , , p , {\displaystyle {\begin{aligned}&{\underset {\mathbf {x} ,t}{\operatorname {minimize} }}&&t\\&\operatorname {subject\ to} &&f(\mathbf {x} )-t\leq 0\\&&&g_{i}(\mathbf {x} )\leq 0,\quad i=1,\dots ,m\\&&&h_{i}(\mathbf {x} )=0,\quad i=1,\dots ,p,\end{aligned}}}

Forma cónica

Todo programa convexo se puede presentar en forma cónica , lo que significa minimizar un objetivo lineal sobre la intersección de un plano afín y un cono convexo: [9] : 5.1 

minimize x c T x s u b j e c t   t o x ( b + L ) K {\displaystyle {\begin{aligned}&{\underset {\mathbf {x} }{\operatorname {minimize} }}&&c^{T}x\\&\operatorname {subject\ to} &&x\in (b+L)\cap K\end{aligned}}}

donde K es un cono convexo puntiagudo cerrado , L es un subespacio lineal de R n y b es un vector en R n . Un programa lineal en forma estándar en el caso especial en el que K es el ortante no negativo de R n .

Eliminación de restricciones de igualdad lineal

Es posible convertir un programa convexo en forma estándar, a un programa convexo sin restricciones de igualdad. [7] : 132  Denotemos las restricciones de igualdad h i ( x )=0 como Ax = b , donde A tiene n columnas. Si Ax = b es inviable, entonces por supuesto el problema original es inviable. De lo contrario, tiene alguna solución x 0 , y el conjunto de todas las soluciones puede presentarse como: Fz + x 0 , donde z está en R k , k = n -rank( A ), y F es una matriz n -por- k . Sustituyendo x = Fz + x 0 en el problema original obtenemos:

minimize x f ( F z + x 0 ) s u b j e c t   t o g i ( F z + x 0 ) 0 , i = 1 , , m {\displaystyle {\begin{aligned}&{\underset {\mathbf {x} }{\operatorname {minimize} }}&&f(\mathbf {F\mathbf {z} +\mathbf {x} _{0}} )\\&\operatorname {subject\ to} &&g_{i}(\mathbf {F\mathbf {z} +\mathbf {x} _{0}} )\leq 0,\quad i=1,\dots ,m\\\end{aligned}}}

donde las variables son z . Nótese que hay rank( A ) menos variables. Esto significa que, en principio, se puede restringir la atención a problemas de optimización convexa sin restricciones de igualdad. En la práctica, sin embargo, a menudo se prefiere conservar las restricciones de igualdad, ya que pueden hacer que algunos algoritmos sean más eficientes y también que el problema sea más fácil de entender y analizar.

Casos especiales

Las siguientes clases de problemas son todas problemas de optimización convexa, o pueden reducirse a problemas de optimización convexa mediante transformaciones simples: [7] : cap.4  [10]

Una jerarquía de problemas de optimización convexa. (LP: programación lineal , QP: programación cuadrática , SOCP: programa de cono de segundo orden , SDP: programación semidefinida , CP: optimización cónica ).

Otros casos especiales incluyen:

Propiedades

Las siguientes son propiedades útiles de los problemas de optimización convexa: [11] [7] : cap.4 

  • Cada mínimo local es un mínimo global ;
  • el conjunto óptimo es convexo;
  • Si la función objetivo es estrictamente convexa, entonces el problema tiene como máximo un punto óptimo.

Estos resultados son utilizados por la teoría de minimización convexa junto con nociones geométricas del análisis funcional (en espacios de Hilbert) como el teorema de proyección de Hilbert , el teorema del hiperplano separador y el lema de Farkas . [ cita requerida ]

Algoritmos

Problemas sin restricciones y con restricciones de igualdad

Los programas convexos más fáciles de resolver son los problemas sin restricciones , o los problemas con solo restricciones de igualdad. Como las restricciones de igualdad son todas lineales, se pueden eliminar con álgebra lineal e integrar en el objetivo, convirtiendo así un problema con restricciones de igualdad en uno sin restricciones.

En la clase de problemas sin restricciones (o con restricciones de igualdad), los más simples son aquellos en los que el objetivo es cuadrático . Para estos problemas, las condiciones KKT (que son necesarias para la optimalidad) son todas lineales, por lo que se pueden resolver analíticamente. [7] : cap.11 

Para problemas sin restricciones (o con restricciones de igualdad) con un objetivo convexo general que es dos veces diferenciable, se puede utilizar el método de Newton . Puede verse como la reducción de un problema convexo general sin restricciones a una secuencia de problemas cuadráticos. [7] : cap.11  El método de Newton se puede combinar con la búsqueda de línea para un tamaño de paso apropiado, y se puede demostrar matemáticamente que converge rápidamente.

Otros algoritmos eficientes para la minimización sin restricciones son el descenso de gradiente (un caso especial de descenso más pronunciado ).

Problemas generales

Los problemas más desafiantes son aquellos con restricciones de desigualdad. Una forma común de resolverlos es reducirlos a problemas sin restricciones agregando una función de barrera , que refuerza las restricciones de desigualdad, a la función objetivo. Tales métodos se denominan métodos de punto interior . [7] : cap.11  Deben inicializarse encontrando un punto interior factible utilizando los llamados métodos de fase I , que encuentran un punto factible o demuestran que no existe ninguno. Los métodos de fase I generalmente consisten en reducir la búsqueda en cuestión a un problema de optimización convexa más simple. [7] : cap.11 

Los problemas de optimización convexa también se pueden resolver mediante los siguientes métodos contemporáneos: [12]

Los métodos de subgradiente se pueden implementar de manera sencilla y, por lo tanto, se utilizan ampliamente. [15] Los métodos de subgradiente duales son métodos de subgradiente aplicados a un problema dual . El método de deriva más penalización es similar al método de subgradiente dual, pero toma un promedio temporal de las variables primarias. [ cita requerida ]

Multiplicadores de Lagrange

Consideremos un problema de minimización convexa dado en forma estándar por una función de costo y restricciones de desigualdad para . Entonces el dominio es: f ( x ) {\displaystyle f(x)} g i ( x ) 0 {\displaystyle g_{i}(x)\leq 0} 1 i m {\displaystyle 1\leq i\leq m} X {\displaystyle {\mathcal {X}}}

X = { x X | g 1 ( x ) , , g m ( x ) 0 } . {\displaystyle {\mathcal {X}}=\left\{x\in X\vert g_{1}(x),\ldots ,g_{m}(x)\leq 0\right\}.}

La función lagrangiana para el problema es

L ( x , λ 0 , λ 1 , , λ m ) = λ 0 f ( x ) + λ 1 g 1 ( x ) + + λ m g m ( x ) . {\displaystyle L(x,\lambda _{0},\lambda _{1},\ldots ,\lambda _{m})=\lambda _{0}f(x)+\lambda _{1}g_{1}(x)+\cdots +\lambda _{m}g_{m}(x).}

Para cada punto en que se minimiza sobre , existen números reales llamados multiplicadores de Lagrange , que satisfacen simultáneamente estas condiciones: x {\displaystyle x} X {\displaystyle X} f {\displaystyle f} X {\displaystyle X} λ 0 , λ 1 , , λ m , {\displaystyle \lambda _{0},\lambda _{1},\ldots ,\lambda _{m},}

  1. x {\displaystyle x} minimiza sobre todo L ( y , λ 0 , λ 1 , , λ m ) {\displaystyle L(y,\lambda _{0},\lambda _{1},\ldots ,\lambda _{m})} y X , {\displaystyle y\in X,}
  2. λ 0 , λ 1 , , λ m 0 , {\displaystyle \lambda _{0},\lambda _{1},\ldots ,\lambda _{m}\geq 0,} con al menos uno λ k > 0 , {\displaystyle \lambda _{k}>0,}
  3. λ 1 g 1 ( x ) = = λ m g m ( x ) = 0 {\displaystyle \lambda _{1}g_{1}(x)=\cdots =\lambda _{m}g_{m}(x)=0} (flojedad complementaria).

Si existe un "punto estrictamente factible", es decir, un punto que satisface z {\displaystyle z}

g 1 ( z ) , , g m ( z ) < 0 , {\displaystyle g_{1}(z),\ldots ,g_{m}(z)<0,}

Entonces la afirmación anterior puede reforzarse para exigir que . λ 0 = 1 {\displaystyle \lambda _{0}=1}

Por el contrario, si alguna en satisface (1)–(3) para escalares con entonces es seguro que se minimizará en . x {\displaystyle x} X {\displaystyle X} λ 0 , , λ m {\displaystyle \lambda _{0},\ldots ,\lambda _{m}} λ 0 = 1 {\displaystyle \lambda _{0}=1} x {\displaystyle x} f {\displaystyle f} X {\displaystyle X}

Software

Existe un gran ecosistema de software para la optimización convexa. Este ecosistema tiene dos categorías principales: solucionadores por un lado y herramientas de modelado (o interfaces ) por el otro.

Los solucionadores implementan los algoritmos por sí mismos y suelen estar escritos en C. Requieren que los usuarios especifiquen los problemas de optimización en formatos muy específicos que pueden no ser naturales desde una perspectiva de modelado. Las herramientas de modelado son piezas de software independientes que permiten al usuario especificar una optimización en una sintaxis de nivel superior. Gestionan todas las transformaciones hacia y desde el modelo de alto nivel del usuario y el formato de entrada/salida del solucionador.

La siguiente tabla muestra una combinación de herramientas de modelado (como CVXPY y Convex.jl) y solucionadores (como CVXOPT y MOSEK). Esta tabla no es exhaustiva.

ProgramaIdiomaDescripción¿software libre ?Árbitro
CVXMATLABInterfaces con solucionadores SeDuMi y SDPT3; diseñado para expresar únicamente problemas de optimización convexa.[16]
Modificador CVXPitónInterfaces con el solucionador CVXOPT.[16]
CVXPYPitón[17]
Convexo.jlJuliaProgramación convexa disciplinada, admite muchos solucionadores.[18]
CVXRR[19]
YALMIPMATLAB, OctavaInteractúa con los solucionadores CPLEX, GUROBI, MOSEK, SDPT3, SEDUMI, CSDP, SDPA y PENNON; también admite optimización no lineal y de enteros, y algunas optimizaciones no convexas. Puede realizar una optimización robusta con incertidumbre en las restricciones LP/SOCP/SDP.[16]
Laboratorio LMIMATLABExpresa y resuelve problemas de programación semidefinida (llamados "desigualdades matriciales lineales")No[16]
Traductor de LMIlabTransforma los problemas de laboratorio de LMI en problemas de SDP.[16]
xLMIMATLABSimilar al laboratorio LMI, pero utiliza el solucionador SeDuMi.[16]
OBJETIVOSPuede realizar una optimización robusta en programación lineal (con MOSEK para resolver la programación de conos de segundo orden) y programación lineal entera mixta . Paquete de modelado para LP + SDP y versiones robustas.No[16]
ROMASistema de modelado para optimización robusta. Admite optimización distributivamente robusta y conjuntos de incertidumbre.[16]
GloptiPoly 3MATLAB,

Octava

Sistema de modelado para optimización polinomial.[16]
TABURETESSistema de modelado para optimización polinómica. Utiliza SDPT3 y SeDuMi. Requiere Symbolic Computation Toolbox.[16]
POP esparcidoSistema de modelado para optimización polinómica. Utiliza los solucionadores SDPA o SeDuMi.[16]
CPLEXAdmite métodos primal-dual para programación lineal + SOCP. Puede resolver problemas de programación lineal entera mixta, LP, QP y SOCP.No[16]
PCSDdoAdmite métodos primal-dual para LP + SDP. Interfaces disponibles para MATLAB, R y Python. Versión paralela disponible. Solucionador SDP.[16]
CVXOPPitónAdmite métodos primarios y duales para LP + SOCP + SDP. Utiliza escalamiento Nesterov-Todd. Interfaces con MOSEK y DSDP.[16]
MOSCÉAdmite métodos primarios-duales para LP + SOCP.No[16]
SeDuMiMATLAB, Octave, MEXResuelve LP + SOCP + SDP. Admite métodos primal-dual para LP + SOCP + SDP.[16]
Asociación de Padres de EstudiantesC++Resuelve LP + SDP. Admite métodos primal-dual para LP + SDP. Hay versiones de precisión extendida y paralelizada disponibles.[16]
SDPT3MATLAB, Octave, MEXResuelve LP + SOCP + SDP. Admite métodos primal-dual para LP + SOCP + SDP.[16]
Paquete cónicoAdmite códigos de propósito general para LP + SOCP + SDP. Utiliza un método de paquete. Compatibilidad especial con restricciones SDP y SOCP.[16]
DSDPAdmite códigos de propósito general para LP + SDP. Utiliza un método de punto interior dual.[16]
LOQOAdmite códigos de propósito general para SOCP, que trata como un problema de programación no lineal.No[16]
PENDÓNAdmite códigos de uso general. Utiliza un método lagrangiano aumentado, especialmente para problemas con restricciones SDP.No[16]
Partido Demócrata DemocráticoAdmite códigos de uso general. Utiliza factorización de bajo rango con un método lagrangiano aumentado.[16]
JuegosSistema de modelado para problemas de programación lineal, no lineal, entera mixta lineal/no lineal y de cono de segundo orden.No[16]
Servicios de optimizaciónEstándar XML para codificar problemas de optimización y soluciones.[16]

Aplicaciones

La optimización convexa se puede utilizar para modelar problemas en una amplia gama de disciplinas, como sistemas de control automático , estimación y procesamiento de señales , comunicaciones y redes, diseño de circuitos electrónicos , [7] : 17  análisis y modelado de datos, finanzas , estadística ( diseño experimental óptimo ), [20] y optimización estructural , donde el concepto de aproximación ha demostrado ser eficiente. [7] [21] La optimización convexa se puede utilizar para modelar problemas en los siguientes campos:

Extensiones

Las extensiones de la optimización convexa incluyen la optimización de funciones biconvexas , pseudoconvexas y cuasiconvexas . Las extensiones de la teoría del análisis convexo y los métodos iterativos para resolver de forma aproximada problemas de minimización no convexa se dan en el campo de la convexidad generalizada , también conocida como análisis convexo abstracto. [ cita requerida ]

Véase también

Notas

  1. ^ ab Nesterov y Nemirovskii 1994
  2. ^ Murty, Katta; Kabadi, Santosh (1987). "Algunos problemas NP-completos en programación cuadrática y no lineal". Programación matemática . 39 (2): 117–129. doi :10.1007/BF02592948. hdl : 2027.42/6740 . S2CID  30500771.
  3. ^ Sahni, S. "Problemas relacionados con la computación", en SIAM Journal on Computing, 3, 262-279, 1974.
  4. ^ Pardalos, Panos M.; Vavasis, Stephen A. (1991). "La programación cuadrática con un valor propio negativo es NP-hard". Journal of Global Optimization . 1 : 15–22. doi :10.1007/BF00120662.
  5. ^ Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1996). Algoritmos de análisis y minimización convexos: Fundamentos. Saltador. pag. 291.ISBN 9783540568506.
  6. ^ Ben-Tal, Aharon; Nemirovskiĭ, Arkadiĭ Semenovich (2001). Lecciones sobre optimización convexa moderna: análisis, algoritmos y aplicaciones de ingeniería. pp. 335–336. ISBN 9780898714913.
  7. ^ abcdefghijkl Boyd, Stephen; Vandenberghe, Lieven (2004). Optimización convexa (PDF) . Prensa de la Universidad de Cambridge . ISBN 978-0-521-83378-3. Recuperado el 12 de abril de 2021 .
  8. ^ "Tipos de problemas de optimización: optimización convexa". 9 de enero de 2011.
  9. ^ por Arkadi Nemirovsky (2004). Métodos de tiempo polinomial de punto interior en programación convexa.
  10. ^ Agrawal, Akshay; Verschueren, Robin; Diamond, Steven; Boyd, Stephen (2018). "Un sistema de reescritura para problemas de optimización convexa" (PDF) . Control and Decision . 5 (1): 42–60. arXiv : 1709.04494 . doi :10.1080/23307706.2017.1397554. S2CID  67856259.
  11. ^ Rockafellar, R. Tyrrell (1993). "Multiplicadores de Lagrange y optimalidad" (PDF) . SIAM Review . 35 (2): 183–238. CiteSeerX 10.1.1.161.7209 . doi :10.1137/1035044. 
  12. ^ Para métodos de minimización convexa, consulte los volúmenes de Hiriart-Urruty y Lemaréchal (paquete) y los libros de texto de Ruszczyński , Bertsekas y Boyd y Vandenberghe (punto interior).
  13. ^ Nesterov, Yurii; Arkadii, Nemirovskii (1995). Algoritmos polinomiales de punto interior en programación convexa . Sociedad de Matemáticas Industriales y Aplicadas. ISBN 978-0898715156.
  14. ^ Peng, Jiming; Roos, Cornelis; Terlaky, Tamás (2002). "Funciones autorregulares y nuevas direcciones de búsqueda para optimización lineal y semidefinida". Programación matemática . 93 (1): 129–171. doi :10.1007/s101070200296. ISSN  0025-5610. S2CID  28882966.
  15. ^ "Optimización numérica". Springer Series en Investigación de operaciones e ingeniería financiera . 2006. doi :10.1007/978-0-387-40065-5. ISBN 978-0-387-30303-1.
  16. ^ abcdefghijklmnopqrstu vwxy Borchers, Brian. "Una descripción general del software para la optimización convexa" (PDF) . Archivado desde el original (PDF) el 18 de septiembre de 2017. Consultado el 12 de abril de 2021 .
  17. ^ "Bienvenido a CVXPY 1.1 — Documentación de CVXPY 1.1.11". www.cvxpy.org . Consultado el 12 de abril de 2021 .
  18. ^ Udell, Madeleine; Mohan, Karanveer; Zeng, David; Hong, Jenny; Diamond, Steven; Boyd, Stephen (17 de octubre de 2014). "Optimización convexa en Julia". arXiv : 1410.4821 [math.OC].
  19. ^ "Optimización convexa disciplinada - CVXR" www.cvxgrp.org . Consultado el 17 de junio de 2021 .
  20. ^ Chritensen/Klarbring, cap. 4.
  21. ^ Schmit, LA; Fleury, C. 1980: Síntesis estructural mediante la combinación de conceptos de aproximación y métodos duales . J. Amer. Inst. Aeronaut. Astronaut 18, 1252-1260
  22. ^ abcde Boyd, Stephen; Diamond, Stephen; Zhang, Junzi; Agrawal, Akshay. "Aplicaciones de optimización convexa" (PDF) . Archivado (PDF) desde el original el 2015-10-01 . Consultado el 12 de abril de 2021 .
  23. ^ abc Malick, Jérôme (28 de septiembre de 2011). «Optimización convexa: aplicaciones, formulaciones, relajaciones» (PDF) . Archivado (PDF) desde el original el 12 de abril de 2021. Consultado el 12 de abril de 2021 .
  24. ^ Ben Haim Y. y Elishakoff I., Modelos convexos de incertidumbre en mecánica aplicada, Elsevier Science Publishers, Ámsterdam, 1990
  25. ^ Ahmad Bazzi, Dirk TM Slock y Lisa Meilhac. "Estimación del ángulo de llegada en línea en presencia de acoplamiento mutuo". Taller sobre procesamiento estadístico de señales (SSP) del IEEE de 2016. IEEE, 2016.

Referencias

  • Bertsekas, Dimitri P.; Nedic, Angelia; Ozdaglar, Asuman (2003). Análisis y optimización convexa . Belmont, MA.: Athena Scientific. ISBN 978-1-886529-45-8.
  • Bertsekas, Dimitri P. (2009). Teoría de optimización convexa . Belmont, MA.: Athena Scientific. ISBN 978-1-886529-31-1.
  • Bertsekas, Dimitri P. (2015). Algoritmos de optimización convexa . Belmont, MA.: Athena Scientific. ISBN 978-1-886529-28-1.
  • Borwein, Jonathan; Lewis, Adrian (2000). Análisis convexo y optimización no lineal: teoría y ejemplos, segunda edición (PDF) . Springer . Consultado el 12 de abril de 2021 .
  • Christensen, Peter W.; Anders Klarbring (2008). Introducción a la optimización estructural. Vol. 153. Springer Science & Business Media. ISBN 9781402086663.
  • Hiriart-Urruty, Jean-Baptiste y Lemaréchal, Claude . (2004). Fundamentos del análisis convexo . Berlín: Springer.
  • Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1993). Algoritmos de minimización y análisis convexo, Volumen I: Fundamentos . Grundlehren der Mathematischen Wissenschaften [Principios fundamentales de las ciencias matemáticas]. vol. 305. Berlín: Springer-Verlag. págs. xviii+417. ISBN 978-3-540-56850-6. Sr.  1261420.
  • Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1993). Algoritmos de minimización y análisis convexo, Volumen II: Teoría avanzada y métodos de paquetes . Grundlehren der Mathematischen Wissenschaften [Principios fundamentales de las ciencias matemáticas]. vol. 306. Berlín: Springer-Verlag. págs. xviii+346. ISBN 978-3-540-56852-0.Señor 1295240  .
  • Kiwiel, Krzysztof C. (1985). Métodos de descendencia para optimización no diferenciable . Apuntes de clase de matemáticas. Nueva York: Springer-Verlag. ISBN 978-3-540-15642-0.
  • Lemaréchal, Claude (2001). "Relajación lagrangiana". En Michael Jünger y Denis Naddef (ed.). Optimización combinatoria computacional: artículos de la escuela de primavera celebrada en Schloß Dagstuhl, del 15 al 19 de mayo de 2000 . Apuntes de conferencias sobre informática. vol. 2241. Berlín: Springer-Verlag. págs. 112-156. doi :10.1007/3-540-45586-8_4. ISBN 978-3-540-42877-0.Señor 1900016.S2CID 9048698  . ​
  • Nesterov, Yurii; Nemirovskii, Arkadii (1994). Métodos polinomiales de puntos interiores en programación convexa . SIAM.
  • Nesterov, Yurii. (2004). Lecciones introductorias sobre optimización convexa , Kluwer Academic Publishers
  • Rockafellar, RT (1970). Análisis convexo . Princeton: Princeton University Press.
  • Ruszczyński, Andrzej (2006). Optimización no lineal . Prensa de la Universidad de Princeton.
  • Schmit, LA; Fleury, C. 1980: Síntesis estructural mediante la combinación de conceptos de aproximación y métodos duales . J. Amer. Inst. Aeronaut. Astronaut 18, 1252-1260
  • EE364a: Optimización convexa I y EE364b: Optimización convexa II, páginas de inicio de cursos de Stanford
  • 6.253: Análisis y optimización convexos, página de inicio del curso MIT OCW
  • Brian Borchers, Una descripción general del software para optimización convexa
  • Libro de optimización convexa de Lieven Vandenberghe y Stephen P. Boyd
Retrieved from "https://en.wikipedia.org/w/index.php?title=Convex_optimization&oldid=1232099291"