Lehrinhalt:
Grundlagen: Konvexe Funktionen, gleichmäßige Konvexität, Charakterisierung durch Bedingungen erster und zweiter Ordnung, Modellbildung, spezielle Problemklassen, Existenz- und Eindeutigkeitsaussagen für allgemeine Optimierungsprobleme, Optimalitätskriterien für Probleme ohne Nebenbedingungen, Grundsätzliches Vorgehen (Abstiegsrichtung, Schrittweiten, Trust- Region-Ansatz), Konvergenzraten (lineare, quadratische und superlineare Konvergenz, Q- und R-Raten) Verfahren für unrestringierte Minimierungsprobleme: Modellalgorithmus, Schrittweitenstrategien (exakte Schrittweiten, (strenge) Wolfe-Powell-Schrittweite, Armijo-Schrittweite), Gradientenverfahren, lokales und globalisiertes Newton-Verfahren, Rang-1- und Rang-2-Quasi-Newton- Verfahren, Verfahren der konjugierten Gradienten, Trust-Region Verfahren.
Literatur: W. Alt: Nichtlineare Optimierung. Vieweg, 2002. C. Geiger, Ch. Kanzow: Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer, 1999. F. Jarre, J. Stoer: Optimierung. Springer, 2004. J. Nocedal, S. Wright: Numerical Optimization. Springer, 1999. |