„Optimierungsproblem“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
Inhalt gelöscht Inhalt hinzugefügt
→Mathematische Definition und Begriffe: fett, da Ziel einer WL |
Linkvorschlag-Funktion: 3 Links hinzugefügt. |
||
(9 dazwischenliegende Versionen von einem anderen Benutzer werden nicht angezeigt) | |||
Zeile 6:
[[Datei:Optimalpunkt Optimalwert.jpg|mini|400x400px|Die Minimierung der Funktion <math>f(x) = (x-1)^2+2</math> ergibt den Optimalpunkt <math>x^\star=1</math> und den Optimalwert <math>v=2</math>.<ref>{{Literatur |Autor=Nathan Sudermann-Merx |Titel=Einführung in Optimierungsmodelle |Verlag=Springer |Ort=Berlin / Heidelberg |Datum=2023 |ISBN=978-3-662-67380-5 |DOI=10.1007/978-3-662-67381-2}}</ref> ]]
Ein Optimierungsproblem <math>P</math> besteht aus einer [[Reellwertige Funktion|reellwertigen]] '''Zielfunktion''' <math>f </math>, einer '''zulässigen Menge''' <math>M</math>, '''Entscheidungsvariablen''' <math>x</math> und festen problemdefinierenden Eingangsdaten wie etwa den Abständen zwischen den zu besuchenden Städten des Problems des Handlungsreisenden oder dem Wert der Gegenstände im [[Rucksackproblem]]. Es ist gegeben durch
: <math display="block">P:\qquad\min_x f(x)\quad\text{s. t.}\quad x\in M.</math>
Üblicherweise ist hierbei <math>P</math> in einen [[Raum (Mathematik)|Raum]] <math>V</math>, wie etwa den <math>\mathbb{R}^n</math>, eingebettet. In diesem Fall gelten <math>f:V\to \mathbb{R}</math>, <math>M\subseteq V</math> und <math>x\in V</math>. Die Schreibweise <math>\text{s. t.}</math> geht auf den englischen Ausdruck ''subject to'' zurück und bedeutet, dass bei der Suche nach der Lösung von <math>P</math> nur sogenannte '''zulässige Punkte''' <math>x\in M</math>
: <math display="block">M = \{x\in V|\ g_i(x)\le 0,\ h_j(x)=0,\ i\in I,\ j\in J\}</math>
dargestellt werden, wobei <math>I</math> die Indexmenge der '''Ungleichungsrestriktionen''' und <math>J</math> die Indexmenge der '''Gleichungsrestriktionen''' darstellt. ''Restriktionen'' werden auch als '''Nebenbedingungen''' oder ''Constraints'' bezeichnet.
== Anmerkungen ==
Zeile 45:
* Falls <math>V=\mathbb{R^n} \times \mathbb{Z^m}</math> gilt und beliebig viele der Funktionen <math>f</math>, <math>g_i,\ i\in I,</math> und <math>h_j,\ j\in J,</math> beliebig nichtlinear sind, ist <math>P</math> ein ''[[Gemischt-ganzzahlige Optimierung#Mathematische Definition|gemischt-ganzzahliges nichtlineares Optimierungsproblem]] (MINLP)''
* Falls <math>V=\mathbb Z^n</math> gilt, ist <math>P</math> ein [[Kombinatorische Optimierung|''kombinatorisches Optimierungsproblem'']].
* Falls <math>V=\mathbb R^n</math> gilt und <math>P</math> ([[Abzählbare Menge|abzählbar]]) unendlich viele Gleichungsrestriktionen besitzt, ist <math>P</math> ein ''[[semi-infinites Optimierungsproblem]] (SIP)''.
== Optimierungsmethoden ==
{{Hauptartikel|Mathematische Optimierung#Optimierungsmethoden}}
Einen Algorithmus, der ein Optimierungsproblem löst, nennt man [[Mathematische Optimierung#Optimierungsmethoden|Optimierungsmethode]] oder Optimierungsalgorithmus. Je nach Klasse des Optimierungsproblems kommen verschiedene Verfahren zum Einsatz. Neben spezialisierten Verfahren, wie etwa dem [[Dijkstra-Algorithmus]] zur Bestimmung kürzester Wege gibt es auch allgemeine Lösungsverfahren, welche anwendungsunabhängig basierend auf der Kenntnis der Problemklasse eingesetzt werden können. Am bekanntesten sind vermutlich die Verfahren der nichtlinearen Optimierung zur Bestimmung lokaler Optimalpunkte wie das [[Gradientenverfahren]], das [[Newtonverfahren]] und [[Quasi-Newton-Verfahren]]. Für die Minimierung der Verlustfunktion im Bereich [[Maschinelles Lernen|Machine Learning]] werden typischerweise leichtfüßige Varianten des Gradientenverfahrens wie das [[stochastische Gradientenverfahren]] (''stochastic gradient descent'') eingesetzt. Für LPs kommen das [[Simplex-Verfahren]] sowie [[Innere-Punkte-Verfahren|Innere-Punkte-Methoden]] zum Einsatz, wobei letztgenannte auch zur Lösung nichtlinearer konvexer Optimierungsprobleme verwendet werden. Optimierungsprobleme, in denen auch ganzzahlige Variablen auftreten, können exakt mit [[Branch-and-Bound]] sowie [[Branch-and-Cut]] Methoden gelöst werden. Darüber hinaus können auch anwendungsspezifische Heuristiken wie die [[Nearest-Neighbor-Heuristik]] oder allgemeine [[Metaheuristik]]en eingesetzt werden, die in der Regel jedoch keine Aussage über die Qualität der gefundenen Lösung treffen.
== Weblinks ==
|