Gradientenverfahren sind ein gängiges Konzept zur Lösung nichtlinearer Optimierungsmodelle. Der Gradientenvektor einer zu maximierenden Zielfunktion F gibt die Richtung des steilsten Anstiegs von F an der Stelle x an. Gradientenverfahren für Maximierungsprobleme bewegen sich iterativ, ausgehend von einer zulässigen Lösung x(k), so lange in Richtung , bis sie zu einer Stelle x(k+1) gelangen, an der die Funktion F nicht mehr ansteigt oder der Rand des Lösungsraumes erreicht ist. Dort beginnt der nächste Iterationsschritt mit der Berechnung des Gradienten. Führt er aus dem zulässigen Bereich heraus, wird stattdessen eine zulässige Anstiegsrichtung ermittelt. Liegt ein konvexes Optimierungsmodell vor, wird die optimale Lösung durch dieses Vorgehen mit beliebiger Genauigkeit erreicht; andernfalls liefern Gradientenverfahren in der Regel nur lokale Optima.
Vorhergehender Fachbegriff: Grad der tatsächlichen Kapazitätsauslastung | Nächster Fachbegriff: Gradualismus
Diesen Artikel der Redaktion als fehlerhaft melden & zur Bearbeitung vormerken
|