Mathematische Optimierung: Theorie

Überblick

Opti­mie­rungs­pro­ble­me \( \min f(x), x \in D\) zu for­mu­lie­ren und zu lösen erfor­dert den Ein­satz ver­schie­de­ner Fel­der der ange­wand­ten Mathe­ma­tik und ist ein viel­sei­ti­ges Unterfangen. 

Echt­welt­pro­ble­me in mathe­ma­ti­scher Spra­che zu model­lie­ren ist eine krea­ti­ve Auf­ga­be, die zurück­greift auft Wahr­schein­lich­keits­rech­nung und linea­re Alge­bra. Die in Fol­ge ent­ste­hen­den Opti­mie­rungs­pro­ble­me kön­nen hin­sicht­lich ihrer struk­tu­rel­len Eigen­schaf­ten unter­sucht wer­den; je nach Ziel­funk­ti­on \(f\) und Neben­be­din­gun­gen \(D\) kön­nen theo­re­tisch beweis­ba­re Garan­tien über Lös­bar­keit und Kom­ple­xi­tät des Pro­b­le­mes abge­lei­tet wer­den. Die letzt­end­li­che Lösung des Opti­mie­rungs­pro­b­le­mes fällt in die Domä­ne der Nume­rik, in der sich Mathe­ma­tik, Infor­ma­tik, und Pro­gram­mier­tech­ni­sche Her­aus­for­de­run­gen verbinden.

Modellierung

Echt­welt­phä­no­me­ne zeich­nen sich durch Kom­ple­xi­tät, nicht­li­nea­re Zusam­men­hän­ge, und Unsi­cher­hei­ten aus. Ihre kor­rek­te Reprä­sen­ta­ti­on erfor­dert eine detail­lier­te Unter­su­chung der das Phä­no­men beschrei­ben­den Varia­blen und etwa­iger kau­sa­ler Zusammenhänge.

Die­se kön­nen sim­pel sein (Zshg. Pro­duk­ti­ons­kos­ten und Pro­fit), kom­plex (Zshg. Beschleu­ni­gung und Posi­ti­on) oder sto­chas­tisch (Zshg. Inves­ti­ti­ons­dau­er und Ren­di­te). Oft erfor­dert die Model­lie­rung die Aus­wer­tung von Daten, um die Inter­ak­tio­nen der ver­schie­de­nen Varia­blen zu quan­ti­fi­zie­ren. Dies inji­ziert eine wei­te­re Quel­le der Unsi­cher­heit in den Model­lie­rungs­vor­gang. Deren Quan­ti­fi­zie­rung und Beschrän­kung muss mit­tels sto­chas­ti­scher Metho­den gewähr­leis­tet werden.

Die Über­füh­rung in ein abs­trak­tes mathe­ma­ti­sches Modell wird noch dadurch erschwert, dass nur eine restrik­ti­ve Klas­se von Model­len im Rah­men der mathe­ma­ti­schen Opti­mie­rung über­haupt zuver­läs­sig gelöst wer­den kann. Daher sind für die zen­tra­len Zusam­men­hän­ge irrele­van­te Details zwecks spä­te­rer Nut­zung so weit wie mög­lich zu redu­zie­ren — ein Ziel­kon­flikt zu dem ursprüng­li­chen Anspruch wahr­heits­ge­treu­er mathe­ma­ti­scher Reprä­sen­ta­ti­on eines Echt­welt­phä­no­me­nes. Zyklen von Modell­for­mu­lie­rung, ‑ana­ly­se, und ‑eva­lua­ti­on sind der Stan­dard [1, p. 13]. Kurz­um: Model­le sind ein­fach, Model­lie­rung ist schwierig.

Analyse

Ob und wie ein Opti­mie­rungs­pro­blem \( \min f(x), x \in D\) lös­bar ist, hängt von den Eigen­schaf­ten der Ziel­funk­ti­on \(f\) und der Neben­be­din­gun­gen \(D\) ab. Für man­che Kom­bi­na­tio­nen kön­nen Lösungs­ga­ran­tien aus­ge­spro­chen wer­den, wäh­rend ande­re sich jeg­li­chem Opti­mie­rungs­ver­such entziehen.

Ent­schei­dend ist dabei eine Eigen­schaft namens Kon­ve­xi­tät. Ist ein Opti­mie­rungs­pro­blem kon­vex, dann hat \(f\) nur ein ein­zi­ges loka­les Opti­mum und jede Ver­bin­dungs­li­nie zwi­schen zwei Punk­ten \(x_1, x_2 \in D\)  liegt kom­plett in \(D\) [2, p. 138]. Als Kon­se­quenz redu­ziert sich die Suche nach einem glo­ba­len Opti­mum auf die Suche nach dem ein­zi­gen loka­len Opti­mum. Der Ein­satz gra­di­en­ten­ba­sier­ter Ver­fah­ren ist aus­rei­chend, um eine Fol­ge von suk­zes­sig bes­se­ren Punk­ten zu gene­rie­ren, die gegen das glo­ba­le Opti­mum konvergiert.

Kon­ve­xe Opti­mie­rungs­pro­ble­me ver­fü­gen aus­ser­dem über eine sys­te­ma­tisch kon­stru­ier­ba­re unte­re Schran­ke für Ihre Opti­mal­wer­te \( \min f(x), x \in D\). Die­se Schran­ken sind ihrer­seits Lösun­gen eines Opti­mie­rungs­pro­b­le­mes, dem soge­nann­ten dua­len Pro­blem [2, p. 216]. Die­se Sekun­där­pro­ble­me ver­ra­ten viel über das ursprüng­li­che Opti­mie­rungs­pro­blme und erlau­ben z.B. Dia­gno­se über die Sen­si­ti­vi­tät des Opti­mal­wer­tes gegen­über Ver­än­de­run­gen der Neben­be­din­gun­gen oder die Aus­spra­che von Lösbarkeitsgarantien.

Lösung

ist das Opti­mie­rungs­pro­blem kon­vex, dann ist es prin­zi­pi­ell lös­bar. Mit Hil­fe von Vek­to­ren und Matri­zen wer­den loka­le Stei­gun­gen und Krüm­mun­gen quan­ti­fi­ziert. Die­se wer­den benutzt, um in einem ite­ra­ti­ven Ver­fah­ren eine Fol­ge von sich hin­sicht­lich ihres Funk­ti­ons­wer­tes ver­bes­sern­der Punk­te zu gene­rie­ren, die gegen das glo­ba­le Opti­mum konvergiert.

Dabei müs­sen mathe­ma­ti­sche Belan­ge vor­sich­tig abge­wägt wer­den gegen Spei­cher­platz­be­darf, Rechen­in­ten­si­tät, und Inter­pre­tier­bar­keit des Ver­fah­rens. All dies lässt die Lösung eines all­ge­mei­nen kon­ve­xen Opti­mie­rungs­pro­b­le­mes zu einer kom­pli­zier­ten Ange­le­gen­heit wer­den. Sind jedoch Ziel­funk­ti­on und Neben­be­di­nun­gen line­ar, so exis­tie­ren leis­tungs­fä­hi­ge Algo­rith­men. Das gilt auch, wenn qua­dra­ti­sche Ter­me und Kegel­be­din­gun­gen auf­tre­ten. In die­se Fäl­len ist dank der Ver­füg­bar­keit von open source sol­vern wenig schwie­ri­ge Arbeit zu leis­ten und das Opti­mie­rungs­pro­blem kann nach auto­ma­ti­sier­ten Regeln gelöst wer­den [3, pp. 155–210].

Ausblick

Auf den unter­ge­ord­ne­ten Sei­ten fin­den sich Infor­ma­tio­nen zu Kon­ve­xi­tät, Dual­ti­täts­theo­rie sowie der Model­lie­rung von Unsi­cher­heit. Eini­ge Grund­zü­ge der nume­ri­schen Lösung kon­ve­xer Pro­ble­me wer­den beschrieben.

Quellen

[1] Mey­er, W. J. (2012). Con­cepts of Mathe­ma­ti­cal Mode­ling. New York: Cou­rier Corporation.

[2] Boyd, S., & Van­den­berg­he, L. (2004). Con­vex Optimi­zation. Cam­bridge: Cam­bridge Uni­ver­si­ty Press.

[3] Liber­ti, L., & Macu­lan, N. (2006). Glo­bal Optimi­zation: From Theo­ry to Imple­men­ta­ti­on. Ber­lin Hei­del­berg: Sprin­ger Sci­ence & Busi­ness Media.