Theorie: Stochastizität

Modelle und Unsicherheit

Unsi­cher­heit ist ein essen­ti­el­ler Bestand­teil von Model­len zur Abbil­dung von Echt­welt­phä­no­me­nen. Sie kann ver­schie­de­ne Ursa­chen haben.

  • Das Modell invol­viert Phä­no­me­ne zufäl­li­ger Natur wie etwa Kern­zer­fall, Bau­teil­ver­sa­gen, oder Aktienkurse
  •  Das Modell beinhal­tet deter­mi­nis­ti­sche aber unbe­kann­te Grös­sen wie etwa die Län­ge einer unzu­rei­chend genau gemes­se­nen Stre­cke oder den noch unver­öf­fent­lich­ten Preis eines Produktes.
  • Das Modell ist bewusst unvoll­stän­dig und die Abwei­chun­gen zwi­schen Modell­ver­hal­ten und Rea­li­tät wer­den als Unsi­cher­heit ange­rech­net; etwa bei kon­ti­nu­ums­me­cha­ni­schen Pro­ble­men oder Rück­ko­p­lungs­ef­fek­ten in kom­ple­xen Systemen.
In jedem die­ser Fäl­le wird ein Teil des Model­les als sto­chas­tisch (=zufäl­lig) ange­se­hen. Unge­ach­tet des­sen, ob der zufäl­li­ge Teil aus der Natur des Phä­no­mens oder der Unwis­sen­heit von Sys­tem­pa­ra­me­tern und Sys­tem­zu­sam­men­hän­gen stammt, wird er mit Hil­fe der­sel­ben For­ma­lis­men der Wahr­schein­lich­keits­theo­rie beschrieben.

Zufallsvariablen

Dabei neh­men Zufalls­va­ria­blen und deren Wahr­schein­lich­keits­ver­tei­lun­gen eine zen­tra­le Stel­lung ein. Eine Zufalls­va­ria­ble \(X^{\cdot}\) ist eine Abbil­dung $$X^{\cdot}:\Omega \ni \omega \mapsto X^{\omega}\in \mathbb{R}$$ wel­che dem Resul­tat eines Expe­ri­men­tes eine Zahl zuord­net [1, p. 46]. Das Expe­ri­ment kan z.B. das Wer­fen eines Wür­fels, das Resul­tat die oben­lie­gen­de Wür­fel­flä­che sein und die Zufalls­va­ria­ble bil­det die­ses Resul­tat ab auf die Augen­zahl. Bevor ein Wür­fel­wurf tat­säch­lich statt­fin­det, ist das Resul­tat des Expe­ri­men­tes nicht bekannt, kann aber hin­sicht­lich der erwar­te­ten Häu­fig­kei­ten mög­li­cher Augen­zah­len beschrie­ben wer­den. Die­se rela­ti­ven Häu­fig­kei­ten wer­den Wahr­schein­lich­kei­ten genannt; die Zuwei­sung der Wahr­schein­lich­kei­ten zu den unter­schied­li­chen nume­ri­schen Wer­ten heisst Wahrscheinlichkeitsverteilung.

Abbil­dung 1: Bei­spiel einer Zufalls­va­ria­blen, wel­che den Wurf zwei­er Wür­fel die Augen­zahl­sum­me zuord­net. Man­che Wer­te kom­men im Schnitt häu­fi­ger vor als andere.

Relevanz

Tritt in einem Opti­mie­rungs­pro­blem die Zufalls­va­ria­ble \(X^{\cdot}\) auf, so muss die Gesamt­heit aller mög­li­chen von \(X^{\cdot}\) ange­nom­me­nen Wer­te und deren indi­vi­du­el­le Wahr­schein­lich­kei­ten berück­sich­tigt wer­den. Dies macht Opti­mie­rungs­pro­ble­me schwie­ri­ger zu inter­pre­tie­ren und für eine Lösung müs­sen Ent­schei­dun­gen getrof­fen wer­den, wel­cher Aspekt der Wahr­schein­lich­keits­ver­tei­lung der nun eben­falls zufäl­li­gen Ziel­funk­ti­on zu opti­mie­ren ist.

Ist die Ziel­funk­ti­on z.B. gege­ben durch Kos­ten \(c^Tx\) mit Opti­mie­rungs­va­ria­ble \(x\in \mathbb{R}^n\) und Zufalls­va­ria­blen \([c_1^{\cdot}, …, c_n^{\cdot}]=c^T\), so mag es sinn­voll sein, Erwar­tungs­wert, Schwan­kungs­brei­te, Maxi­mal­wer­te, oder Quan­ti­le der Kos­ten zu mini­mie­ren. Je nach Ziel­vor­stel­lung ührt dies zu LP, SDP, oder sto­chas­ti­schen Programmen.

Typische Wahrscheinlichkeits-verteilungen

Wel­che Wahr­schein­lich­keits­ver­tei­lung am geeig­nets­ten ist zur Model­lie­rung eines Zufalls­aspek­tes hängt von den genau­en Hin­ter­grün­den ab.  Uni­for­me Ver­tei­lun­gen sym­bo­li­sie­ren kom­plet­tes Unwis­sen wäh­rend Nor­mal­ver­tei­lun­gen gute Appro­xi­ma­tio­nen sind für sich aus vie­len unab­hän­gi­gen klei­nen Feh­lern zusam­men­set­zen­de Zufalls­ef­fek­te. Die \(\chi^2\)-Verteilung quan­ti­fi­ziert Unsi­cher­hei­ten im Zusam­men­hang mit Län­gen und Ent­fer­nun­gen und die Pois­son Ver­tei­lung kann zur Beschrei­bung von Aus­fall­wahr­schein­lich­kei­ten her­an­ge­zo­gen wer­den. Diver­se mass­ge­schnei­der­te Wahr­schein­lich­keits­ver­tei­lun­gen und deren Anwen­dun­gen sind z.B. in [2, pp. 828–828] zu finden.

Abbil­dung 2: Illus­tra­ti­on ver­schie­de­ner Wahrscheinlichkeitsverteilungen.

Stochastische Prozesse

Beson­ders pra­xis­re­le­vant sind mul­ti­va­ria­te Wahr­schein­lich­keits­ver­tei­lun­gen. Sie quan­ti­fi­zie­ren die Ein­tritts­wahr­schein­lich­kei­ten von sto­chas­ti­schen Pro­zes­sen: Samm­lun­gen von unter­ein­an­der kor­re­lier­ten Zufalls­va­ria­blen, die Zeit­punk­ten, Orten oder all­ge­mei­ner belie­bi­gen Index­men­ge zuge­ord­net wer­den [1, p. 190]. Sto­chas­ti­sche Pro­zes­se kön­nen zur Beschrei­bung von durch Zufall beein­fluss­ten Phä­no­me­nen in Raum oder Zeit ein­ge­setzt wer­den und selbst die simp­len mul­ti­va­ria­ten Nor­mal­ver­tei­lun­gen decken eine gros­se Band­brei­te an poten­ti­ell zu model­lie­ren­dem Ver­hal­ten ab [3, pp. 79–94].

Abbil­dung 3: Die 4 Teil­ab­bil­dun­gen zei­gen Simu­la­tio­nen basie­rend auf 4 ver­schie­de­nen mul­ti­va­ria­ten Nor­mal­ver­tei­lun­gen. Jede ein­zel­ne Kur­ve ist eine Simu­la­ti­on und ent­spricht einem Wür­fel­wurf, des­sen Resul­tat eine zufäl­lig gene­rier­te Funk­ti­on ist.

An den Abbil­dun­gen ist ericht­lich, dass selbst zufäl­lig gene­rier­te Funk­tio­nen funk­tio­na­le Zusam­men­hän­ge auf­wei­sen kön­nen. Prin­zi­pi­ell ist die Annah­me von Sto­chas­ti­zi­tät sel­ten hin­der­lich, da sto­chas­ti­sche Model­le die deter­mi­nis­ti­schen model­le als Teil­men­ge inkludieren.

Beispielanwendung

Sei \(X^{\cdot}_{\cdot}:T\times \Omega \ni (t,\omega)\mapsto X^{\omega}_{t} \in \mathbb{R}\) ein sto­chas­ti­scher Pro­zess; d.h. eine Fol­ge von Zufalls­va­ria­blen indi­ziert durch die Zufalls­va­ria­ble \(t\in T\). Ist der Pro­zess nur zu eini­gen Zeit­punk­ten beob­ach­tet wor­den und soll für alle ande­ren Zeit­punk­te aus den Beob­ach­tun­gen geschätzt wer­den, so kann dies als Opti­mie­rungs­pro­blem for­mu­liert wer­den. Unter der Annah­me bekann­ter Wahr­schein­lich­keits­ver­tei­lung und damit bekann­ter Kova­ri­an­zen ist der bes­te Schät­zer \(\hat{X}_{t_0}\) für den Wert an der Stel­le \(t_0\) basie­rend auf den Beob­ach­tun­gen \(X_{t_1}, …, X_{t_n}\) gege­ben als

$$\hat{X}_{t_0} = \sum_{k=1}^n \lambda_k X_{t_k}.$$

Dabei ist \([\lambda_1, … ‚\lambda_n]=\lambda\) Lösung des qua­dra­ti­schen Programmes

$$\begin{align}   \min_{\lambda} ~~~&\lambda^TC\lambda‑2\lambda^T c + \sigma_{00} \\
\text{s.t.} ~~~&\sum_{k=1}^n \lambda_k=1 \end{align}$$

mit \(c\in \mathbb{R}^n, ©_k=\text{ Kovarianz}(X_{t_0},X_{t_j})\), \(C\in \mathbb{R}^{n\times n}, ©_{kl}= \text{ Kovarianz}(X_{t_k},X_{t_l})\), und \(\sigma_{00} = \text{ Kovarianz}(X_{t_0},X_{t_0})\).  Die­ses Pro­blem kann leicht algo­rith­misch oder per hand gelöst wer­den und führt auf das in der Geo­sta­tis­tik häu­fig ein­ge­setz­te Ver­fah­ren namens Kri­ging [4, pp. 163–164]. Der Wert des Mini­mie­rungs­pro­b­le­mes ist die Vari­anz des Schätzfehlers.

Abbil­dung 4: Die opti­ma­le Schät­zung eines gesam­ten Pro­zess­ver­lau­fes basie­rend auf eini­gen weni­gen Beobachtungen.

Praktisches

Unsi­cher­hei­ten sind Teil aller Echt­welt­phä­no­me­ne und müs­sen auch in den Opti­mie­rungs­pro­ble­men ent­spre­chend reprä­sen­tiert wer­den. Dazu müs­sen ange­mes­se­ne und auf das Phä­no­men zuge­schnit­te­ne Wahr­schein­lich­keits­ver­tei­lun­gen aus­ge­wählt wer­den. Da es in den aller­meis­ten Fäl­len um mehr geht als nur eine zufäl­li­ge Grös­se, wer­den sto­chas­ti­sche Pro­zes­se zur Model­lie­rung ein­ge­setzt. Die­se ver­fü­gen über hoch­di­men­sio­na­le Wahr­schein­lich­keits­ver­tei­lun­gen udn müs­sen so ins Opti­mie­rungs­pro­blem ein­ge­bun­den wer­den, dass sinn­vol­le Lösun­gen abge­lei­te­te wer­den kön­nen. Dies geht gut mit mul­ti­va­ri­at nor­mal­ver­teil­ten und uni­form ver­teil­ten Daten aber ist her­aus­for­dernf für weni­ger erschöp­fend unter­such­te Wahrscheinlichkeitesverteilungen.

Code & Quellen

Bei­spiel­code: Theory_stochastic_processes.py in unse­rem Tuto­ri­al­fol­der

[1] Mel­sa, J. L., & Sage, A. P. (2013). An Intro­duc­tion to Pro­ba­bi­li­ty and Sto­cha­stic Pro­ces­ses. New York: Cou­rier Corporation.

[2]  Bron­stein, I. N., Müh­lig, H., Musi­ol, G. & Semend­ja­jew, A. K. (2013). Taschen­buch der Mathe­ma­tik. Haan-Grui­ten: Ver­lag Europa-Lehrmittel

[3] Ras­mus­sen, C. E., & Wil­liams, C. K. (2005). Gaus­si­an Pro­ces­ses for Machi­ne Lear­ning. Cam­bridge: MIT Press.

[4] Chilès, J. P., & Del­fi­ner, P. (2009). Geo­sta­tis­tics: Mode­ling Spa­ti­al Uncer­tain­ty. New York: John Wiley & Sons.