You are not logged in | Log in

Optymalność algorytmów typu Eulera w zadaniu aproksymacji rozwiązań stochastycznych równań różniczkowych z nieciągłymi współczynnikami

Speaker(s)
Paweł Przybyłowicz
Affiliation
AGH
Date
March 18, 2010, 10 a.m.
Room
room 5840
Seminar
Seminar of Numerical Analysis Group

Rozważymy problem aproksymacji skalarnych stochastycznych równań różniczkowych postaci

(1)

 

dX(t) = σ1(t)a(X(t))dt + σ2(t)b(X(t))dW(t), t  \in [0, T],

X(0) = η,

 

przy czym zakładamy, że współczynniki σ1, σ2 : [0, TR mogą mieć skończoną ilość

nieznanych osobliwości w (0, T).

Rozpatrzymy najpierw przypadek regularny, w którym σ1, σ2 należą do klasy funkcji

Holderowsko ciągłych z wykładnikiem \varrho \in (0, 1]. W przypadku szumu addytywnego

(b \equiv const) pokażemy, że wśród wszystkich algorytmów adaptacyjnych klasyczny algorytm

Eulera XE ma optymalny błąd Θ(n-\varrho), \varrho \in (0, 1]. Dla równania (1) z szumem

multiplikatywnym udowodnimy, że algorytm XE ma błąd O(n-min{1/2,\varrho}) i jest on

optymalny gdy \varrho \in (0, 1/2].

W przypadku osobliwym założymy, ze σ1, σ2 należą do klasy funkcji kawałkami

spełniających warunek Holdera oraz, w nieznanych punktach osobliwych, prawostronnie

ciągłych. Zbadamy błąd algorytmu Eulera XE i pokażemy, że jedynie osobliwości σ2 wpływają na jego dokładność. Pozwoli nam to pokazać, że błąd tego algorytmuwynosi O(n-min{1/2,\varrho}), zarówno w przypadku szumu addytywnego jak i multiplikatywnego.Ponadto, wykorzystując wyniki dla całkowania Itô funkcji z osobliwościami       

udowodnimy, że dowolny algorytm nieadaptacyjny ze względu na σ2 (czyli np. XE)ma błąd nie mniejszy niż n-min{1/2,\varrho}. Ograniczenie to zachodzi nawet jeśli σ2 ma co najwyzej jeden nieznany punkt osobliwy. W celu zachowania poziomu błędu z przypadku 

regularnego, rozważymy algorytmy adaptacyjne ze względu na σ2. W przypadku

szumu addytywnego, gdy współczynnik σ2 ma co najwyżej jeden punkt osobliwy, skonstruujemy

zmodyfikowany algorytm Eulera XE, który najpierw wykrywa osobliwośćσ2 a następnie odpowiednio modyfikuje wyjściową dyskretyzację [0, T]. Algorytm ten zachowuje optymalny błąd Θ(n-\varrho) z przypadku regularnego. Rozważymy również przypadek wielu osobliwosci.