Nie jesteś zalogowany | Zaloguj się

Optymalność algorytmów typu Eulera w zadaniu aproksymacji rozwiązań stochastycznych równań różniczkowych z nieciągłymi współczynnikami

Prelegent(ci)
Paweł Przybyłowicz
Afiliacja
AGH
Termin
18 marca 2010 10:00
Pokój
p. 5840
Seminarium
Seminarium Zakładu Analizy Numerycznej

Rozważymy problem aproksymacji skalarnych stochastycznych równań różniczkowych postaci

(1)

 

dX(t) = σ1(t)a(X(t))dt + σ2(t)b(X(t))dW(t), t  \in [0, T],

X(0) = η,

 

przy czym zakładamy, że współczynniki σ1, σ2 : [0, TR mogą mieć skończoną ilość

nieznanych osobliwości w (0, T).

Rozpatrzymy najpierw przypadek regularny, w którym σ1, σ2 należą do klasy funkcji

Holderowsko ciągłych z wykładnikiem \varrho \in (0, 1]. W przypadku szumu addytywnego

(b \equiv const) pokażemy, że wśród wszystkich algorytmów adaptacyjnych klasyczny algorytm

Eulera XE ma optymalny błąd Θ(n-\varrho), \varrho \in (0, 1]. Dla równania (1) z szumem

multiplikatywnym udowodnimy, że algorytm XE ma błąd O(n-min{1/2,\varrho}) i jest on

optymalny gdy \varrho \in (0, 1/2].

W przypadku osobliwym założymy, ze σ1, σ2 należą do klasy funkcji kawałkami

spełniających warunek Holdera oraz, w nieznanych punktach osobliwych, prawostronnie

ciągłych. Zbadamy błąd algorytmu Eulera XE i pokażemy, że jedynie osobliwości σ2 wpływają na jego dokładność. Pozwoli nam to pokazać, że błąd tego algorytmuwynosi O(n-min{1/2,\varrho}), zarówno w przypadku szumu addytywnego jak i multiplikatywnego.Ponadto, wykorzystując wyniki dla całkowania Itô funkcji z osobliwościami       

udowodnimy, że dowolny algorytm nieadaptacyjny ze względu na σ2 (czyli np. XE)ma błąd nie mniejszy niż n-min{1/2,\varrho}. Ograniczenie to zachodzi nawet jeśli σ2 ma co najwyzej jeden nieznany punkt osobliwy. W celu zachowania poziomu błędu z przypadku 

regularnego, rozważymy algorytmy adaptacyjne ze względu na σ2. W przypadku

szumu addytywnego, gdy współczynnik σ2 ma co najwyżej jeden punkt osobliwy, skonstruujemy

zmodyfikowany algorytm Eulera XE, który najpierw wykrywa osobliwośćσ2 a następnie odpowiednio modyfikuje wyjściową dyskretyzację [0, T]. Algorytm ten zachowuje optymalny błąd Θ(n-\varrho) z przypadku regularnego. Rozważymy również przypadek wielu osobliwosci.