• Nebyly nalezeny žádné výsledky

2.2 Richardsonova metoda

N/A
N/A
Protected

Academic year: 2022

Podíl "2.2 Richardsonova metoda"

Copied!
2
0
0

Načítání.... (zobrazit plný text nyní)

Fulltext

(1)

2 Itera£ní metody pro °e²ení soustav lineárních rovnic s SPD maticí

2.1 Prostá itera£ní metoda

Metoda daná p°edpisem

ui+1=ui+ (b−Aui). Chyba po(i+ 1). iteraci:

ei+1 = ui+1−u=ui+b−A·ui−u=ui+A·u−A·ui−u=ei−A·ei=

= (I−A)·ei= (I−A)i+1·eo

P°íklad 2.1.

2 −1

−1 2

· u1

u2

= 0

1

λ−2 −1

−1 λ−2

= (λ−2)2−1⇒λ1= 3, λ2= 1

Vlastní £ísla zadané matice jsou kladná, matice je tedy symetrická a pozitivn¥

denitní. Její normované vlastní vektory ozna£mev1,v2, (kvik= 1).

e0=

2

X

k=1

αkvk

ei = (I−A)i·e0= (I−A)i·

2

X

k=1

αkvk=

2

X

k=1

αk·(I−A)i·vk=

2

X

k=1

αk·(1−λk)i·vk

keik=

" 2 X

k=1

α2k·(1−λk)2i

#1/2

→0

a tedy dostáváme podmínku konvergence (1−λk)i → 0. Metoda je tedy kon- vergentní, pokud λk ∈ (0,2), coº nenastane ve vý²e uvedeném p°ípad¥. Pomocí m·ºe být jednoduché ²kálování pomocíω >0:

A·u=b → ω·A·u=ω·b (²kálovaná soustava), A·v=λ·v → ω·A·v=ω·λ·v

ui+1=ui+ (ω·b−ω·A·ui) =ui+ω(b−A·ui)

Nap°íklad volbouω= 13 dostaneme maticiωA, jejíº vlastní £ísla jsou men²í neº 2 a máme zaru£enu konvergenci. Získáváme tak Richardsonovu metodu. 4

2.2 Richardsonova metoda

Richardsonova metoda je dána itera£ním p°edpisem ui+1=ui+ω(b−Aui), kdeω je vhodná konstanta.

Algoritmus 1 Richardsonova metoda u0←−

for i= 0,1, . . . ri =b−A·ui ui+i=ui+ω·ri end

2.2.1 Konvergence itera£ní metody

Richardsonova metoda pat°í mezi itera£ní metody minimalizující eukleidovskou normu chyby.

V¥ta 2.1. Nech´ Aje SPD,ω je vhodná konstanta, p°esn¥ji0< ω <2/λmax(A). Potom Richadsonova metoda daná p°edpisemui+1=ui+ω(b−Aui)konverguje, p°esn¥ji

kei+1k(m)=kui+1−uk(m)≤qi· ku0−uk(m) kde q= max

k |1−ωλk|<1, m= 0,1, . . .

D·kaz. Vyjád°íme po£áte£ní chybue0 v bázi vlastních vektor· matice A a dosa- díme do vzorce pro výpo£et chyby(i−1). iterace.

e0=X αkvk

ei= (I−ωA)ie0= (I−ωA)i·X

αkvk =X

αk·(1−ωλk)i·vk

keik2(m) =

k·(1−ωλk)i·vk

2 (m)=

= X

αk·λmk ·(1−ωλk)i·vk,X

αk·(1−ωλk)i·vk

=

= X

k

X

l

αk·λmk (1−ωλk)i·αl·(1−ωλl)i·(vk, vl) =

= X

αk2·λmk (1−ωλk)2i

≤ max

k |1−ωλk|2i·X

λmkα2k= max

k |1−ωλk|2i· ke0k2(m)=

= max

k

PiRk)

2· ke0k2(m)≤q2i· ke0k2(m), PiR(λ) = (1−ωλ)i(1)

(2)

Poznámka 2.1. Polynom

PiR(λ) =PiR,ω(λ) = (I−ωλ)i, (2) který se objevuje v (1), nazveme itera£ním polynomem Richardsonovy metody.

Redukce chyby souvisí s hodnotami tohoto polynomu v prvcíchλk ∈σ(A). 2.2.2 Volba optimálního faktoru

Konstantuωse snaºíme zvolit tak, aby norma rezidua klesala co nejrychleji. Nej- lep²í z takových konstant nazýváme optimálním faktorem a zna£ímeωopt.

Konvergen£ní faktor q = max|1−ωλk| musí být nutn¥ men²í neº1 a ideáln¥

co nejmen²í. Hledáme tedy takovou hodnotu ω, pro kterou je max|1−ωλk| co nejmen²í, viz. obrázek 1.

Obrázek 1: Optimální faktor

ωoptλn−1 = 1−ωoptλ1=⇒ωopt= 2

λn1 (3)

qopt= 1− 2 λn1

λ1= λn−λ1 λn1

=

λn λ1 −1

λn

λ1 + 1 =κ(A)−1

κ(A) + 1 (4) Optimální faktor m·ºeme vyjád°it také pomocí itera£ního polynomu. Minima- lizací polynomu (2) získáme práv¥ vý²e odvozený optimální faktorωopt, tedy

ωopt=argmin

ω

i=1,...,nmax

PωRi) = 2

λ1n.

Problém je ale v tom, ºe vlastní £ísla matice Av¥t²inou neznáme a ur£it je by bylo sloºit¥j²í neº °e²it p·vodní úlohu. Obvykle je tedy nahrazujeme jejich odhady, m·ºeme pouºít nap°. Ger²gorinovu v¥tu. Pokudλje odhad nejmen²ího vlastního

£ísla(0≤λ≤λ1)a λje odhad nejv¥t²ího vlastního £ísla λ≥λn, zvolíme kvazi optimální faktor

ωkopt= 2 λ+λ.

Pro konvergen£ní faktor dostaneme odhad

q= 1− 2

λ+λ·λ1=λ+λ−2·λ1

λ+λ ≤λ−λ

λ+λ = c−1 c+ 1,

kdec=λλ ≥κ(A). Neznáme-li proλ1 lep²í odhad neº hodnotu0, pouºijeme ω= 2

λ.

Pokud zvolímeωmimo interval(0,2/λmax), budou n¥které sloºky chyby nar·s- tat. Pokud zvolímeω z uvedeného intervalu, budou v²echny sloºky klesat, nejvíce ty, pro které je λk blízko 1/ω. Vhodnou volbou ω tak lze dosáhnout toho, ºe budou dob°e redukovány sloºky odpovídající velkým vlastním £ísl·m, opa£n¥ to nelze. Pomocí Richardsovy metody lze dosáhnout rychlé redukce oscilujících slo- ºek (sloºek odpovídajících oscilujícím vlastním vektor·m), velmi efektivní metodu dostaneme, kdyº zbývající sloºky (odpovídající men¥ oscilujícím, hladkým vlastní vektor·m) redukujeme jinou technikou - nap°. korekcí vypo£tenou pomocí hrub²í diskretizace, viz [Multigrid].

2.2.3 Ukon£ení iterací

ˆ sledovat rozdíl iteracíδi+1=ui+1−ui=ωri

ˆ sledovat reziduumri=b−A·ui −→ukon£ovací podmínkakrik ≤· kr0k Kolik iterací je pot°eba pro dosaºení dané p°esnosti ε:

qi ≤ ε

i·lnq ≤ lnε (q, ε <1) i ≥ lnε

lnq Výhody a nevýhody metody:

1. jednoduché operace, moºná paralelizace 2. pomalá konvergence

3. nutnost odhadnout parametrω Zrychlení metody:

ˆ volba r·zných parametr·ω=ωi pro jednotlivé iterace (vede na ƒeby²evovu metodu)

ˆ pro opravu vylep²it sm¥r rezidua (vede na metodu sdruºených gradient·)

Odkazy

Související dokumenty

L'int~grale de Riemann-Liouville et le probl~me de

Pokud pouºijeme metodu sdruºených gradient·, p°echázíme k metod¥ CG-NE (CG -

Název projektu školy: Výuka s ICT na SŠ obchodní České Budějovice. Šablona III/2: Inovace a zkvalitnění výuky

Z pohledu občana možná není samosprávná činnost kraje vnímána tak přímo jako činnost úřadu, i když dle mého názoru má rozhodující vliv, samozřejmě u

Velkou poctou po VŠERS též byla osobní účast dalších kolegů ze Slovenské a České republiky z takových významných pracovišť, jako jsou Univerzita Mateja Bela v

Stredoeurópska vysoká škola v Skalici 3/2009 Univerzita Mateja Bela v Banské Bystrici 4/2009 Mgr. Richard Říha Stredoeurópska vysoká škola v Skalici

„Bezpečnostně právní činnost ve veřejné správě“, které jsou jak v pre- zenční tak i kombinované formě studia, se škole podařilo v roce 2009 akreditovat nový

VŠERS, o.p.s. jako žadatel projektu získala již v době podání žádosti o finanční podporu cenné zkušenosti s realizací a řízením projektů, které byly financovány nejen