01_Metodichka_bezuslovny szélsőérték

Emlékezzünk, hogy az n - dimenzió a tér a független változók. B lehetőség) különbözik a) változata, amely tartalmaz egy úgynevezett frissítési eljárás - minden egyes k, több n. átmenetet pontról pontra x k x k +1 kerül végrehajtásra, amint a módszer legmeredekebb származású. Megjegyzendő, hogy az átmenetet a pont-pont x 0 x 1 végezzük módszerével legmeredekebb származású, és abban az esetben az A) és b) esetben.

4. konvergencia. Konvergenciája bármely módszer tulajdonságaitól függ az f (x), a kiindulási pontig x 0, és a paraméterek az iteratív folyamat. A következő tétel hasznos.

1. Tétel ([1], s.47,83; [4], s.265). Tegyük fel, hogy az f (x) korlátos alulról, és annak gradiens Lipschitz. Ha az építési minimalizálása szekvencia által termelt 1. igénypont szerinti eljárás vagy a 2. igénypont B) vagy 3. igénypont B), akkor bármi a kezdeti pontot x 0,

Ha a pont x 0 olyan, hogy a beállított K (x 0) = korlátlan, a szekvenciát konvergál az S = stacionárius pont a függvény f (x), azaz

inf x - x k → 0. k → ∞.

Megjegyezzük, hogy a funkciók az osztály meghatározott 1. tétel, nagyon széles, és egy olyan stacionárius pont az ilyen funkciók lehetnek nem csak a globális szélsőérték pontot, de abban az értelemben is, a helyi szélsőérték és a nyereg pont. Azonban, amint azt az [5], gradiens-módszereket, például a „szinte soha” konvergálnak a maximális pont vagy nyereg pont. Ugyanakkor, nem tesz különbséget a helyi és globális minimum pont és konvergálnak ezek közül bármelyik (vagy inkább látni. [5], p.168).

Sebességének becsléséhez konvergencia a szekvencia minden egyes módszerek 1 - 3. igénypontok adható kellően szűk műveleti osztályok, bemutatva nagyon szigorú követelményeket simaságát és konvexitása f (x) függvények. Vegyük például az osztály kétszer folytonosan differenciálható erősen domború funkciókat. Kétszer folytonosan differenciálható függvény f (x) nevezzük erősen domború R n. ha van egy állandó l. l> 0, úgy, hogy minden x R n

L Y 2 ≤ (2 f (x) y, y). y R n,

2, ahol f (x) hesseni mátrix (Hesse) függvény f (x),

Ha az építőiparban a szekvencia által termelt 2. igénypont szerinti eljárás a B), vagy az 1. igénypont, majd a kezdeti pontot x 0, a szekvencia konvergál a minimális pont x ¯ lineáris sebességgel. Abban az esetben, eljárás 1. igénypont szerinti állandó q = (L - L) / (L + L).

Ha a felületi réteg van egy komplex funkciója, hogy minimalizálni kell erősen megnyúlt (vízlefolyókat) szerkezete, antigradient iránya eltér az irányt a minimális pont

és a konvergencia a gradiens módszerek lassul. Ezt a jelenséget nevezzük a hatása víznyelő. Indikátor víznyelő szomszédságában minimális x ¯ f (x) az aránya a legnagyobb sajátértéke hesseni mátrix 2 f (¯ x) a legkisebb ([5], lásd 28. o.). Minél magasabb a pontszám, annál több hosszúkás, és egy meredek „víznyelő” vízszintes felületen f (x) a szomszédságában X ¯

és lassabban konvergál szomszédságában a gradiens módszer (lásd [5]., p.150).

A konjugált gradiens módszer - a sebesség a legjobb tekinthető elsőrendű módszer (lásd [5] 3 fejezetében § 2 ..). A konjugált gradiens módszer esetén az iterációk száma szignifikánsan nagyobb n dimenziós. a következő eredményt (lásd [5]., 74. oldal).

3. tétel Legyen az f (x) háromszor differenciálható erősen domború funkciót. Ezután a sorozatot. épített a 3. igénypont szerinti eljárás a B) konvergál a minimális pont x ¯ f (x), és a szomszédságában x ¯ tart konvergenciamutató

x (k + 1) n - X ¯ ≤ C x kN - X ¯ 2. k = 1. 2.

A másodfokú függvény f (x) = 1 (a február Ax, x) - (b, x) (A - pozitív definit szimmetrikus mátrix) konjugált gradiens módszer konvergál belül véges számú lépésben, amely nem haladja meg az n. Így az egymást követő irányban p k megfelelő összefüggés (Ap i. P j) = 0, i = ̸ j. azaz Ezek ortogonális a metrikus által adott mátrix A, A - ortogonális (A - konjugált). Ezért - a neve a módszer (lásd [1] 2. fejezet § 3 ..).

A szerepe a konvergencia tétel gyakorlati számítások lássa., [5], c.39-43.

5. A kritériumok a végén a iteratív folyamat. elv

1 lehetővé teszi, hogy a végén a iteratív folyamat használja a feltétele a forma

A választás az adott pontossággal meghatározni δ δ

Azonban a helyes választás a δ egy adott értéket δ függ a szakterületen a kalkulátor. „Sajnos, megbízható kritériumok, a végén a számla, amely garantálja oldatot kapjuk meg a (1) a kívánt pontosságot, és alkalmazható a széles osztály a problémák, még” ([4], c.264). Ez a megjegyzés vonatkozik a többi az alábbiakban ismertetett módszerekkel.

2. §. másodrendű módszerek.

Között az alapvető másodrendű módszerek technikákkal az ötlet egy helyi közelítése egy adott funkciót egy másodfokú függvény.

Newton 1.Metod. Az iteratív képletek Ezen eljárás az alábbi heurisztikus megfontolások (lásd [5]., 36. o). Írunk az f (x) a szomszédságában x k Taylor formula 2. sorrendben

f (x) = Q k (x) + o (x - x k 2). X - X k → 0;

Q K (x) = f (x k) + (f (x k). (X-X k)) + 1 (a február 2 f (x k) (x-x k). (X-X k)). (10)

Abban az esetben, ha a hesseni 2 f (x k) pozitív definit, a másodfokú függvény Q k (x) elér egy globális minimum pontban

xk + 1 = xk - [2 f (x k)] - 1 f (x k),

(Q k (x k +1) = 0). Ha x k +1 pont elegendően közel x k. majd (10) a következő egyenlőtlenség

f (x k +1)

azaz x k +1 természetes, hogy az alábbi a x k közelítés a probléma megoldása (1). Képletű (11) iteratív képlet Newton módszer. Így ez a módszer, α k = 1,

p k = - [2 f (x k)] - 1 f (x k).

P k majdnem sokkal kényelmesebb nézni nem a (12) képletű és a megoldás a lineáris egyenletrendszer

[2 f (x k)] p k = -f (x k)

egyik közvetlen vagy iteratív módszerekkel (lásd. a megfelelő laboratóriumi munka), ezáltal megszüntetve a művelet kezelés hesseni. Megjegyezzük, hogy a másodfokú függvény f (x) Newton módszer konvergál egy lépésben. A kellően sima f (x) egy pozitív definit Hessian mátrixot a megfelelő választás a kezdeti közelítését x 0 iteratív szekvenciát Newton módszer konvergál a minimális pont egy kvadratikus sebességgel. Ahhoz azonban, hogy talál egy jó első megközelítésben - a feladat meglehetősen összetett, igénylő bizonyos szakterületen. Módosítása Newton módszer bevezetését változó faktor α k. előkészített származású módszerek, amelyek konvergálnak bármely kezdeti közelítését x 0.

2. A módszer a Newton-Raphson. Ebben az eljárásban, a süllyedés iránya határozza meg a (12) képletű, és a α K tényező. beállító lépést hossza lehet kiválasztani az alábbi módokon:

A) lépése szerinti eljárásban a legmeredekebb származású a minimális

f (x k + α k p k) = min f (x k + αp k)

(Lásd a megjegyzést az 1. igénypontban §1.); B) úgy, hogy az egyenlőtlenség

f (x k + α k p k) ≤ f (x k) + εα k (f (x k). p k),

ahol ε (0,1 / 2) -napered előre meghatározott állandó, azonos minden iteráció. Az algoritmus a megállapítás a faktor α k ugyanazok, mint a gradiens módszer aprító lépésben. A kezdeti érték

4. Tétel (cm. [2], Ch.2. § 2, 2. bekezdés). Tegyük fel, hogy az f (x) kétszer folytonosan differenciálható és végrehajthatók (6) és a második deriváltja kielégíti a Lipschitz feltételt. Ezután egy iteratív