Gradient - funcție obiectivă - o enciclopedie mare de petrol și gaze, articol, pagina 4

Condițiile Kuhn Tucker sunt utile chiar dacă nu există restricții active la punctul optim. În acest caz, este luată în considerare numai gradientul funcției obiective. Trebuie să fie zero la punctul optim. [48]







Observăm că metoda celei mai abrupte coborâri reduce o problemă de optimizare multidimensională la o secvență de probleme unidimensionale la fiecare etapă de optimizare, precum și în cazul unei căderi coordonate. Diferența este că aici direcția de optimizare unidimensională este determinată de gradientul funcției obiective. în timp ce coborârea în coordonate se realizează la fiecare pas de-a lungul uneia dintre direcțiile de coordonate. [49]

Prin definitie, gradienti sunt normali la tangente atrase spre linii de nivel egal. Deoarece punctul de tangență optim pentru obiectivul meci funcționale și constrângerile funcțiilor, declivitatile funcției obiectiv și constrângerile funcționale oferite sunt coliniari și valorile lor sunt proporționale într-un factor de K. [50]

Gradientul funcției obiectiv la x este dată de Ax lateral stânga (4.3.34), dacă x este suficient de aproape de x Ax, în sensul că o aproximare pătratică este adecvată. Ag x: punctul optim local, a fost pe setul curent de constrângeri active, impun ca gradientul funcției obiectiv în acest punct a fost perpendicular pe suprafața formată de constrângerile activă. Aceasta înseamnă că proiecția vectorului de gradient pe această suprafață este zero, iar mișcarea ulterioară nu va duce la o îmbunătățire. Gradientului vector suprafață ortogonale formate constrângeri inegalități, trebuie să fie o combinație liniară a normalele la aceste limitări; aceste normale sunt date de partea dreaptă a lui (4.3.34), H, și // sunt numiți multiplicatori Lagrange. [51]

Prin urmare, atunci când se decide modul în care algoritm specific pentru rezolvarea acestei probleme, trebuie să luăm în considerare nu numai rata de convergență a algoritmului, dar, de asemenea, gradul de condiționalitate, care rezultă din natura problemei. În general vorbind, în cazul în care zona de căutare este foarte îngust și este ca o forma de banana, algoritmi care căutarea este efectuată de-a lungul direcției gradientului funcției obiectiv. sau metode de posibile direcții ale primului ordin (Sec. În ceea ce privește metodele de cvasi-Newton, metoda gradient conjugat și metodele posibile direcții de ordinul al doilea (Sec. Astfel, în cazul în care zona de căutare are o formă nefavorabilă, vom alege una dintre algoritmi convergente superlinearly, cu excepția cazului necesar timpului pentru o iterație, nu va fi foarte mare. [52]







Metoda de învățare deterministă modifică greutățile rețelei numai pe baza informațiilor despre direcția gradientului funcției obiectiv în spațiul de greutate. Pentru a forța rețeaua să părăsească extremumul local și să meargă în căutarea globalului, este necesar să se creeze o forță suplimentară care să nu depindă de gradientul funcției obiective. ci de alți factori. Alegerea acestor factori, mai mult sau mai puțin justificată de diferite considerații euristice, formează baza diferitelor metode de depășire a capcanelor locale. Una dintre metodele cele mai simple este să creezi pur și simplu o forță aleatorie și să o adaugi la determinism. [53]

Algoritmul ne permite să determinăm toate vârfurile semi-eficiente, deoarece acestea devin conectate prin marginile semi-eficiente în DDO. Rolul acestor coaste este că acestea limitează subdomeniile X, care sunt punctele interioare efective ale X. In cadrul acestor margini o combinație convexă a gradientii funcțiile obiectiv este egală cu vectorul zero. [54]

Așa cum am menționat deja, metoda gradientelor stohastice generalizate nu necesită diferențiabilitatea funcției obiective a unei probleme deterministe echivalente. Aici luăm în considerare o posibilă variantă a aplicării metodei direcțiilor posibile la rezolvarea problemei în două etape a programării liniar stochastice. Utilizarea și justificarea acestei metode necesită existența și continuitatea gradientului funcției obiective a unei probleme deterministe echivalente. Ca și în cazul prezentării altor metode, vom presupune posibilitatea de a calcula toate așteptările matematice ale căror valori sunt utilizate în algoritmul descris mai jos. [55]

Programarea neliniare este utilizată pentru funcțiile țintă neliniară și / sau constrângeri. Restricțiile au, de obicei, forma unor inegalități, care elimină soluția prin metoda multiplicatorilor Lagrange incert. Aceste probleme sunt de asemenea rezolvate prin căutări direcționate (de obicei pe baza gradientului funcției obiective), ceea ce duce la un extremum local. [56]

Determinarea valorilor parametrilor de optimizare care minimizează suma dependențelor (20.53) - (20.57), supusă acestor condiții (a doua etapă a soluției), are loc după cum urmează. Conform informațiilor despre starea de producție la momentul actual, valorile derivatelor parțiale ale funcției obiectiv sunt determinate din parametrii de optimizare. Valorile derivate ale derivaților sunt apoi utilizate pentru a schimba acești parametri în direcția opusă gradientului funcției obiectiv; în timp ce posibilitatea de mișcare în una din aceste direcții la fiecare pas este determinată de rezultatele obținute în prima etapă a soluționării problemei. Modelul de plantă necesar în a doua etapă a soluției constă în ecuația obținută prin însumarea dependențelor (20.53) - (20.57) și a condițiilor numite. Derivații parțiali ai funcției obiective în raport cu parametrii de control utilizați la optimizarea procesului depind de derivatele parțiale ale costurilor atelierului pentru parametrii de optimizare. [57]

Pagini: 1 2 3 4

Distribuiți acest link:






Articole similare

Trimiteți-le prietenilor: