Programare neliniare

Abrevierea "NLP" are și alte semnificații.

Problema programării neliniare este reprezentată de problema găsirii optimului unei anumite funcții obiective F (x 1. ... x n), \ ldots x _)>







unde x i. i = 1 .... n, i = 1, \ ldots, n> - parametri, gj. j = 1 .... s, j = 1, \ ldots, s> - constrângeri, n - număr de parametri, s - număr de constrângeri.

Spre deosebire de problema de programare liniară, în problema de programare a unui optim neliniar, ea nu se află neapărat pe limita domeniului definit de constrângeri.

Metode pentru rezolvarea problemei

Una dintre metodele care fac posibilă reducerea problemei programării neliniare la rezolvarea unui sistem de ecuații este metoda multiplicatorilor Lagrange nesigur.

Dacă funcția obiectivă F este liniară. și un spațiu limitat este un polytope. atunci problema este o problemă de programare liniară care poate fi rezolvată cu ajutorul unor soluții bine cunoscute de programare liniară.

Dacă funcția obiectiv este concavă (problema maximizării) sau convexă (problema de minimizare) și setul de constrângeri servește ca convex, atunci problema este numită convexă. și în cele mai multe cazuri pot fi utilizate metode generale de optimizare convexă.







Dacă funcția obiectivă este un raport al funcțiilor concave și convexe (cu maximizare) și constrângerile sunt convexe, atunci problema poate fi transformată într-o problemă de optimizare convexă folosind tehnici de programare fracționată.

Există mai multe metode pentru rezolvarea problemelor nonconvexe. O abordare este folosirea formulărilor speciale ale problemelor de programare liniară. O altă metodă implică utilizarea unor metode de ramură și limită. unde problema este împărțită în subclase care trebuie rezolvate cu convex (problemă de minimizare) sau aproximări lineare care formează limita inferioară a valorii totale în cadrul secțiunii. În secțiunile următoare, la un moment dat, se va obține decizia reală a cărei cost este egal cu cea mai bună limită inferioară obținută pentru oricare dintre soluțiile aproximative. Această soluție este optimă, deși poate nu este singura. Algoritmul poate fi reziliat într-un stadiu incipient, cu certitudinea că soluția optimă se încadrează în deviația admisă de la punctul cel mai bine găsit; astfel de puncte se numesc ε-optimale. Completarea punctelor ε-optimale, ca regulă, este necesară pentru a asigura finitatea finalizării. Acest lucru este util în special pentru sarcinile și sarcinile mari, complexe, cu costuri sau valori nedefinite, unde incertitudinea poate fi determinată dintr-o evaluare adecvată a fiabilității.

Condițiile de diferențiere și regularitate, condițiile Karush-Kun-Tucker (PCC) asigură condițiile necesare pentru optimizarea soluției. Cu convexitate, aceste condiții sunt de asemenea suficiente.







Articole similare

Trimiteți-le prietenilor: