În general, un sistem automat constă dintr-un obiect de control și un set de dispozitive care asigură controlul acestui obiect. De regulă, acest set de dispozitive include dispozitive de măsurare, dispozitive de amplificare și conversie, precum și dispozitive de acționare. Dacă combinați aceste dispozitive într-o singură legătură (dispozitiv de control), atunci schema structurala sistemul arata asa:

ÎN sistem automat informații despre starea obiectului controlat sunt furnizate la intrarea dispozitivului de control prin intermediul dispozitivului de măsurare. Astfel de sisteme se numesc sisteme de feedback sau sisteme închise. Absența acestor informații în algoritmul de control indică faptul că sistemul este deschis. Vom descrie starea obiectului de control în orice moment variabile
, care se numesc coordonate de sistem sau variabile de stare. Este convenabil să le considerați coordonate - vector dimensional de stare.

Dispozitivul de măsurare oferă informații despre starea obiectului. Dacă se bazează pe măsurarea vectorială
pot fi găsite valorile tuturor coordonatelor
vector de stare
, atunci se spune că sistemul este complet observabil.

Dispozitivul de control generează o acțiune de control
. Pot exista mai multe astfel de acțiuni de control pe care le formează - vector de control dimensional.

Intrarea dispozitivului de control primește o intrare de referință
. Această acțiune de intrare conține informații despre starea obiectului. Obiectul de control poate fi supus unei influențe perturbatoare
, care reprezintă o sarcină sau o perturbare. Măsurarea coordonatelor unui obiect se realizează de obicei cu unele erori
, care sunt de asemenea aleatoare.

Sarcina dispozitivului de control este de a dezvolta o astfel de acțiune de control
astfel încât calitatea funcționării sistemului automat în ansamblu ar fi cea mai bună într-un anumit sens.

Vom lua în considerare obiectele de control care sunt gestionabile. Adică, vectorul de stare poate fi modificat după cum este necesar prin schimbarea corespunzătoare a vectorului de control. Vom presupune că obiectul este complet observabil.

De exemplu, poziția unei aeronave este caracterizată de șase coordonate de stat. Acest
- coordonatele centrului de masă,
- Unghiurile Euler, care determină orientarea aeronavei în raport cu centrul de masă. Atitudinea aeronavei poate fi modificată folosind ascensoare, direcție, eleron și vectoring de tracțiune. Astfel, vectorul de control este definit după cum urmează:

- unghiul de deviere a liftului

- bine

- eleron

- tractiune

Vector de stare
în acest caz se definește după cum urmează:

Puteți pune problema selectării unui control cu ​​ajutorul căruia aeronava este transferată dintr-o stare inițială dată
la o stare finală dată
Cu costuri minime combustibil sau într-un timp minim.

Complexitatea suplimentară în rezolvarea problemelor tehnice apare din cauza faptului că, de regulă, se impun diverse restricții asupra acțiunii de control și asupra coordonatelor de stare ale obiectului de control.

Există restricții cu privire la orice unghi al elevatoarelor, viciilor și eleronelor:



- tracțiunea în sine este limitată.

Coordonatele de stare ale obiectului de control și derivatele lor sunt, de asemenea, supuse unor restricții care sunt asociate cu supraîncărcările permise.

Vom lua în considerare obiectele de control care sunt descrise de ecuația diferențială:


(1)

Sau sub formă vectorială:

--vector dimensional al stării obiectului

--vector dimensional al acţiunilor de control

- funcția părții drepte a ecuației (1)

La vectorul de control
se impune o restricție, vom presupune că valorile acesteia aparțin unei regiuni închise niste -spațiul dimensional. Aceasta înseamnă că funcția executivă
aparține regiunii în orice moment (
).

Deci, de exemplu, dacă coordonatele funcției de control satisfac inegalitățile:


apoi zona este -cub dimensional.

Să numim orice funcție continuă pe bucăți un control admisibil
, ale căror valori în fiecare moment de timp aparține regiunii , și care poate avea discontinuități de primul fel. Rezultă că și în unele probleme de control optim soluția poate fi obținută în clasa controlului continuu pe bucăți. Pentru a selecta controlul
în funcţie de timp şi starea iniţială a sistemului
, care determină în mod unic mișcarea obiectului de control, se cere ca sistemul de ecuații (1) să îndeplinească condițiile teoremei de existență și unicitate a soluției în zonă.
. Această zonă conține posibile traiectorii ale mișcării obiectului și posibile funcții de control.
. Dacă domeniul de variație al variabilelor este convex, atunci pentru existența și unicitatea unei soluții este suficient ca funcția

. au fost continue în toate argumentele și au avut derivate parțiale continue cu privire la variabile

.

Ca criteriu care caracterizează calitatea funcționării sistemului, este selectat un funcțional al formei:

(2)

Ca o funcție
vom presupune că este continuă în toate argumentele sale și are derivate parțiale continue în raport cu

.

Prin ACS optim înțelegem cel mai bun sistem într-un anumit sens. Criteriile de optimizare pot fi diferite și depind de problema rezolvată. Cele mai comune criterii de optimitate sunt:

1) Precizia armelor autopropulsate sub influență în schimbare,

2) Timp de tranziție,

3) rentabil;

    Performanţă;

    Criterii integrale.

Pana acum cea mai mare dezvoltare a primit 2 direcții în teoria optimității sistemelor:

1) Teoria controlului optim al mișcării sistemelor cu informații complete despre obiect și perturbări;

    Teorii ale controlului optim sub perturbări aleatorii.

Pentru a implementa un control optim este necesar:

    Determinați scopul managementului. Scopul este exprimat fie printr-o funcție obiectiv, fie printr-un criteriu de optimizare.

Funcția obiectivă sau criteriul de optimizare vă permite să găsiți efectul cantitativ al oricărei soluții.

    Selectați un model pentru a analiza și a determina eficacitatea deciziei luate.

    Studiați toate stările mediului de operare al obiectului care afectează trecutul, prezentul și viitorul procesului de management.

La rezolvarea unei probleme de control optim se folosesc metode de calcul al variațiilor, principii maxime, precum și programare dinamică și matematică.

Problema de control optim în cazul general poate fi formulată după cum urmează:

1) Scopul de control, prezentat matematic sub forma unui criteriu funcțional sau de control

2) Ecuații de sistem - de obicei sunt date sub formă de ecuații de stare

3) Sistem de ecuații la limită la momentele inițiale și finale ale timpului.

4) Un sistem de constrângeri pe care trebuie să le satisfacă variabilele de stat și ecuațiile.

Trebuie să găsiți:

Un vector de control la care criteriul obiectivului de control are un extrem (max sau min).

Trebuie remarcat faptul că controlul optim în unele cazuri poate să nu existe, iar acest lucru nu poate fi judecat fără rezolvarea problemei. Soluția la problema găsirii controlului optim este ambiguă, adică. Fiecare soluție găsită oferă un optim local. Dacă se găsesc toate optimele locale, atunci poate fi identificat un optim global. Optimul global găsit este o soluție la problema de control optim.

Criterii de calitate integrale:

    Performanța optima

Funcționalitatea arată ca

    Performanța optima

Criteriul de optimitate este unghiul de rotatie  pentru un anumit timp t iar functionala are forma

    Eficiență optimă

Criteriul de optimitate este consumul de energie pentru un anumit timp iar functionalul are forma

28. Proiectarea analitică a regulatoarelor. Formularea problemei.

La studierea calității tranzitorilor în sistemele de control automat liniare au fost introduse criterii de calitate integrală difuză, cu ajutorul cărora procesul tranzitoriu a fost evaluat pe un interval de timp infinit. Luând în considerare criteriile integrale de calitate, am fost convinși că aceste criterii fac posibilă determinarea parametrilor regulatorului dacă este dată structura acestuia. Puteți pune o problemă mai generală: găsiți legea controlului - o funcție analitică care conectează coordonatele de control și acțiunea de control, livrând în același timp min la criteriul calității integrale. Această proiectare optimă a ecuației diferențiale a controlerului se numește proiectare analitică a controlerelor. În ceea ce privește metodele de rezolvare și formularea problemei, această problemă este asemănătoare cu problemele de control optim.

Aceasta este o problemă variațională, în care funcția care leagă X și U este căutată ca extremă.

În proiectarea analitică, sarcina este de a găsi o lege de control care, ținând cont de ecuațiile plantei și de condițiile la limită, să livreze min la integrala care caracterizează eroarea pătratică a sistemului și să garanteze stabilitatea acestuia.

Enunțarea problemei proiectării optime a regulatoarelor.

Obiectul de control este specificat folosind ecuații diferențiale, care sub formă de operator corespunde specificației funcției de transfer Wor(S) (sau W(S))

Se crede că sistemul nu este afectat de perturbații externe, iar procesul de tranziție are loc atunci când condițiile inițiale se schimbă.

X = y 0 – y - nepotrivire

Într-un sistem de control automat liniar stabil, ca rezultat al procesului de tranziție, toate funcțiile de coordonate ar trebui să tindă spre 0. x 1 () = x 2 () = ... x n () = U() = 0 (2)

Ca criteriu de optimitate alegem o integrală a formei

(3), unde V este o formă pătratică definită pozitivă.

Acestea. dacă substituim V în  (3), atunci aceasta va fi eroarea pătratică a sistemului.

Termenul U2 din (4) caracterizează costul procesului de control, adică. costul energiei pentru încălzire. U 2 garantează absența legilor care nu pot fi implementate în controlerele liniare garantează absența acțiunilor de control sub care viteza se întoarce la infinit;

Însăşi existenţa (3) garantează stabilitatea sistemului. În proiectarea analitică, sarcina este de a găsi sub formă analitică funcția Ф(U,U,x 1 ...x k) = 0 (5) - care, ținând cont de ecuațiile obiectului și condițiile la limită (1) și (2), ar oferi un minim la integrala (3).

6.2.1. Enunțarea și clasificarea problemelor în teoria controlului optim.În majoritatea covârșitoare a problemelor pe care le-am luat în considerare, factorii asociați cu modificările în timp ale obiectelor și sistemelor studiate au fost scoși din ecuație. Poate că, dacă sunt îndeplinite anumite condiții prealabile, o astfel de abordare este constructivă și legitimă. Cu toate acestea, este, de asemenea, evident că acest lucru nu este întotdeauna acceptabil. Există o clasă largă de probleme în care este necesar să se găsească acțiunile optime ale unui obiect, ținând cont de dinamica stărilor sale în timp și spațiu. Metodele de rezolvare a acestora sunt subiectul teorie matematică control optim.

Foarte vedere generala Problema de control optim poate fi formulată după cum urmează:

Există un anumit obiect, a cărui stare este caracterizată de două tipuri de parametri - parametrii de stare și parametrii de control, iar în funcție de alegerea acestuia din urmă, procesul de gestionare a obiectului decurge într-un fel sau altul. Calitatea procesului de control este evaluată folosind un anumit funcțional*, pe baza căruia este stabilită sarcina: să găsească o succesiune de valori ale parametrilor de control pentru care această funcționalitate ia o valoare extremă.

* Funcționalitate este o funcție numerică ale cărei argumente, de regulă, sunt alte funcții.

Din punct de vedere formal, multe probleme de control optim pot fi reduse la probleme de programare liniară sau neliniară marime mare, deoarece fiecare punct din spațiul stărilor are propriul său vector de variabile necunoscute. Totuși, de regulă, mișcarea în această direcție fără a ține cont de specificul problemelor corespunzătoare nu duce la algoritmi raționali și eficienți pentru rezolvarea acestora. Prin urmare, metodele de rezolvare a problemelor de control optim sunt asociate în mod tradițional cu alte aparate matematice, provenite din calculul variațiilor și teoria ecuațiilor integrale. De remarcat, de asemenea, că, din nou, din motive istorice, teoria controlului optim s-a concentrat pe aplicații fizice și tehnice, iar aplicarea ei pentru rezolvarea problemelor economice este, într-un anumit sens, de natură secundară. În același timp, într-o serie de cazuri, modelele de cercetare care utilizează aparatul teoriei controlului optim pot duce la rezultate semnificative și interesante.

La cele de mai sus, este necesar să se adauge o remarcă despre legătura strânsă care există între metodele utilizate pentru rezolvarea problemelor de control optim și programarea dinamică. În unele cazuri ele pot fi utilizate alternativ, iar în altele se pot completa reciproc cu succes.


Exista abordări diferite la clasificarea problemelor de control optim. În primul rând, acestea pot fi clasificate în funcție de obiectul de control:

Ø Ø sarcini de management cu parametrii concentrați;

Ø Ø sarcini de gestionare a obiectelor cu parametrii distribuiti.

Un exemplu al primului este controlul unei aeronave în ansamblu, iar cel de-al doilea este controlul unui proces tehnologic continuu.

În funcție de tipul de rezultate la care conduc controalele aplicate, există determinatȘi stocastică sarcini. În acest din urmă caz, rezultatul controlului este un set de rezultate descrise de probabilitățile de apariție a acestora.

Pe baza naturii schimbărilor din sistemul controlat de-a lungul timpului, sarcinile se disting:

Ø Ø cu discret timpuri schimbătoare;

Ø Ø cu continuu timpuri schimbătoare.

Problemele de gestionare a obiectelor cu un set discret sau continuu de stări posibile sunt clasificate în mod similar. Problemele de control pentru sistemele în care timpul și stările se modifică discret se numesc probleme de control mașini cu stări finite. În sfârșit, în anumite condiții, pot fi puse probleme de gestionare a sistemelor mixte.

Multe modele de sisteme gestionate se bazează pe dispozitiv ecuatii diferentiale atât derivate ordinare, cât și parțiale. La studierea sistemelor cu parametri distribuiți, în funcție de tipul de ecuații diferențiale parțiale utilizate, astfel de probleme de control optim se disting ca parabolice, eliptice sau hiperbolice.

Să luăm în considerare două exemple simple de probleme de gestionare a obiectelor economice.

Problema de alocare a resurselor. Disponibil T depozite cu numere i (i∊1:m), destinate depozitării unui produs omogen. În momente discrete în timp t∊0:(T-l) se distribuie intre obiecte de consum (clienti) cu numere j, j∊1:n. Reaprovizionarea stocului la punctele de depozitare a produselor în t- instant de timp este determinat de cantități a i t,i∊1:m, iar nevoile clienților pentru aceasta sunt egale b j t, j∊1:n. Să notăm prin c t i,j- costul livrării unei unităţi de produs din i al-lea depozit j-al-lea consumator la timp t. De asemenea, se presupune că produsul a primit la depozit la momentul respectiv t, poate fi folosit incepand din momentul urmator ( t+l). Pentru modelul formulat, sarcina este de a găsi un astfel de plan de distribuție a resurselor ( x t i,j} Tm X n, care minimizează costurile totale de livrare a produselor către consumatori din depozite pe toată perioada de funcționare a sistemului.

Desemnat de x t i,j cantitatea de produs furnizată j-al-lea client cu i depozitul în t al-lea moment de timp și după z t i- cantitatea totală de produs per i depozit, problema descrisă mai sus poate fi reprezentată ca problema găsirii unor astfel de seturi de variabile

care minimizează funcția

in conditii

unde este volumul stocurilor inițiale de produse din depozite z 0 i = ži. se presupune că sunt date.

Se numește problema (6.20)-(6.23). problema de programare liniară a transportului dinamic. În ceea ce privește terminologia de mai sus, variabile independente x t i,j reprezinta parametrii de control sistem și variabilele care depind de acestea z t i- totalitate parametrii de stare sisteme la un moment dat t. Restricții z t i≥ 0 garantează că în orice moment un volum de produs care depășește cantitatea sa reală nu poate fi exportat din niciun depozit, iar restricțiile (6.21) stabilesc regulile de modificare a acestei cantități atunci când se trece de la o perioadă la alta. Constrângerile de acest tip, care stabilesc condiții asupra valorilor parametrilor de stare a sistemului, sunt de obicei numite fază.

Rețineți, de asemenea, că condiția (6.21) servește ca exemplu cel mai simplu de restricții de fază, deoarece valorile parametrilor de stare pentru două perioade adiacente sunt asociate tȘi t+l. În general, se poate stabili o dependență pentru un grup de parametri aparținând mai multor etape, eventual necontigue. O astfel de nevoie poate apărea, de exemplu, atunci când se ia în considerare factorul de întârziere a livrării în modele.

Cel mai simplu model dinamic al macroeconomiei. Să ne imaginăm economia unei anumite regiuni ca un set P industrii ( j∊1:P), al cărui produs brut în termeni monetari la un moment dat t poate fi reprezentat ca un vector z t=(z t 1 , z t 2 ,..., z t n), Unde t∊0:(T-1). Să notăm prin A t matricea costurilor directe ale căror elemente a t i,j, reflectă costurile produsului i a-a industrie (în termeni monetari) pentru producerea unei unități de produs j-a industrie în t al-lea moment în timp. Dacă X t= ║x t i,jn X m- matrice care specifica standardele specifice de productie i-industria va extinde producția în j-a industrie, și YT = (YT 1 , YT 2 , ..., y t n) este vectorul volumelor de produse ale industriilor de consum care merg spre consum, atunci condiția reproducerii extinse poate fi scrisă ca

Unde z 0 = ž - stocul iniţial de produse ale industriilor se presupune a fi dat şi

În modelul luat în considerare, cantitățile z t sunt parametri ai stării sistemului și X t- parametri de control. Pe baza acesteia, pot fi puse diverse sarcini, un reprezentant tipic al cărora este problema producției optime a economiei în acest moment. T la o anumită stare dată z*. Aceasta sarcina se rezumă la găsirea unei secvențe de parametri de control

satisfacerea conditiilor (6.24)-(6.25) si minimizarea functiei

6.2.2. Cea mai simplă problemă de control optim. Una dintre tehnicile folosite pentru rezolvarea problemelor extreme este izolarea unei anumite probleme care admite o solutie relativ simpla, la care alte probleme pot fi reduse in viitor.

Să luăm în considerare așa-numitul cea mai simplă problemă de control. Ea arata ca

Specificul condițiilor problemei (6.27)-(6.29) este că funcțiile de control al calității (6.27) și restricțiile (6.28) sunt liniare în raport cu z t, în același timp funcție g(t, x t), incluse în (6.28), pot fi arbitrare. Ultima proprietate face ca problema să fie neliniară chiar și cu t=1, adică în versiunea statică.

Ideea generală de rezolvare a problemei (6.27)-(6.29) se rezumă la „împărțirea” acesteia în subsarcini pentru fiecare moment individual de timp, sub presupunerea că acestea sunt rezolvabile cu succes. Să construim funcția Lagrange pentru problema (6.27)-(6.29)

unde λ t- vectorul multiplicatorilor Lagrange ( t∊0:T). Restricțiile (6.29), care sunt de natură generală, nu sunt incluse în funcția (6.30) în acest caz. Să-l scriem într-o formă puțin diferită

Condiții necesare pentru extremul funcției Ф (x, z,λ) peste un set de vectori z t sunt date de un sistem de ecuații

Care e numit sistem pentru variabile conjugate. După cum puteți vedea, procesul de găsire a parametrilor λ tîn sistemul (6.32) se efectuează recursiv în ordine inversă.

Condiții necesare pentru extremul funcției Lagrange în variabilele λ t va fi echivalent cu restricțiile (6.28) și, în sfârșit, condițiile pentru extremul său asupra unui set de vectori x tX t, t∊1:(T-1) trebuie găsită ca urmare a rezolvării problemei

Astfel, problema găsirii controlului optim se reduce la căutarea controalelor care sunt suspecte de optimitate, adică acelea pentru care conditie necesara optimitatea. Aceasta, la rândul său, se rezumă la găsirea unor astfel de lucruri t, t, t, îndeplinind sistemul de condiții (6.28), (6.32), (6.33), care se numește Principiul maxim discret al lui Pontryagin.

Teorema este adevărată.

Dovada.

Lăsa t, t, t, satisface sistemul (6.28), (6.32), (6.33). Apoi din (6.31) și (6.32) rezultă că

iar din moment ce t satisface (6.33), atunci

Pe de altă parte, în virtutea (6.28) rezultă din (6.30) că pentru orice vector t

Prin urmare,

Aplicând teorema (6.2), precum și prevederile teoriei programării neliniare referitoare la legătura dintre soluția unei probleme extreme și existența unui punct de șa (vezi secțiunea 2.2.2), ajungem la concluzia că vectorii t, t sunt soluția celei mai simple probleme de control optim (6.27)-(6.29).

Drept urmare, am obținut în mod logic schema simpla soluţie la această problemă: din relaţiile (6.32) se determină variabilele conjugate t, apoi în cursul rezolvării problemei (6.33) se găsesc controalele t iar mai departe de (6.28) - traiectoria optimă a stărilor t,.

Metoda propusă se referă la rezultatele fundamentale ale teoriei controlului optim și, după cum am menționat mai sus, este importantă pentru rezolvarea multor probleme mai complexe, care, într-un fel sau altul, sunt reduse la cele mai simple. În același timp, limitele utilizării sale eficiente sunt evidente, care depind în întregime de posibilitatea de rezolvare a problemei (6.33).

CONCEPTE CHEIE

Ø Ø Joc, jucător, strategie.

Ø Ø Jocuri cu sumă zero.

Ø Ø Jocuri Matrix.

Ø Ø Jocuri antagoniste.

Ø Ø Principiile maximin si minimax.

Ø Ø Punctul de șa al jocului.

Ø Ø Pret joc.

Ø Ø Strategie mixtă.

Ø Ø Teorema principală a jocurilor matriceale.

Ø Ø Problemă dinamică de transport.

Ø Ø Cel mai simplu model dinamic al macroeconomiei.

Ø Ø Cea mai simplă problemă de control optim.

Ø Ø Principiul maxim discret al lui Pontryagin.

ÎNTREBĂRI DE CONTROL

6.1. Formulați pe scurt subiectul teoriei jocurilor ca disciplină științifică.

6.2. Care este sensul conceptului de „joc”?

6.3. Pentru a descrie ce situații economice poate fi folosit aparatul teoriei jocurilor?

6.4. Ce joc se numește antagonist?

6.5. Cum sunt definite în mod unic jocurile matrice?

6.6. Care sunt principiile maximin și minimax?

6.7. În ce condiții putem spune că un joc are un punct de șa?

6.8. Dați exemple de jocuri care au un punct de șa și cele care nu.

6.9. Ce abordări există pentru a determina strategiile optime?

6.10. Ce se numește „prețul jocului”?

6.11. Definiți conceptul de „strategie mixtă”.

BIBLIOGRAFIE

1. Abramov L.M., Kapustin V.F. Programare matematică. L., 1981.

2. Ashmanov S.A. Programare liniară: manual. indemnizatie. M., 1981.

3. Ashmanov S. A., Tikhonov A. V. Teoria optimizării în probleme și exerciții. M., 1991.

4. Bellman R. Programare dinamică. M., 1960.

5. Bellman R., Dreyfus S. Probleme aplicate de programare dinamică. M., 1965.

6. Gavurin M.K., Malozemov V.N. Probleme extreme cu constrângeri liniare. L., 1984.

7. Gass S. Programare liniară (metode și aplicații). M., 1961.

8. Gail D. Teoria liniară modele economice M., 1963.

9. Gill F., Murray W., Wright M. Optimizare practica / Transl. din engleza M., 1985.

10. Davydov E.G. Cercetare operațională: Proc. manual pentru studenți. M., 1990.

11. Danzig J. Programarea liniară, generalizările și aplicațiile sale. M., 1966.

12. Eremin I. I., Astafiev N. N. Introducere în teoria programării liniare și convexe. M., 1976.

13. Ermolyev Yu.M., Lyashko I.I., Mikhalevich V.S., Tyuptya V.I. Metode matematice de cercetare operațională: Proc. manual pentru universități. Kiev, 1979.

14. Zaichenko Yu P. Cercetare operațională, ed. a II-a. Kiev, 1979.

15. Zangwill W. I. Programare neliniară. Abordare unificată. M., 1973.

16. Zeutendijk G. Metode de direcții posibile. M., 1963.

17. Karlin S. Metode matematice în teoria jocurilor, programare și economie. M., 1964.

18. Karmanov V. G. Programare matematică: manual. indemnizatie. M., 1986.

19. Korbut A.A., Finkelyitein Yu.Yu. Programare discretă. M., 1968.

20. Kofman A., Henri-Laborder A. Metode și modele de cercetare operațională. M., 1977.

21. Kuntze G.P., Krelle V. Programare neliniară. M., 1965.

22. Lyashenko I.N., Karagodova E.A., Chernikova N.V., Shor N.3. Programare liniară și neliniară. Kiev, 1975.

23. McKinsey J. Introducere în teoria jocurilor. M., 1960.

24. Mukhacheva E. A., Rubinshtein G. Sh. Programare matematică. Novosibirsk, 1977.

25. Neumann J., Morgenstern O. Teoria jocurilor și comportamentul economic. M, 1970.

26. Ore O. Teoria grafurilor. M., 1968.

27. Taha X. Introducere în Cercetarea operațională / Trans. din engleza M., 1985.

28. Fiacco A., McCormick G. Programare neliniară. Metode de minimizare secvențială necondiționată. M., 1972.

29. Hadley J. Programare neliniară și dinamică. M., 1967.

30. Yudin D.B., Golshtein E.G. Programare liniară (teorie, metode și aplicații). M., 1969.

31. Yudin D.B., Golshtein E.G. Programare liniară. Teorie și metode finale. M., 1963.

32. Lapin L. Metode cantitative pentru deciziile de afaceri cu cazuri. A patra editie. HBJ, 1988.

33. Liitle I.D.C., Murty K.G., Sweeney D.W., Karel C. Un algoritm de călătorie pentru problema vânzătorului ambulant. - Cercetări operaționale, 1963, vol.11, Nr. 6, p. 972-989/ rusă. traducere: Little J., Murthy K., Sweeney D., Kerel K. Algoritm pentru rezolvarea problemei vânzătorului ambulant. - În cartea: Economie și metode matematice, 1965, vol. 1, p. 94-107.

PREFAŢĂ................................................. .. ................................................ ........................................................ .............................................................. ................... ..... 2

INTRODUCERE................................................. ....... ................................................. ............................................................. ................................................... ......................... ............. 3

CAPITOLUL 1. PROGRAMARE LINEARĂ................................................ ....... ................................................. ............................................................. ...... 8

1.1. FORMULAREA PROBLEMEI DE PROGRAMARE LINEARĂ............................................ ........................ ................................ ..................... 9

1.2. PROPRIETĂȚI DE BAZĂ ALE ZLP ȘI PRIMA SA INTERPRETARE GEOMETRICĂ............................................... .......................... ................. unsprezece

1.3. SOLUȚII DE BAZĂ ȘI A DOUA INTERPRETARE GEOMETRICĂ A ZLP............................................ .......................... ................................ .. 15

1.4. METODĂ SIMPLEX ................................................. .... ................................................. .......................................................... .................................................. .. 17

1.5. METODA SIMPLEX MODIFICATA.................................................. ............................................................. ........... .................................... 26

1.6. TEORIA DUALITĂȚII ÎN PROGRAMAREA LINEARĂ............................................... ........................................................ treizeci

1.7. METODA DUAL SIMPLEX.................................................. ............................................................. .......................................................... ................. .37

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ........................ 42

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... ............ ................................. 43

CAPITOLUL 2. PROGRAMARE NELINIARĂ............................................. ....... ................................................. ............. .................................... 44

2.1. METODE DE REZOLVARE A PROBLEMELOR DE PROGRAMARE NELINIARĂ............................................ ........................................................ 44

2.2. DUALITATEA ÎN PROGRAMARE NELINIARĂ................................................ .......................................................... ............................ ...55

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ................. 59

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... ............ ................................. 59

CAPITOLUL 3. SARCINI DE TRANSPORT ȘI DE REȚEA............................................ ........................................................ ............................................................... 60

3.1. PROBLEMA DE TRANSPORT ȘI METODE DE SOLUȚIONARE A EI........................................... ........................................................ ............................................. 60

3.2. SARCINI DE REȚEA................................................... .................................................. .......................................................... ............................ ................................ ............... 66

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ................. 73

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... ............ ................................. 73

CAPITOLUL 4. PROGRAMARE DISCRETA................................................ ....... ................................................. ............. .................................... 74

4.1. TIPURI DE SARCINI DE PROGRAMARE DISCRETE........................................... ..................... ................................ .............................................. 74

4.2. METODA GOMORI............................................................. ................................................... ........................................................ ............................................................... ........ 78

4.3. METODA RUMULUI ȘI LEGĂRILOR .................................................. ...................................................... ............ ................................................ ................. ........................ 81

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ................. 86

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... ............ ................................. 86

CAPITOLUL 5. PROGRAMARE DINAMICĂ............................................. ....... ................................................. ............................................. 86

5.1. SCHEMA GENERALĂ A METODELOR DE PROGRAMARE DINAMICĂ............................................ ........................ ................................ .......... 86

5.2. EXEMPLE DE PROBLEME DE PROGRAMARE DINAMICĂ............................................. ....................... ................................. ............................. .... 93

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ................. 101

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... .......................................................... 101

CAPITOLUL 6. SCURT PREZENTARE A ALTE SECȚIUNI DE CERCETARE OPERAȚIONALĂ....................................... ........... ........................ 101

6.1. TEORIA JOCULUI................................................ .................................................. ...................................................... ............ ................................................ .............. 101

6.2. TEORIA CONTROLULUI OPTIM .................................................. ..................... ................................ .......................................................... .................... 108

CONCEPTE CHEIE................................................ ................................................... ......................... ......................... ............................... ................... ................. 112

ÎNTREBĂRI DE CONTROL................................................. .................................................. ...................................................... .......................................................... 112

BIBLIOGRAFIE................................................. . .................................................. ............................................................. ........... .................................... 112

Instituție de învățământ de stat

studii profesionale superioare

Institutul de Fizică și Tehnologie din Moscova

(Universitate de stat)

AM APROBAT

Prorector pentru Afaceri Academice

Yu.A.Samarsky

„____”_______________2004

PROGRAM

curs: MANAGEMENT OPTIM

in directia 511600

facultatea FUPM

Departamentul de Fundamente Matematice ale Controlului

bine IV

semestrul 7, 8

cursuri – 50 de ore. Examen – semestrul 8

seminarii – 50 de ore. Test – semestrul 7

clase de laborator - nr

Munca independentă – 2 ore pe săptămână

TOTAL ORE 100

Programul și sarcina au fost întocmite de: doctor în științe fizice și matematice, profesorul Zhadan V.G.

Șef departament S.A. Guz

1. Principala problemă a controlului optim. Principiul maxim L.S. Pontryagin (principiul minim). Forma canonică a notației. Principiul maxim pentru sistemele care conțin parametri de control.

2. Probleme cu un capăt în mișcare din dreapta. Condiții de transversalitate. Problemele lui Lagrange și Boltz. Probleme Mayer și Lagrange cu timpul de finalizare a procesului nefixat. Provocarea vitezei. Problemă cu un capăt din stânga în mișcare.

3. Dovada principiului maxim L.S. Pontryagin pentru problema Mayer. Conceptul de variație a acului. Lema Gronwall-Bellman. Contabilizarea optimizării prin parametru de control.

4. Legatura principiului maximului cu calculul variatiilor. ecuația lui Euler. Primele integrale ale ecuației lui Euler. Condiții Weerstrass, Legendre și Jacobi. ecuația Jacobi. Condiții Weierstrass–Erdmann.

5. Sisteme liniare. Principiul maxim pentru sisteme liniare. Teorema privind numărul finit de puncte de comutare.

6. Set de accesibilitate pentru sisteme liniare. Control Extremși principiul extrem.

7. Controlabilitatea punctului pentru sisteme liniare. Criteriul de control al punctului. Teorema lui Kalman privind controlabilitatea punctului. Controlabilitatea completă a sistemelor liniare. Teorema lui Kalman privind controlabilitatea completă a sistemelor autonome.

8. Problemă de observabilitate. Criteriul de observabilitate pentru un sistem liniar. Observarea stării inițiale. Relația dintre observabilitate și controlabilitate. Criteriul de observabilitate completă a unui sistem staționar.

9. Formalismul Lagrange și utilizarea lui pentru rezolvarea problemelor de control optim. Problema sintezei optime a controlului.

10. Problema de identificare. Criteriul de identificare. Criteriul de identificare completă a unui sistem staționar.

11. Sisteme cu laturile drepte discontinue. Condiție de salt al pulsului.

12. Conceptul de sisteme invariante. Proprietăți sisteme dinamice. Câmp puls de referință. Condiții necesare și suficiente pentru invarianță. Funcția corectivă.

13. Condiții suficiente pentru optimitate. Câmpul extremelor. Legătura cu suficiente condiții Weierstrass pentru problema clasică a calculului variațiilor.

14. Elemente ale teoriei programării dinamice. Conditii necesare optimitatii. Condiții suficiente pentru optimitate. Ecuația Bellman. Derivarea principiului maximului din programarea dinamică. Legătura cu calculul variațiilor.

15. Metode de rezolvare a problemelor cu valori la limită. Aplicarea metodei lui Newton. Transferul condițiilor limită. Metoda sweep pentru probleme neliniare.

16. Metode numerice bazate pe analiza secvenţială a opţiunilor. Metoda „matură de Kiev”, metoda tubului rătăcitor, metoda variațiilor locale.

17. Metode numerice bazate pe reducerea la probleme de programare neliniară. Calculul derivatelor în raport cu componentele vectorului de control în cazul proceselor discrete. Metoda pedepsei, metoda funcțională încărcată.

18. Principiul minimului discret. Inegalități variaționale. Aplicarea metodei gradientului condiționat pentru rezolvarea problemelor de control optim. Principiul cvasi-minim.

19. Condiţii suficiente pentru optimitatea V.F. Krotov pentru procese continue și discrete. Aplicarea formalismului V.F. Krotov pentru rezolvarea problemelor liniare.

20. Controale speciale. Determinarea controalelor speciale folosind paranteze Poisson. Condițiile Kelly și Kopp–Moyer.

BIBLIOGRAFIE

1. Moiseev N.N. Metode numerice în teoria sistemelor optime. – M.: Nauka, 1971.

2. Evtușenko Yu.G. Metode de rezolvare a problemelor extreme și aplicarea lor în sisteme de optimizare. – M.: Nauka, 1982.

3. Moiseev N.N., Ivanilov Yu.P., Stolyarova E.M. Metode de optimizare. – M.: Nauka, 1987.

4. Pontryagin L.S., Boltyansky V.G., Gamkrelidze Z.V., Mishchenko E.F. Teoria matematică a proceselor optime. – M.: Fizmatgiz, 1961.

5. Vasiliev F.P. Metode de rezolvare a problemelor extreme. – M.: Nauka, 1988.

6. Gabasov R., Kirillova F.M. Principiul maxim din teoria controlului optim. – Minsk: Știință și tehnologie, 1974.

7. Fleming W., Richel R. Controlul optim al sistemelor deterministe și stocastice. – M.: Mir, 1978.

8. Fundamentele teoriei controlului optim /Editat de V.F. Krotova.– M.: Liceu, 1990.

9. Lee E.B., Marcus P. Fundamentele teoriei controlului optim. M.: Nauka, 1972.

10. Gabasov R., Kirillova F.M. Controale optime speciale. – M.: Nauka, 1973.

Puteți vizualiza sarcina

ADNOTARE

Acest manual prezintă condițiile de bază ale optimității și metodele de rezolvare a problemelor în calculul variațiilor și controlul optim. Va fi util pentru pregătirea și desfășurarea orelor practice la secțiunea „Control optim”, precum și pentru studenții care își fac temele pe această temă.

Tutorial este o versiune electronică a cărții:
Control optim în exemple și probleme. Sotskov A.I., Kolesnik G.V. - M.: Şcoala Economică Rusă, 2002 - 58 p.

Prefaţă

1. Cea mai simplă problemă în calculul variațiilor.
ecuația lui Euler
Exemple
Exerciții

2. Problemă de control optim. Principiul maxim
Exemple
Exerciții

3. Constrângeri de fază în problema de control optim
Exemple
Exerciții

4. Programarea dinamică și ecuația Bellman
Exemple
Exerciții

Literatură

Prefaţă

Teoria controlului optim este una dintre secțiunile cursului „Matematică pentru economiști” predat la Școala Rusă de Economie.
Experiența de predare arată că această secțiune este una dintre cele mai greu de stăpânit. Acest lucru se datorează în primul rând diferențelor conceptuale dintre problemele de control optim studiate în acesta și problemele de optimizare dimensională finită și, în consecință, complicației semnificative a condițiilor de optimitate utilizate în acestea.
În acest sens, pare util să oferim o ilustrare clară a aplicării acestor condiții de optimitate la rezolvarea problemelor tipuri variate. Acest manual este o încercare de a oferi o astfel de ilustrare. Conține exemple și probleme pe patru subiecte:
. calculul variațiilor;
. principiul maximului în probleme fără restricții;
. principiul maxim în prezența restricțiilor de fază;
. programare dinamică.
Fiecare secțiune constă dintr-o parte teoretică care descrie conceptele de bază și rezultatele utilizate în rezolvarea problemelor corespunzătoare, exemple cu soluții, precum și probleme pentru muncă independentă elevi.
Trebuie subliniat faptul că acest manual nu este în niciun caz un curs teoretic, ci este axat în primul rând pe aplicarea practică a metodelor optime de control. Ca ghid teoretic pentru aceasta sectiune Puteți recomanda, de exemplu, o carte.
Potrivit autorilor, acest manual va fi util profesorilor atunci când pregătesc și desfășoară orele practice la secțiunea „Control optim”, precum și elevilor când își fac temele pe această temă.

Versiune electronica cărți: [Descărcare, PDF, 633,8 KB].

Adobe Acrobat Reader este necesar pentru a vizualiza cartea în format PDF. versiune noua care poate fi descărcat gratuit de pe site-ul Adobe.