Societatea ca interpretare sinergetică a organismului social - realitate socială

Synergetics a apărut în anii 1960. Teoria atât fizice, cât și matematică a sistemelor disipative așa-numitele, adică deschise, care interacționează cu sistemele de mediu și își menține existența printr-un schimb continuu de materie și energie cu ea .. ( „disipare“ - din dissipare latină -. disipa). Lucrarea sa a fost inițiată de I. Prigogine (Belgia), iar numele "synergetics" a fost dat de G. Haken (Germania). O contribuție semnificativă la dezvoltarea sa a fost făcută de cercetătorii domestici S. Kurdyumov, A. Samarsky, V. Arnold, M. Wolkenstein și alții.







O formă specifică de interacțiune cu mediul pentru societate este producția materială. Ea servește ca bază pentru diversele forme de activitate economică ale oamenilor, menite să satisfacă nevoile lor materiale.

ü Autoorganizare. Sistemul este auto-organizare, în cazul în care are loc structura sa, este stocată și este complicată, ca urmare a producerii sale în procesele interne, și nu este impusă din exterior. Structura sistemelor suficient de complexe are un caracter ierarhic. Elementele sale sunt combinate într-un formațiuni structurale (subsistem) la diferite niveluri, care pot include formațiuni structurale alocate cel mai înalt rang, funcția de control de funcționare a întregului sistem.

ü Creșterea volumului informațiilor utilizate. Informația poate fi înțeleasă ca o măsură a ordinii, adică ca opusul entropiei, care este o măsură a tulburării, dezorganizării, haosului.

Pentru curiozitate, dar care nu cunoaște sau uită fizica. În scopul termodinamică și dezordinea determinată de numărul de moduri de a aranja elementele sistemului, cu condiția ca rearanjarea lor nu modifică proprietățile sale generale (starea sa macroscopică). Cu cât este mai mult acest număr, cu atât mai mult în sistemul de tulburare. Logaritmul acestui număr este entropia (Boltzmann): S = k ln W, unde S - entropia, W - numărul de diferite microscopice (referitoare la elementele individuale) stări care generează aceeași stare macroscopică a - constantă ( Constanta lui Boltzmann).

Entropia poate fi, de asemenea, interpretată ca incertitudinea stării microscopice a sistemului, datorită faptului că nu se știe care dintre toate căile posibile de aranjare a elementelor sale este efectiv realizată. Numărul S caracterizează această incertitudine. Evident, am putea să scăpăm de ea dacă am fi parcurs toate căile posibile și pentru fiecare dintre noi am hotărî dacă este sau nu cea pe care o căutăm. Dacă presupunem că rezolvarea acestei întrebări pentru fiecare dintre ele ne dă un pic de informație, atunci tot ce avem nevoie este să obținem exact cât de multe biți de informație, ca și toate aceste modalități. În consecință, informația pe care o am în acest caz este numeric egală cu entropia S. Această definiție a informațiilor (se numește statistică) este dată de K. Shannon.







Dar obținerea de informații despre această modalitate de aranjare a elementelor implementate în sistem înseamnă eliminarea incertitudinii. Acest lucru ne permite să considerăm entropia ca o măsură a lipsei de informații despre stările microscopice ale sistemului și despre informație - ca o valoare opusă acestuia în semn (distrugerea entropiei). Parametrul N, egal cu entropia cu semnul opus (N = -S), se numește entropie negativă sau negentropie. Astfel, I = -S = N. Această interrelație de informație și entropie exprimă principiul informațiilor negentropice formulate de Brillayoun.

Dacă informațiile despre stările microscopice ale sistemului pot fi extrase numai din observațiile stării lor macroscopice, atunci acestea din urmă trebuie să conțină această informație (cel puțin potențial). sistem termodinamic într-o stare de entropie maximă - echilibru termic - nu se poate stoca (informații stocate cărți - nu sunt în echilibru termic: ea a atins atunci când fluxul de cerneala departe și se amestecă cu hârtie într-o masă omogenă) de informații. Conform principiului negentropia de informații, numărul stocat în informațiile de sistem egal cu scăderea entropiei ei, adică. E. Deci, cu cât entropia sistemului, mai bea de confuzie și incertitudine, și, invers, mai multe date sistem, mai specifice și a ordonat starea ei.

WR Ashby a raportat noțiunile de entropie și informație la noțiunea de diversitate. Sub soiul este înțeleasă setul de părți distincte ale sistemului. Abilitatea unui sistem de a stoca informația este mai mare cu atât este mai mare diversitatea sa (sistem). Creșterea entropiei șterge diferențele dintre părțile sistemului și o face mai omogenă, adică reduce diversitatea sa. Și acest lucru limitează capacitatea de informare a sistemului. Diversitatea și complexitatea sistemului sunt interdependente. Sistemele complexe se caracterizează printr-o mare diversitate și, prin urmare, sunt capabile să păstreze o cantitate mare de informații.

G. Haken a propus să ia în considerare informațiile stocate în sistem ca un set de semnale care își schimbă elementele atunci când interacționează unul cu celălalt. Într-un sistem deschis de neechilibru, cu suficiente intrări de energie din exterior, elementele încep să funcționeze coerent, în conformitate cu acest schimb. Ca urmare, în cadrul sistemului apare un "mediu de informare", caracterizat printr-un parametru de ordin. Acest parametru, pe de o parte, generează comportamentul cooperativ al părților sistemului și, pe de altă parte, este generat de acțiunea lor comună. În același timp, oferă informațiile de vizualizare cu privire la organizarea ordonat macroscopic a sistemului, deoarece acesta este un produs de cooperare a părților sale adaugă, „stoarce“, în sine, informația despre starea microscopică a sistemului, și ca rezultat apare la nivel macro. Haken numește acest parametru informator, iar informațiile generate de acțiunea de cooperare a sistemului sunt informații sinergice. Creșterea informațiilor sinergetice este o condiție pentru auto-organizarea sistemului.

Societatea umană, ca sistem supercomplex, se distinge printr-o cantitate enormă de informații stocate în ea. Cu toate acestea, specificul său este determinat nu numai de acest lucru. Principala caracteristică a proceselor de informare în societate este că, în cazul persoanelor cu conștiință și inteligență, informația dobândește o calitate "supranaturală" specială - adică. Apariția sensului este un pas care creează un nou tip de procese de informare, cum ar fi în natură fără o persoană și ceea ce apare numai în societate.







Articole similare

Trimiteți-le prietenilor: