Biologia entropiei și rolul ei în construirea unei imagini moderne a lumii, abstract

2 entropia termodinamică

3 Entropia Universului

4 Entropie și informații

Entropia și viața. Comandarea biologică

Lista surselor utilizate







1 Ce este entropia

Printre toate cantitățile fizice care au intrat în știință în secolul al XIX-lea. entropia ocupă un loc special datorită destinului său extraordinar. De la început entropia a fost stabilită în teoria mașinilor termice. Cu toate acestea, foarte curând cadrul acestei teorii sa dovedit a fi strâns și a pătruns în alte domenii ale fizicii, în primul rând în teoria radiației. Expansiunea entropiei nu sa oprit aici. În contrast, de exemplu, din alte cantități termodinamice, entropia a trecut destul de rapid limitele fizicii. A invadat zone adiacente: cosmologia, biologia și, în final, teoria informațiilor [6].

Conceptul de entropie este multivaluat, este imposibil să i se dea singura definiție exactă. Cea mai comună este următoarea:

Entropia este o măsură a incertitudinii, o măsură a haosului.

În funcție de domeniul cunoașterii, se disting multe tipuri de entropie: entropia termodinamică, informația (entropia lui Shannon), cultura, entropia Gibbs, entropia lui Clausius și multe altele.

Entropia Boltzmann este o măsură a tulburării, aleatorie, omogenității sistemelor moleculare.

Sensul fizic al entropiei este clarificat atunci când se analizează microstatele materiei. L. Boltzmann a fost primul care a stabilit conexiunea entropiei cu probabilitatea de stat. În formula lui M. Planck declarația care exprimă această legătură și a numit principiul Boltzmann este reprezentată de o formulă simplă

Boltzmann nu a scris niciodată această formulă. Planck a făcut asta. El a introdus de asemenea introducerea constantei Boltzmann kB. Termenul "principiul Boltzmann" a fost introdus de A. Einstein. Probabilitatea termodinamică a stării W sau greutatea statistică a acestei stări este numărul de căi (numărul de micro-stații) cu care se poate realiza macrostatul dat [6]. Entropia Clausius este proporțională cu cantitatea de energie legată în sistem care nu poate fi transformată în muncă. Entropia Shannon cuantifică fiabilitatea semnalului transmis și este utilizată pentru a calcula cantitatea de informații.

Să analizăm în detaliu entropia termodinamică, entropia Shannon (informațională), legătura dintre entropie și ordonarea biologică.

2. entropia termodinamică

Entropia ca o cantitate fizică a fost introdusă pentru prima dată în termodinamica lui R. Clausius în 1865. El a determinat schimbarea entropiei unui sistem termodinamic cu un proces reversibil ca raport al modificării cantității totale de căldură Q la temperatura absolută T:

.

Entropia în termodinamică - o măsură a disipării energiei ireversibile, este o funcție a stării sistemului termodinamic [8].

Existența entropiei se datorează celei de-a doua lege a termodinamicii. Deoarece orice sistem real care suferă un ciclu de operații și revine la starea inițială funcționează numai prin creșterea entropiei mediului extern cu care sistemul este în contact. Acest lucru înseamnă, de asemenea, că în nici un stadiu al ciclului suma schimbărilor în entropia sistemului și a mediului extern nu poate fi negativă. Astfel, a doua lege a termodinamicii admite următoarea formulă:

Suma schimbărilor din entropia sistemului și a mediului extern nu poate scădea.

În consecință, Universul ca întreg nu se poate întoarce la starea sa inițială.

Rudolph Clausius același prim și al doilea principiu al termodinamicii au fost rezumate după cum urmează:

Energia universului este constantă.

Entropia universului tinde spre un maxim.

Datorită proceselor ireversibile, entropia unui sistem izolat continuă să crească până când atinge valoarea maximă posibilă. Statul atins în această stare este o stare de echilibru. [7, p. 130] Din această formulare a celei de-a doua legi rezultă că, la sfârșitul procesului evolutiv, universul ar trebui să ajungă la o stare de echilibru termodinamic (într-o stare de moarte termică), la care corespunde dezorganizarea completă a sistemului. Ideea morții termale a universului, care rezultă din formularea celui de-al doilea principiu propus de Clausius, este un exemplu al transferului greșit al legilor termodinamicii într-o zonă în care nu mai funcționează. Legile termodinamicii sunt aplicabile, după cum se știe, numai sistemelor termodinamice, Universul nu este astfel [6].







După cum sa menționat deja, legile termodinamicii nu pot fi aplicate la universul ca întreg, deoarece nu este un sistem termodinamic, dar în univers poate fi identificat subsistem, care se aplică descrierea termodinamic. Aceste subsisteme includ, de exemplu, toate obiectele compacte (stele, planete, și altele.) Sau radiație de fond (temperatura de radiație termică cu 2,73 K). radiații cosmice de fond are originea în Big Bang, care a dus la formarea universului, și a avut o temperatură de aproximativ 4000 K. În timpul nostru, adică, după 10-20 de miliarde de ani dupa Big Bang, este primar (relicva) radiații, au trăit toți acești ani în univers în expansiune , răcit până la temperatura indicată. Calculele arată că entropia totală a tuturor obiectelor observate compacte este neglijabilă în comparație cu entropia CMB. Motivul pentru acest lucru, în primul rând prin aceea că numărul de fotoni primordiale foarte mari: pentru fiecare atom din univers pentru aproximativ 10 septembrie fotoni [6]. Considerarea entropiei a componentelor universului ne permite să tragem o altă concluzie. Conform estimărilor actuale, entropia totală a universului, care pot fi observate cu mai mult de 10 până la 30 de ori mai mică decât entropia substanței de aceeași parte a universului condensat într-o gaură neagră. Aceasta arată cât de departe partea din jur a universului se află din starea cea mai neordonată.

4 Entropie și informații

Rudolf Klausius, deja menționat, are și o altă formulare a celei de-a doua Legi a termodinamicii: "Un proces este imposibil, singurul rezultat al căruia ar fi transferul căldurii dintr-un corp mai rece într-unul mai fierbinte".

Un experiment de gândire propus de James Clerk Maxwell în 1867, să presupunem că un vas cu membrană impermeabilă la gaz este împărțit în două părți: stânga și dreapta. Gaura șicană cu un dispozitiv (așa-numitul demon al lui Maxwell), care permite zbura rapidă molecule (fierbinte) de gaz numai din partea stanga la dreapta vasului, și un lent molecule (rece) - numai partea dreaptă a navei spre stânga. Apoi, printr-o lungă perioadă de timp, moleculele fierbinți vor fi în container corect și se răcește. - la stânga [4]

I (x, y) = log (p (x / y) / p (x)),

unde p (x) este probabilitatea evenimentului x inaintea evenimentului y (probabilitate neconditionata); p (x / y) este probabilitatea evenimentului x când apare evenimentul y (probabilitate condiționată).

Evenimentele x și y sunt de obicei înțelese ca stimul și reacție, intrare și ieșire, semnificația a două variabile diferite care caracterizează starea sistemului, un eveniment, un mesaj despre el. Valoarea I (x) se numește informația proprietății conținută în evenimentul x.

Luați în considerare un exemplu: ni sa spus (y) că regina stă pe șah pe poziția x = a4. Dacă mesajul probabilitatea sta regina în toate pozițiile au fost aceleași și egale cu p (x) = 1/64, informațiile primite este egal cu

I (x) = log (1 / (1/64)) = log (64) = 6 biți. [3, P.12]

Ca unitate de informare I, cantitatea de informații dintr-un mesaj de eveniment fiabil este luată, probabilitatea a priori fiind de 1/2. Această unitate se numește "biți" (din cifrele binare englezești). [1]

Să presupunem acum că mesajul primit nu a fost destul de precis, de exemplu, ni sa spus că regina se află fie în poziția a3, fie în poziția a4. Atunci probabilitatea condiționată a șederii sale la poziția x = a4 nu mai este egală cu una, ci p (x / y) = ½. Informațiile primite vor fi egale cu

I (x, y) = log ((1/2) / (1/64)) = 5 biți,

adică, va scădea cu 1 biți în comparație cu cazul anterior. Astfel, informația reciprocă este mai mare cu cât acuratețea mesajului este mai mare, iar în limita se apropie informațiile proprii. Entropia poate fi definită ca o măsură a incertitudinii sau ca o măsură a varietății stărilor posibile ale unui sistem. Dacă sistemul poate fi în una dintre stările echivalente m, atunci entropia H este egală cu

De exemplu, numărul de poziții diferite ale reginei pe o tablă de șah gol este m = 64. În consecință, entropia stărilor posibile este

H = log64 = 8 biți.

Dacă o bucată din tabla de șah este ocupată de figuri și este inaccesibil reginei, atunci varietatea stărilor sale posibile și entropia scad.

Se poate spune că entropia servește drept măsură a libertății sistemului: cu cât este mai mare gradul de libertate, cu atât mai puține restricții impuse, cu atât mai mult, de regulă, entropia sistemului [3, C.13-15]. În acest caz, entropia zero corespunde informațiilor complete (gradul de ignoranță este zero), iar entropia maximă este ignoranța completă a microstațiilor (gradul de ignoranță este maxim) [6].

Fenomenul scăderii entropiei datorate primirii informațiilor se reflectă în principiul formulat în 1953 de fizicianul american Leon Brullien, care a investigat interconversia tipurilor de energie. Formularea principiului este după cum urmează: "Informația este o contribuție negativă la entropie". Principiul se numește principiul negentropic al informațiilor [5]. Conceptul negentropiei (la fel ca entropia negativă sau sinopia) este de asemenea aplicabil sistemelor vii, adică enropia exportată de sistemul viu pentru a-și reduce propriul nivel de entropie.

6. Entropia și viața. Comandarea biologică

Problema relației dintre viață și a doua lege a termodinamicii este chestiunea dacă viața este o insulă de rezistență față de al doilea principiu. Într-adevăr, evoluția vieții pe Pământ merge de la simplu la complex, iar a doua lege a termodinamicii prezice calea inversă a evoluției - de la complex la simplu. Această contradicție este explicată în cadrul termodinamicii proceselor ireversibile. Un organism viu ca un sistem termodinamic deschis consumă mai puțin entropie decât aruncă-l în mediul înconjurător. Cantitatea de entropie din alimente este mai mică decât în ​​produsele de excreție. Cu alte cuvinte, există un organism viu datorită faptului că are capacitatea de a arunca entropia generată în el prin procese ireversibile în mediu [6].

Astfel, un exemplu viu este ordinea organizării biologice a corpului uman. Coborârea entropie când numita organizație biologică compensată cu ușurință procese fizice și chimice triviale, în special, de exemplu, prin evaporare 170 g de apă [1].

Lista surselor utilizate

Mai mult din secțiunea Biologie:







Trimiteți-le prietenilor: