Măsurarea statică a informațiilor

Formula lui Hartley nu reflectă caracterul aleator al evenimentelor, deci în cazul general este necesar să se asigure o legătură între cantitatea de informații și probabilitatea apariției evenimentelor relevante (mesaje).







Această problemă a fost rezolvată în 1946 de către matematicianul american Claude Shannon.

Cu o abordare statistică (probabilă), informațiile sunt considerate drept o măsură a probabilității apariției unui mesaj corespunzător.

Din acest punct de vedere, cu cât este mai probabil evenimentul, cu atât mai puține informații din mesajul pe care îl avem despre el.

Multe tipuri de mesaje pot fi reduse la dublu.

În cazul general, un eveniment poate fi considerat rezultatul unui rezultat al unui experiment. Grupul complet al tuturor rezultatelor posibile de rezolvare a acestor situații se numește ansamblul de evenimente.

Măsurarea statică a informațiilor
.

Fie numărul total al tuturor rezultatelor posibile N, din care K nu se repetă.

Apoi, probabilitatea unui eveniment i-th.

Măsurarea statică a informațiilor
,
Măsurarea statică a informațiilor
.

Fiecare implementare a acestui eveniment oferă o anumită cantitate de informații

Măsurarea statică a informațiilor
, atunci cantitatea medie de informații dintr-un experiment poate fi exprimată ca:

Măsurarea statică a informațiilor

Măsurarea statică a informațiilor
Măsurarea statică a informațiilor
(1) este formula Hartley.

Măsurarea statică a informațiilor
(2) este formula Shannon.

4 Măsurarea statică a informațiilor. Probabilitate și informații

Formula lui Hartley nu reflectă caracterul aleator al evenimentelor, deci în cazul general este necesar să se asigure o legătură între cantitatea de informații și probabilitatea apariției evenimentelor relevante (mesaje).

Această problemă a fost rezolvată în 1946 de către matematicianul american Claude Shannon.

Cu o abordare statistică (probabilă), informațiile sunt considerate drept o măsură a probabilității apariției unui mesaj corespunzător.

Din acest punct de vedere, cu cât este mai probabil evenimentul, cu atât mai puține informații din mesajul pe care îl avem despre el.







Multe tipuri de mesaje pot fi reduse la dublu.

În cazul general, un eveniment poate fi considerat rezultatul unui rezultat al unui experiment. Grupul complet al tuturor rezultatelor posibile de rezolvare a acestor situații se numește ansamblul de evenimente.

Măsurarea statică a informațiilor
.

Fie numărul total al tuturor rezultatelor posibile N, din care K nu se repetă.

Apoi, probabilitatea unui eveniment i-th.

Măsurarea statică a informațiilor
,
Măsurarea statică a informațiilor
.

Fiecare implementare a acestui eveniment oferă o anumită cantitate de informații

Măsurarea statică a informațiilor
, atunci cantitatea medie de informații dintr-un experiment poate fi exprimată ca:

Măsurarea statică a informațiilor
,

Măsurarea statică a informațiilor
(1) este formula Hartley.

Măsurarea statică a informațiilor
(2) este formula Shannon.

Proprietățile entropiei

1. Entropia este măsurată în aceleași unități ca și cantitatea de informații.

Semnul "-" din formula (2) înseamnă că entropia nu este întotdeauna negativă, adică

Măsurarea statică a informațiilor
.

2. Entropia M atinge maximul dacă toate evenimentele sunt la fel de probabile.

3. H = 0 dacă probabilitatea unui eveniment i-a este 1.

Astfel, entropia este o măsură a incertitudinii comportamentului sursei de mesaje și caracterizează abilitatea acestei surse de a emite informații.

Odată cu creșterea numărului de stări posibile ale sistemului, energia crește.

În general, putem presupune că cantitatea de informații caracterizează scăderea entropiei ca urmare a procesului de cunoaștere.

Dacă incertitudinea este îndepărtată complet, cantitatea de energie este egală cu cantitatea de informații furnizată de sursă.

În cazul rezolvării incomplete a situației, cantitatea de informații este determinată de diferența dintre valorile inițiale și cele finale ale entropiei:

Măsurarea statică a informațiilor
,

și anume Cantitatea de informații va fi determinată de diferența dintre valorile entropiei inițiale și cele finale.

Cea mai mare cantitate de informații este obținută atunci când incertitudinea este îndepărtată complet.

Evenimentele reale, precum și simbolurile în relații reale, nu sunt independente reciproc și echilibrate, care poartă de fapt fiecare simbol individual, vor fi mai mici decât valoarea maximă posibilă din punct de vedere teoretic.

Pierderea informațiilor se caracterizează printr-un factor de redundanță:

Măsurarea statică a informațiilor
,

Măsurarea statică a informațiilor
.

Pentru canalele de transmisie a informației, este utilizată o caracteristică denumită rata de date a canalelor, aceasta este egală cu cantitatea medie de informație care poate fi transmisă pe canalul de comunicație per unitate de timp.

Cantitatea medie de informație produsă de sursa mesajului pe unitate de timp se numește capacitatea sursei.

Rata maximă a datelor pentru un canal este numită lărgimea de bandă a canalului.

Problema potrivirii performanței surselor de semnal și a capacității canalului de transmisie este una dintre cele mai importante sarcini ale teoriei și practicii de codificare a informațiilor.







Articole similare

Trimiteți-le prietenilor: