Întrebări pentru secțiunea 13

Care este entropia unui proces continuu aleatoriu?

Cum apare entropia ergodicitatea unui proces aleatoriu?

Cum este determinată entropia unui proces aleatoriu ergodic continuu, dimensiunea lui?







Cum este determinată productivitatea unui proces aleatoriu ergodic continuu, dimensiunea lui?

14. Transmisia unui canal de comunicare continuă

Dacă x (t) - semnal la intrarea canalului de comunicație, AY (t) = x (t) + n (t) - semnal de la ieșirea sa (n (t) este raportul de zgomot aditiv), rata de informații pentru canalul de comunicații continuă va definit prin expresia (23), în care cantitatea de 1 / t trebuie înlocuit na2Fmax (sau 2Fk. presupunând sursa de semnal potrivite pentru canalul și lățimea de bandă Fk = Fmax)

în cazul în care, ca și mai înainte, H (y) - este entropia mesajelor de ieșire, H (y / x) - entropie de zgomot (de ce se numește că va fi evident din cele ce urmează).

Lățimea de bandă este egală cu rata maximă posibilă de transmisie pe canalul de comunicație atunci când sursa de semnal este pe deplin compatibilă cu caracteristicile canalului de comunicație:

Valoarea maximă a lui H (y) este atinsă în cazul legii distribuției gaussiene a variabilei aleatoare y. În acest caz,

Când se ia în considerare influența interferențelor, este necesar să se ia în considerare cel mai rău caz, când interferența este distribuită și în conformitate cu legea gaussiană.







Probabilitatea condiționată w (y / x) este pur și simplu probabilitatea distribuirii unei variabile aleatoare y la o valoare presupus cunoscută a lui x. deși x este aleatoriu. Dar, deoarece y (t) = x (t) + n (t). pot fi scrise

,

Definim entropia condiționată H (y / x)

.

În această expresie, se presupune că x este cunoscut în prealabil. Astfel, valoarea lui x în expresia de mai sus este pur și simplu așteptarea matematică a valorii y. Cu toate acestea, se știe că entropia unui proces aleatoriu continuu nu depinde de așteptările matematice.

Atunci vom obține asta

.

De aici vedem de ce entropia condiționată H (y / x) se numește entropia zgomotului.

Pentru distribuția zgomotului Gauss, valoarea maximă a entropiei de zgomot, în conformitate cu (35), va fi

Substituind (39) și (40) în (38), obținem.

Realizând numărul 2 sub semnul logaritmului, ajungem. În această expresie, s2n = Pn este puterea de interferență și s2y = s2x + s2n = Pc + Pn. unde PC este puterea semnalului la ieșirea canalului de comunicație. Având în vedere acest lucru, obținem în cele din urmă o formulă pentru calcularea debitului unui canal de comunicare continuă (formula lui Shannon):

În concluzie, putem observa următoarele.

Pentru a realiza o transmisie continuă a ratei de date canal de comunicare aproape de capacitatea de canal de comunicare, semnalul x (t) în structura statistică ar trebui să fie aproape de zgomotul de fluctuație (zgomot alb) din legea de distribuție Gauss.

Întrebări pentru secțiunea 14

Ce determină transferul unui canal de comunicare continuă?

Dați formula pentru găsirea capacității unui canal de comunicare continuu.

Cum se modifică capacitatea unei legături continue atunci când lărgimea efectivă a canalului crește?

Care sunt cerințele pentru semnal (structura sa statistică) pentru a aproxima rata de transmitere a semnalului continuu la capacitatea canalului?







Articole similare

Trimiteți-le prietenilor: