Materiale informative

2. Ce parametri reflectă evaluarea calitativă a tehnologiei informației? Evaluare cantitativă?

4. Care este procesul de optimizare a proceselor? Dați un exemplu de criterii de optimizare, justificați oportunitatea aplicării acestora în acest caz sau în acel caz.







5. Scrieți cerințele pentru tehnologia soluției interactive. Explicați-le.

Entropia este o măsură a incertitudinii; o măsură universală a tulburărilor, dezorganizării, haosului.

Negentropia este o măsură a ordinii.

Probabilitatea este frecvența relativă a unui anumit rezultat al unui eveniment dintr-un set de posibile.

Conceptul este cea mai mică unitate de reflecție, pe baza căreia sunt construite modele ale obiectelor și proceselor afișate.

Eficacitatea activității profesionale depinde într-o mare măsură de nivelul organizării proceselor de informare. Pentru a crește nivelul de organizare, este necesar să se înțeleagă natura informațiilor și specificul proceselor de informare care au loc în economie.

Omul învață lumea din jurul său prin cunoașterea senzorială și gândirea abstractă. Imaginea obiectului în conștiința individului este modelul de informație al obiectului (reflectarea subiectivă a proprietăților și a caracteristicilor obiectului). Stările obiectelor, conexiunile și interacțiunile dintre ele într-un anumit moment al timpului, fixate de individ prin simțuri, instrumente etc. - date.

În activitatea profesională, specialiștii folosesc anumite date care dobândesc semnificație personală (în raport cu un specialist). Datele folosite în procesul de rezolvare a unei anumite probleme devin informații (esența semnificației pragmatice a informațiilor). Gradul de conținut informativ al datelor este determinat de cât de complet (dintr-o poziție de semnificație semantică) și eficient (din punct de vedere al timpului, efortului și mijloacelor) le furnizează procesul de luare a deciziilor.

Informația este o proprietate universală, universală, a materiei, care exprimă natura și gradul ei de ordine.

Schimbarea ideilor despre informație a fost facilitată de apariția unei teorii "statistice" a informațiilor. K. Shannon și N. Wiener au propus o măsură a cantității de informații și au investigat proprietățile sale, pe baza conceptului de probabilitate și incertitudine.

Un eveniment care are un număr finit de rezultate posibile este caracterizat de incertitudine, în funcție de numărul de rezultate posibile și de probabilitatea fiecăruia dintre acestea. Incertitudinea unui rezultat poate fi măsurată prin logaritmul probabilității sale, iar pentru eveniment ca un întreg, a fost propusă o măsură de incertitudine, numită entropie.

H () = p (Ai) log p (Ai)

Ai - oricare dintre posibilele rezultate ale unui eveniment;

p (Ai) este probabilitatea rezultatului Ai;

k este probabilitatea unor posibile rezultate.

Dacă log p (Ai) - măsoară incertitudinea unui rezultat, atunci entropia evenimentului are semnificația incertitudinii medii ponderate a tuturor rezultatelor cu greutăți p (Ai)

Entropia ca măsură de incertitudine se caracterizează prin următoarele proprietăți:

· Atunci când un număr predeterminat de rezultate posibile ale entropia este maximizată în cazul în care toate rezultatele sunt la fel de probabil, și joasă, în cazul în care probabilitatea de unul dintre rezultatele au tendința de a unității;

Entropia a două evenimente independente este egală cu suma fiecăruia dintre ele.

· Dacă evenimentele sunt interdependente, adică rezultatul uneia afectează rezultatul celuilalt, atunci entropia acestor evenimente este egală cu suma entropiei condiționate a celui de-al doilea eveniment (dependent), sub condiția primei și a entropiei primului eveniment.

Pe baza măsurii de incertitudine introdusă, se introduce o măsură a cantității de informații. care în teoria informațiilor este tratată ca o măsură de eliminare sau reducere a incertitudinii în realizarea unui eveniment.

Cantitatea de informații despre rezultatul obținut de Ai atunci când un eveniment este comis va fi:

I (Ai) = log p1 (Ai) - log p0 (Ai) = log

Dacă evenimentul a avut un rezultat Ai. atunci p1 (Ai) = 1, și așa mai departe

I (Ai) = log = - log p0 (Ai)

Prin urmare, rezultă că, cu cât este mai mare probabilitatea rezultatului înainte de eveniment, cu atât este mai puțin cantitatea de informații obținute după implementare și viceversa. Cu cât mesajul este mai neașteptat, cu atât este mai puțin probabil ca acesta să fie, cu atât mai multe informații conțin.

Dacă un singur eveniment Ai rezultă din cantitatea de informații

atunci suma medie a informațiilor livrate de o tranzacție referitoare la un eveniment este:

unde H () este entropia evenimentului;

H () - entropia condiționată a evenimentului în condiția evenimentului;

Aceste expresii sunt fixate cantitative definiție (operațională) a informațiilor ca o măsură pentru a reduce incertitudinea care stă la baza teoriei informații statistice, care descrie amploarea noilor lucruri pe care le învățăm despre rezultatul probabil al unor informații eveniment absolut, atunci când acesta devine cunoscut rezultatul celorlalte evenimente asociate cu prima.

Cel mai adesea, acest eveniment ne interesează ca o sursă de informații despre alte evenimente legate de acesta, despre care nu știm cu toții. Prin organizarea de observații asupra proceselor economice și prin păstrarea evidențelor acestora, organizăm în mod deliberat experimente (evenimente) care ne permit să obținem informații despre alte procese care nu pot fi observate direct, fie pentru că nu se află pe suprafața fenomenului, fie pentru că ele urmează să fie realizate.







Informațiile nu conțin mesaje, informații, date, ci doar acelea care reduc incertitudinea cu privire la rezultatul evenimentelor de interes pentru noi. Cu alte cuvinte, informațiile conțin numai informațiile primite recent.

Măsura de informare de mai sus se bazează pe probabilitatea statistică, înțeleasă ca frecvența relativă a acestui rezultat din setul de posibile cu numărul de încercări care tinde spre infinit. Prin urmare, teoria modernă a informațiilor se numește statistică. Această teorie este complet abstractizată din conținutul mesajului, iar valoarea pentru un anumit consumator este asociată cu un singur factor - o surpriză.

Măsura de informații luată în considerare nu răspunde la întrebările legate de natura sa calitativă, adică nu permite să se dea o definiție semnificativă a informațiilor. Sunt propuse diferite concepte, care, într-o oarecare măsură, permit explicarea naturii proceselor de informare în diferite domenii.

Conform reprezentării obișnuite, informația apare numai în comunicarea dintre oameni și este un produs al conștiinței umane. Procesele de informare se desfășoară în sisteme de orice natură, atât vii, cât și nevăzători. Entropia este considerată o măsură universală a tulburării, dezorganizării, haosului. Informația se opune entropiei, contracarează creșterea acesteia și caracterizează creșterea organizării. Ea este astfel tensionată și fixă ​​în ansamblul relațiilor ordonate între elementele lor.

Reflecția ca atribut al materiei se manifestă în interacțiunea obiectelor materiale, atunci când efectul unui obiect reproduce în cealaltă sau alte proprietăți ale primului. La niveluri mai ridicate reflectă organizația (o persoană), se manifestă în abilitatea de a forma concepte abstracte surprinde asocierile complexe dintre ele, să construiască concepte de judecăți și alte modele extrem de complexe de situații reale.

Ca și procesele de energie reală, reflecția este caracterizată de diversitate. Dar la nivelul proceselor de energie reală, măsura diversității este entropia. Se opune unui ordin de ordine, pe care omul de știință francez L. Brillouin a propus să-l numească negentropie. La nivelul reflecției, diversitatea este desemnată de conceptul de "zgomot", formal identic cu entropia, dar diferit în natură. În mod similar, noțiunile de negentropie și informație sunt diferite.

Reflecția ordonată a lumii reale în mintea omului este cunoașterea. Datorită acestui fapt, informația este înțeleasă ca o creștere a cunoașterii unui anumit subiect al unui obiect relativ afișat, care prezintă interes în ceea ce privește rezolvarea unei probleme.

Cunoașterea, ca formă de reflecție ordonată, are o structură ierarhică puternică.

Un element necesar în procesul de ordonare a reflexiei este un anumit efect fizic îndreptat spre sistemul de reflecție și fiind un purtător de material al informațiilor. Astfel de efecte fizice se numesc semnale.

În semiotică (știința semnelor), se disting următoarele tipuri de semnale în funcție de modul de transmitere a reflexiei:

· Semnale - indici - manifestarea proprietăților naturale ale surselor lor;

· Semnale-copii-reproduce forma exterioară a obiectului reflectat;

· Semne condiționate sau pur și simplu - aceasta semnale care nu sunt nici o manifestare a proprietăților naturale ale obiectelor sau transferul de forma lor externă, dar capabile de a fi purtători de informație numai în virtutea destinatarilor și expeditorilor de semnale de grup de acord prealabil. Masa copleșitoare de informații din societate este colectată, transmisă, prelucrată prin semne.

Datele economice nu sunt decât o reprezentare simbolică a diverselor informații din care se construiește procesul de mapare a proceselor economice. Studierea informațiilor economice înseamnă a studia semnele prin care acestea apar.

Un semn este întotdeauna un obiect material, dar nu orice obiect material este un semn. Ea devine astfel numai în situația semnelor, care se caracterizează prin prezența obligatorie a următoarelor elemente interdependente:

Z este un obiect material care îndeplinește funcția unui semn (desemnare)

a - un obiect, care este marcat de un semn, care se numește semnul sau semnificația obiectului semnului;

m este destinatarul semnului, subiectul, adică un sistem de percepție al cărui nivel de organizare ne permite să percepem Z ca desemnarea unui a.

S - reflecție a în memoria sistemului perceput sub formă de concepte, judecăți și alte eșantioane, numită înțelesul semantic sau pur și simplu valoarea lui Z.

În spatele acestor elemente ale unui semn concret situația în fundal este întotdeauna prezentă:

Z (zZ) este un sistem de semne sau un sistem de semne în care există un set de semne și reguli diferite pentru folosirea lor, care, prin intermediul unor semne distinctive, fac posibilă distingerea obiectelor desemnate de acestea;

A (aA) este o colecție de obiecte care trebuie reflectate, fiecare dintre ele primind denumirea sa și poate să difere în această denumire atunci când transmite informații;

M (mM) - setul de subiecți care interacționează unul cu celălalt și care pot să facă schimb de informații prin schimbul de semne, adică care acționează ca destinatari sau expeditori de informații;

S (sS) - un set de concepte, judecăți, imagini din care memoria destinatarilor de învățare și a expeditorilor de informații reflectă mediul sau mediul în care au loc activitățile lor practice.

Acest stoc de cunoștințe din ultimii ani denotă din ce în ce mai mult termenul de tezaur (ca nume al vocabularului sistemelor de concepte).

Destinatarul percepe informații dacă înțelege mesajul și noutatea sa în conținut pentru o anumită situație (esența semantică a informațiilor). Este posibil ca destinatarul să nu fie configurat să primească mesajul dacă nu are nevoie de el. În fiecare moment specific, destinatarul poate evalua a priori importanța mesajelor, în timp ce sensibilitatea sa la informații va depinde de evaluarea lor. În acest context, apare problema valorii informațiilor și evaluarea acestora. Analiza incorectă a valorii datelor poate duce la faptul că nu vor fi percepute informații, care sunt foarte valoroase pentru acest destinatar. Acest fenomen poate fi, de asemenea, tratat ca un zgomot specific, dar nu identic cu zgomotul fizic sau semantic.

Partea copleșitoare a informațiilor economice este stocată, transmisă și procesată sub formă de semne - caractere alfabetice și numerice, fixate în diverse documente și alte mesaje. Prin urmare, problema studierii sistemului de informații economice poate fi delimitată destul de pe deplin în termenii teoriei sistemelor semnale - semiotică.

În cadrul semioticii, au fost determinate direcțiile tri-fundamentale de cercetare a proceselor informaționale.

1. Sintactica - examinează proprietățile formale ale fluxurilor de informații; explorează relația dintre semnele unui sistem particular de semne, indiferent de conținutul și valoarea informațiilor, purtătorii cărora le aparțin aceste semne.

3. Pragmatică - studiază relația dintre date și destinatarii acestora; ea este interesată de efectul mesajului asupra comportamentului destinatarului, adică valoarea datelor este determinată. Studiul informațiilor economice într-un aspect pragmatic necesită soluționarea problemei legate de selectarea acelor indicatori care sunt necesari pentru consumator.

Studiile pragmatice deschid calea pentru rezolvarea problemei aproape extrem de importante a organizării raționale a sistemului informațional. Esența acestui fapt este de a determina cea mai bună configurație a fluxurilor de informații, cea mai bună distribuție a funcțiilor pentru primirea și livrarea lor către consumatori, luând în considerare diferitele criterii și luând în considerare capacitățile mijloacelor tehnice și a altor resurse utilizate în procesul de colectare și prelucrare a datelor.







Articole similare

Trimiteți-le prietenilor: