Conceptul de informație, proprietățile sale

4 Măsurarea informațiilor

5 Utilizarea informațiilor

6 Proprietățile informaționale

7 Prelucrarea informațiilor

8 Resurse informatice și tehnologia informației

9 Informatizarea societății







Există mai multe opinii despre ceea ce este considerat a fi informații. Un punct de vedere, și se pare că aderă la majoritatea specialiștilor și laicilor, se reduce la faptul că există două tipuri de informații:

1) Informații tehnice, care sunt transmise pe liniile telegrafice și afișate pe ecrane radar. Cantitatea acestor informații poate fi calculată cu exactitate, iar procesele care apar cu astfel de informații sunt supuse legilor fizice.

2) Informația este semantică, adică semantică. Acestea sunt aceleași informații care sunt conținute, de exemplu, într-o lucrare literară. Pentru astfel de informații, se oferă diferite estimări cantitative și se construiesc chiar teorii matematice. Dar opinia generală este mai degrabă că evaluările de aici sunt foarte condiționate și aproximative și nu veți verifica armonie prin algebră.

A doua perspectivă este că informația este o cantitate fizică, la fel ca, de exemplu, energia sau viteza. Într-un anumit mod și în anumite condiții, informațiile descriu în mod egal atât procesele care apar în sistemele fizice naturale, cât și procesele din sistemele create artificial.

Ca întotdeauna, în prezența a două opinii brusc opuse, există oa treia, reconciliere. Suporterii celei de-a treia abordări consideră că informațiile sunt unificate, însă evaluările cantitative trebuie să fie diferite.

În mod separat, trebuie să măsurați cantitatea de informații și cantitatea de informații este o evaluare riguroasă, împotriva căreia se poate dezvolta o singură teorie riguroasă. În plus față de cantitatea de informații, trebuie de asemenea să măsurați valoarea. Dar cu valoarea informației, același lucru se întâmplă și cu conceptul de informație semantică. Pe de o parte, așa cum se poate calcula, iar pe de altă parte, toate aceste calcule sunt valabile numai într-un număr limitat de cazuri. Și oricum, cine poate să calculeze cu exactitate, de exemplu, valoarea unei descoperiri științifice majore?

Dezvoltarea rapidă a științei și industriei în secolul XX, creșterea irezistibilă a volumului de informații primite a condus la faptul că omul nu a fost capabil să perceapă și procesul tot ce intenționat.

A existat necesitatea de a clasifica încasările pe subiecte, de a le organiza depozitarea, de a le accesa, de a înțelege tiparele fluxului de informații în diferite publicații etc. Studiile care permit rezolvarea problemelor care au apărut au început să se numească informatică.

Termenul "informație" provine din cuvântul latin "informatio", ceea ce înseamnă informații, explicații, prezentare.

Informație - aceasta este o noțiune atât de generală și profundă încât nu poate fi explicată într-o singură frază. Acest cuvânt este investit într-un alt sens în inginerie, știință și în situațiile de zi cu zi.

În viața de zi cu zi informațiile se numesc orice date sau informații despre care este interesat cineva. De exemplu, un mesaj despre orice eveniment, despre activitățile cuiva etc. "Informați" în acest sens înseamnă "a comunica ceva care nu este cunoscut înainte".

Informații - informații despre obiectele și fenomenele mediului, parametrii, proprietățile și starea acestora, percepute de sistemele informatice (organisme vii, mașini de control etc.) în procesul de viață și de muncă.

Informația este caracteristică nu mesajului, ci relația dintre mesaj și consumator. Fără prezența unui consumator, chiar și a unui potențial, este inutil să vorbim despre informații.

În ceea ce privește prelucrarea informatică a datelor, informațiile sunt înțelese ca o secvență de simboluri simbolice (litere, numere, imagini și sunete grafice codificate etc.), care poartă o sarcină semantică și sunt prezentate într-o formă prietenoasă cu calculatorul. Fiecare simbol nou într-o astfel de succesiune de caractere sporește volumul de informații al mesajului.

Informațiile pot exista într-o varietate de forme:

- sub formă de texte, desene, desene, fotografii;

- sub formă de semnale luminoase sau sonore;

- sub formă de unde radio;

- sub formă de impulsuri electrice și nervoase;

- sub formă de înregistrări magnetice;

- sub formă de gesturi și expresii faciale;

- sub formă de mirosuri și senzații de gust;

- sub formă de cromozomi, prin care sunt moștenite caracteristicile și proprietățile organismelor și așa mai departe.

Obiectele, procesele, fenomenele de proprietăți materiale sau nemateriale, privite din punctul de vedere al proprietăților lor informaționale, se numesc obiecte de informare.

Fiecare eveniment, fiecare fenomen, servește drept sursă de informare. Informațiile sunt transmise ca mesaje de la o anumită sursă de informație către receptorul său printr-un canal de comunicare între ele. Sursa trimite un mesaj transmis, care este codificat în semnalul transmis. Acest semnal este trimis pe canalul de comunicare. Ca rezultat, un semnal recepționat apare în receptor, care este decodificat și devine un mesaj primit. Transmiterea informațiilor prin intermediul canalelor de comunicare este adesea însoțită de interferențe care cauzează distorsiuni și pierderi de informații.

Orice eveniment sau fenomen poate fi exprimat în moduri diferite, în moduri diferite, în alfabete diferite. Pentru a transmite informații mai precis și economic prin intermediul canalelor de comunicare, trebuie să fie codificată în consecință.

Informațiile nu pot exista fără un purtător de materiale, fără transfer de energie. Mesajul codificat dobândește forma de semnale purtătoare de informații. Sunt pe canal. Mergând la receptor, semnalele trebuie să găsească din nou o vedere generală.

În acest scop, semnalele trec prin dispozitivul de decodare, obținând o formă convenabilă pentru abonat. Sistemul de comunicare a funcționat, obiectivul a fost atins. Când vorbim de canale de comunicare, despre sistemele de comunicații, cel mai adesea, de exemplu, ia un telegraf. Dar canalele de comunicare sunt un concept foarte larg, incluzând o mulțime de sisteme diferite, foarte diferite.

Pentru a fi clar că a existat o natură multiplă a conceptului de "canal de comunicare", este suficient să dăm câteva exemple.

Un alt exemplu este un computer. Și aici sunt aceleași caracteristici. Sistemele informatice individuale transmit o altă informație folosind semnale. La urma urmei, un computer - un dispozitiv automat pentru procesarea informațiilor, cum ar fi o unealtă-mașină - un dispozitiv pentru prelucrarea metalelor. Mașina nu creează informații din "nimic", ci doar convertește ceea ce a fost introdus în ea.







Figura 1 - Schema generală a transferului de informații

Cât de multe informații sunt conținute, de exemplu, în textul romanului "Război și pace", în frescele lui Raphael sau în codul genetic al omului? Știința nu răspunde la aceste întrebări și, probabil, nu o va da în curând.

Este posibilă măsurarea obiectivă a cantității de informații? Cel mai important rezultat al teoriei informației este concluzia:

În anumite condiții foarte largi, se pot neglija caracteristicile calitative ale informațiilor, se exprimă cantitatea pe număr și se poate compara cantitatea de informații conținute în diferite grupuri de date.

În prezent, abordările privind definirea noțiunii de "cantitate de informații" au fost răspândite pe larg, pe baza faptului că informațiile conținute în mesaj pot fi tratate ușor în sensul noutății sale sau, cu alte cuvinte, reducând incertitudinea cunoștințelor despre obiect.

Astfel, inginerul american R. Hartley (1928), procesul de obținere a informațiilor cu privire la alegerea unui mesaj dintr-un set finit de mesaje N echiprobabile în avans predeterminată, iar cantitatea de informații I, conținute în mesajul selectat, determină modul în care logaritmul binar al lui N. Formula Hartley:

Să presupunem că vreți să ghiciți un număr dintr-un număr de numere de la o la o sută. Conform formulei Hartley, puteți calcula câte informații sunt necesare pentru aceasta:

I = log2100 "6,644.

Adică mesajul despre numărul corect ghicit conține cantitatea de informații aproximativ egală cu 6,644 bucăți de informații.

Dăm alte exemple de mesaje echivalente:

- când a aruncat o monedă: "cozile au căzut", "vulturul a căzut";

- pe pagina cărții: "numărul de litere este chiar", "numărul de litere este ciudat".

Vom determina acum dacă mesajele "femeia va părăsi clădirea în primul rând" sunt la fel de probabil și "omul va fi primul care va părăsi clădirea". Este imposibil să răspundem fără echivoc acestei întrebări. Totul depinde de ce fel de clădire este vorba. Dacă este, de exemplu, stația de metrou, probabilitatea de primul pentru a ieși din uși este aceeași pentru bărbați și femei, iar în cazul în care este o cazarmă militară, pentru bărbați, această probabilitate este mult mai mare decât în ​​cazul femeilor.

Pentru astfel de probleme, omul de știință american Claude Shannon a propus în 1948 o altă formulă pentru determinarea cantității de informații, ținând seama de posibila probabilitate inegală a mesajelor din set. Formula lui Shannon:

I = - (p1 log2 p1 + p2 log2p2 +. PN log2 pN),

unde pi este probabilitatea ca al doilea mesaj să fie alocat în setul de mesaje N.

Este ușor de observat că dacă probabilitățile p1. pN sunt egale, apoi fiecare dintre ele este egală cu 1 / N, iar formula Shannon se transformă în formula Hartley.

În plus față de cele două abordări pentru determinarea cantității de informații, există și altele. Este important să ne amintim că orice rezultate teoretice sunt aplicabile numai într-o anumită serie de cazuri, subliniate de ipotezele inițiale.

Ca unitate de informații, am fost de acord să luăm un bit (bitul englez - binar, cifră - binară).

Bitul în teoria informațiilor este cantitatea de informații necesare pentru a distinge între două mesaje echiprobabile.

La calcularea cel mai mic bit este numit „o porțiune“ de memorie necesară pentru a stoca una dintre cele două personaje „0“ și „1“ este utilizat pentru a reprezenta date și comenzi intraengine.

Un pic este o unitate de măsură prea mică. În practică, este adesea folosită o unitate mai mare, un octet egal cu opt biți. Sunt opt ​​biți care trebuie să codifice oricare din cele 256 de caractere ale alfabetului tastaturii calculatorului (256 = 28).

Chiar mai multe unități mari de informații derivate sunt utilizate pe scară largă:

1 Kilobyte (Kbyte) = 1024 octeți = 210 octeți,

1 Megabyte (MB) = 1024 Kbytes = 220 octeți,

1 Gigabyte (GB) = 1024 MB = 230 octeți.

Recent, în legătură cu creșterea volumului de informații prelucrate, derivate ca:

1 Terabyte (TB) = 1024 GB = 240 octeți,

1 Petabyte (PB) = 1024 TB = 250 octeți.

Pentru o unitate de informații, se poate alege cantitatea de informații necesare pentru a distinge, de exemplu, zece mesaje la fel de probabile. Nu va fi o unitate binară (bit), ci o unitate zecimal (dit) de informații.

Informațiile pot fi create, transmise, primite, copiate, formalizate, distribuite, transformate, combinate, procesate, împărțite, simplificate, colectate, stocate, căutate, măsurate, distruse etc.

Toate aceste procese asociate cu anumite operații asupra informațiilor se numesc procese informatice.

Informația are următoarele proprietăți, caracterizând caracteristicile sale calitative: fiabilitate, completitudine, valoare, oportunitate, claritate, accesibilitate, corespondență etc. Informațiile sunt fiabile dacă reflectă starea reală a afacerilor. Informațiile inexacte pot duce la neînțelegerea sau acceptarea unor decizii greșite.

Informațiile fiabile cu timpul pot deveni nesigure, deoarece au proprietatea de a deveni caduce, adică încetează să reflecte starea reală a afacerilor.

Informația este completă dacă este suficientă pentru înțelegerea și luarea deciziilor. Atât informațiile incomplete, cât și cele excesive împiedică luarea deciziilor sau pot duce la erori.

Acuratețea informațiilor este determinată de gradul de apropiere de starea reală a obiectului, procesului, fenomenului și așa mai departe.

Valoarea informațiilor depinde de cât de importantă este pentru rezolvarea problemei, cât și de măsura în care aceasta se va găsi în orice activitate umană.

Numai informația în timp util poate aduce beneficiile așteptate. La fel de nedorit este transmiterea prematură a informațiilor (când nu poate fi încă asimilată) și întârzierea ei.

Dacă informația valoroasă și în timp util este exprimată într-un mod incomprehensibil, ea poate deveni inutilă.

Informațiile devin de înțeles dacă sunt exprimate în limba vorbită de către cei cărora li se adresează aceste informații.

Informațiile ar trebui prezentate într-o formă accesibilă (în termeni de percepție). Prin urmare, aceleași întrebări sunt prezentate diferit în manualele școlare și în publicațiile științifice.

Informațiile despre același subiect pot fi rezumate pe scurt (în mod concis, fără detalii neesențiale) sau pe larg (în detaliu, cu cuvânt). Coerența informațiilor este necesară în cărțile de referință, enciclopediile, manualele, tot felul de instrucțiuni.

Prelucrarea informațiilor este achiziționarea de obiecte de informație de la alte obiecte de informație prin efectuarea anumitor algoritmi.

Procesarea este una dintre principalele operațiuni efectuate asupra informațiilor și mijloacele principale de creștere a volumului și varietății de informații.

Mijloacele de prelucrare a informațiilor sunt tot felul de dispozitive și sisteme create de omenire, și mai întâi de toate, un computer este o mașină universală de procesare a informațiilor.

Computerele procesează informații prin difuzarea unor algoritmi.

Organismele și plantele vii procesează informații prin organele și sistemele lor.

Resursele de informare sunt ideile umanității și instrucțiunile pentru implementarea lor, acumulate într-o formă care permite reproducerea lor.

Acestea sunt cărți, articole, brevete, dizertații, documentație de cercetare și dezvoltare, traduceri tehnice, date privind experiența de producție avansată etc.

Resursele informaționale (spre deosebire de toate celelalte tipuri de resurse - forță de muncă, energie, minerale etc.), cu cât cresc mai repede, cu atât mai mult cheltuiesc.

Tehnologia informației este un set de metode și dispozitive folosite de oameni pentru a procesa informații.

Omenirea a prelucrat informații de mii de ani. Primele tehnologii informatice s-au bazat pe utilizarea scorurilor și a scrisului. Acum cincizeci de ani a început dezvoltarea extrem de rapidă a acestor tehnologii, care se datorează în primul rând apariției computerelor.

În prezent, termenul "tehnologia informației" este utilizat în legătură cu utilizarea calculatoarelor pentru prelucrarea informațiilor. Tehnologia informației acoperă toate tehnologiile informatice și tehnologia comunicațiilor și, în parte, - electronica de larg consum, televiziunea și radiodifuziunea.

Popoarele țărilor dezvoltate sunt conștiente de faptul că îmbunătățirea tehnologiei informației este sarcina cea mai importantă, deși costisitoare și dificilă.

În prezent, crearea de sisteme informatice și tehnologice la scară largă este fezabilă din punct de vedere economic, ceea ce determină apariția unor programe naționale de cercetare și educație menite să stimuleze dezvoltarea acestora.

Scopul informatizării este de a îmbunătăți calitatea vieții oamenilor prin creșterea productivității și facilitarea condițiilor de muncă.

2. Dmitriev V.K. Teoria informațiilor aplicate. M. 1989.

3. Bryshinkin V.N. Logică, gândire, informație. L. LSU, 1988.







Articole similare

Trimiteți-le prietenilor: