Informaţii

postat în: Informaţii 0

Informaţii

Informaţia, ca şi concept, include o mare diversitate de sensuri, de la cele zilnice până la cele tehnice. Conceptul de informaţie este strâns legat de noţiunile de restricţie, comunicare, control, date, forme, instrucţie, cunoaştere, înţeles, stimul mental, reţea, percepţie, şi reprezentare.

Informaţia ca mesaj

Informaţia este un termen cu multe sensuri în funcţie de context, dar de obicei este strâns legată de concepte precum înţeles, instrucţie, comunicare, reprezentare, şi stimul mental. Simplist vorbind, informaţia este un mesaj primit şi înţeles. În termeni de date, ea poate fi definită ca o colecţie de fapte din care se poate extrage o concluzie. Există multe alte aspecte ale informaţiei atâta timp cât ea este o cunoaştere obţinută prin studiu sau experienţă sau instrucţie. Dar în primul rând informaţia este rezultatul procesării, manipulării şi organizării datelor astfel încât se adaugă la cunoaşterea persoanei care o primeşte.

Informaţia este starea unui sistem de interes. Mesajul este informaţia materializată.

Informaţia este o calitate a unui mesaj transmis de la un transmiţător la unul sau mai mulţi receptori. Informaţia este întotdeauna despre ceva (mărimea unui parametru, ocurenţa unui eveniment, valoare, etică, etc.). Văzută astfel, informaţia nu trebuie să fie exactă; ea poate fi un adevăr sau o minciună, sau doar sunetul unui copac care se prăbuşeşte. Chiar şi bruiajul care împiedică o comunicare şi crează astfel false înţelesuri este, din acest punct de vedere, o informaţie. Oricum, în general vorbind, dacă cantitatea de informaţie din mesajul primit creşte, mesajul devine mai exact.

Acest model presupune că este definit un transmiţător şi cel puţin un receptor. Multe aprofundări ale modelului presupun existenţa unui limbaj comun de înţelegere între transmiţător şi cel puţin unul dintre receptori. O importantă variaţie identifică informaţia ca cea care ar fi comunicată de către un mesaj dacă ar fi transmisă de către un transmiţător către un receptor capabil să înţeleagă mesajul. Într-o altă variaţie, nu este necesar ca transmiţătorul să fie capabil să înţeleagă mesajul, nici măcar să îşi dea seama că acesta este un mesaj, făcând informaţia drept ceva care poate fi extrasă dintr-un mediu, de ex. prin observare, citire sau măsurare.

Teoria comunicaţiei oferă o măsură numerică a incertitudinii unui eveniment. de exemplu, putem spune că “semnalul conţinea mii de biţi de informaţie”. Teoria comunicaţiei tinde să folosească acest concept de entropia informaţiei, atribuit de obicei lui Claude Shannon.

O altă formă a informaţiei este informaţia Fisher, un concept al lui R.A. Fisher. Acesta este folosit în aplicarea statisticii la teoria estimării şi în ştiinţă în general. Informaţia Fisher este gândită ca fiind cantitatea de informaţie pe care o transportă un mesaj despre un parametru neobservabil. Ea poate fi determinată din cunoaşterea funcţiei de verosimilitate definită de sistem. De exemplu, cu o funcţie de verosimilitate normală, informaţia Fisher este reciproca varianţei legii. În absenţa cunoaşterii legii verosimilităţiim informaţia Fisher poate fi alculată din datele de marcare normal distribuite ca reciproca celui de al doilea moment.

Chiar dacă informaţia şi datele sunt adesea folosite ca un sistem interschimbabil, ele sunt foarte diferite. Datele sunt un set de informaţii fără legătură, şi deci nu pot fi folosite dacă nu sunt evaluate corect. După evaluare, când apar legături semnificative între date şi acestea devin relevante pentru ceva anume, acestea sunt convertite în informaţie. Acum aceleaşi date pot fi folosite în diferite scopuri. Astfel, atâta timp cât datele nu transportă o anumită informaţie, ele nu sunt utile şi deci nu pot fi considerate drept informaţie.

Bibliografie

  • Alan Liu (2004). The Laws of Cool: Knowledge Work and the Culture of Information, University of Chicago Press

  • Bekenstein, Jacob D. (2003, August). Information in the holographic universe. Scientific American.

  • Shu-Kun Lin (2008). ‘Gibbs Paradox and the Concepts of Information, Symmetry, Similarity and Their Relationship’, Entropy, 10 (1), 1-5. Online la Entropy journal website.

  • Luciano Floridi, (2005). ‘Is Information Meaningful Data?’, Philosophy and Phenomenological Research, 70 (2), pp. 351 – 370. Online la Oxford University

  • Luciano Floridi, (2005). ‘Semantic Conceptions of Information’, The Stanford Encyclopedia of Philosophy (Winter 2005 Edition), Edward N. Zalta (ed.). Online la Stanford University

  • Stewart, Thomas, (2001). Wealth of Knowledge. Doubleday, New York, NY, 379 p.

  • Young, Paul. The Nature of Information (1987). Greenwood Publishing Group, Westport, Ct. ISBN 0-275-92698-2.

Acest articol conţine materiale traduse şi adaptate din Wikipedia de Nicolae Sfetcu sub licenţă gratuită GNU.

Image http://www.flickr.com/photos/rayphua/190100151/

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *