Home » Articole » Articole » Știință » Fizica » Concepte fizice » Informaţia în fizică

Informaţia în fizică

Informaţia Informația în fizică se referă în general la informațiile conținute într-un sistem fizic.

Informația în sine poate fi vag definită ca „ceea ce distinge un lucru de altul.” Informația care este conținută într-un lucru poate fi astfel considerată ca fiind identitatea unui anumit lucru, în sine, adică toate proprietățile sale, tot ceea ce îl face diferit de alte lucruri (reale sau potențiale).

Informaţia clasică vs informaţia cuantică

Pentru sisteme fizice, trebuie să facem distincția între informația clasică și informația cuantică. Informația cuantică specifică complet vectorul stare cuantică (echivalent, funcția de undă) a unui sistem, în timp ce informația clasică, aproximativ vorbind, doar alege o stare cuantică, dacă există deja un set prespecificat de stări cuantice distincte (ortogonale) din care să se aleagă. Un astfel de set constituie o bază pentru spaţiul vectorial al tuturor stărilor cuantice posibile (pure). Informația cuantică poate fi astfel considerată că ar consta din (1) o alegere de bază astfel încât starea cuantică reală este egală cu unul dintre vectorii de bază, plus (2) informația clasică specificând care dintre acești vectori de bază este cel real.

De notat că cantitatea de informații clasice într-un sistem cuantic dă suma maximă de informații care pot fi măsurate și extrase de fapt de la acest sistem cuantic pentru utilizare de către sisteme externe clasice (decoerent), deoarece doar stările de bază se disting operațional unele de la altele. Imposibilitatea diferențierii între stările non-ortogonale este un principiu fundamental al mecanicii cuantice, echivalent cu principiul incertitudinii al lui Heisenberg. Din cauza utilităţii sale mai generale, acest articol va pune accent în primul rând pe informața clasică, deși teoria informației cuantice are, de asemenea, unele aplicații potențiale (de calcul cuantic, criptografie cuantică, teleportarea cuantică), care sunt în prezent explorate în mod activ de către teoreticieni și experimentatori .

Informații clasice

O cantitate de informații (clasice) poate fi cuantificată după cum urmează. Pentru un sistem S, definit în mod abstract în așa fel încât acesta are N stări distincte (stări cuantice ortogonale), care sunt în concordanță cu descrierea acestuia, cantitatea de informație I(S) conținută în starea sistemului se poate spune că este log(N). Logaritmul este luat în considerare pentru această definiție deoarece acesta are avantajul că această măsură a conținutului de informație este aditivă în cazul concatenării subsisteme independente, nelegate. De exemplu, în cazul în care subsistemul A are I(A) = N stări distincte (conținutul de informații log(N)) și un subsistem independent B are I(B) = M stări distincte (conținutul de informații log (M)), atunci sistemul concatenat are NM stări distincte și un conținut de informații I(AB) = log(NM) = log(N) + log(M) = I(A) + I(B). Ne așteptăm ca informațiile să fie aditive din asocierile de zi cu zi cu sensul cuvântului, de exemplu, că două pagini dintr-o carte pot conține de două ori mai multe informații decât o singură pagină.

Baza logaritmului utilizat în această definiție este arbitrară, deoarece afectează rezultatul cu numai o constantă multiplicativă, care determină unitatea de informații care este implicată. În cazul în care logaritmul este luată cu baza 2, unitatea de informații este cifra binară sau bit (numit astfel de către Ioan Tukey). Dacă vom folosi un logaritm natural în schimb, am putea numi unitatea rezultată „nat.” În magnitudine, un nat este aparent identic cu k (constanta lui Boltzmann) sau R (constanta gazului ideal), cu toate că aceste cantități speciale sunt de obicei rezervate pentru a măsura informațiile fizice care se întâmplă să fie entropia, și care sunt exprimate în unități fizice, cum ar fi jouli per Kelvin, sau kilocalorii per mol per Kelvin.

Informațiile fizice și entropia

O modalitate simplă de înțeles entropia fizică în sine este după cum urmează: Entropia este pur și simplu acea parte din informația fizică (clasică) conținută într-un sistem a cărui identitate (spre deosebire de cantitate) este necunoscută. Această caracterizare informală se potrivește definiției formale a entropiei a lui von Neumann pentru o stare cuantică mixtă, ca și definiţiei lui Shannon a entropiei unei distribuții de probabilitate pentru stările clasice.

Chiar și atunci când starea exactă a unui sistem este cunoscută, putem spune că informația din sistem este încă efectiv entropia în cazul în care această informație este efectiv incompresibilă, adică, în cazul în care nu există nicio corelare cunoscută sau determinabilă practic, de redundanţe între piese diferite de informație în cadrul sistemului. Rețineți că această definiție poate fi privită ca fiind echivalentă cu cea anterioară (informație necunoscută) dacă vom considera o meta-perspectivă și vom spune că pentru ca observatorul A să cunoască starea sistemului B înseamnă pur și simplu că există o corelație clară între starea observatorului A și starea sistemului B. Această corelație ar putea fi folosită de către un meta-observator pentru a comprima descrierea sa a sistemului unit AB.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *