Entropia

postat în: Termodinamica 0

În mecanica statistică, entropia este o proprietate extinsă a unui sistem termodinamic. Este strâns legată de numărul Ω al configurațiilor microscopice (cunoscute sub numele de microstări) care sunt în concordanță cu cantitățile macroscopice care caracterizează sistemul (cum ar fi volumul, presiunea și temperatura acestuia). Sub presupunerea că fiecare microstare este la fel de probabilă, entropia S este logaritmul natural al numărului de microstări, înmulțit cu constanta Boltzmann kB. Formal,

S = kB ln⁡ Ω (presupunând microstări echiprobile).

Sistemele macroscopice au de obicei un număr foarte mare Ω de configurații microscopice posibile. De exemplu, entropia unui gaz ideal este proporțională cu numărul de molecule de gaze N. Aproximativ douăzeci de litri de gaz la temperatura camerei și presiunea atmosferică au N ≈ 6×1023 (numărul lui Avogadro). La echilibru, fiecare dintre configurațiile Ω ≈ eN poate fi considerată ca fiind aleatorie și la fel de probabilă.

A doua lege a termodinamicii afirmă că entropia unui sistem izolat nu scade niciodată. Astfel de sisteme evoluează în mod spontan către echilibru termodinamic, starea cu entropie maximă. Sistemele neizolate pot pierde entropia, cu condiția ca entropia mediului să crească cel puțin cu această sumă, astfel încât entropia totală să crească. Entropia este o funcție a stării sistemului, astfel încât schimbarea entropiei unui sistem este determinată de stările sale inițiale și finale. În idealizarea faptului că un proces este reversibil, entropia nu se schimbă, în timp ce procesele ireversibile întotdeauna măresc entropia totală.

Deoarece este determinată de numărul de microstări aleatorii, entropia este legată de cantitatea de informații suplimentare necesare pentru a specifica starea fizică exactă a unui sistem, dat fiind specificația sa macroscopică. Din acest motiv, adesea se spune că entropia este o expresie a dezordinii, a caracterului aleatoriu a unui sistem sau a lipsei de informații despre el. Din acest motiv, conceptul de entropie joacă un rol central în teoria informațiilor.

Constanta lui Boltzmann și, prin urmare, entropia, au dimensiuni de energie împărțite la temperatură, care are o unitate de jouli per kelvin (JK-1) în Sistemul Internațional de Unități (sau kg m2 s-2 K-1 în termeni de unități de bază ). Entropia unei substanțe este dată de obicei ca o proprietate intensă – fie entropie pe unitate de masă (unitate SI: J K-1 kg-1), fie entropie pe unitate de substanță (unitate SI: J K-1 mol-1).

Definiții

Orice metodă care implică noțiunea de entropie, a cărei însăși existență depinde de cea de-a doua lege a termodinamicii, va părea, fără îndoială, forțată, și multor oameni și ar putea respinge începătorii ca fiind obscură și dificil de înțeles.
Willard Gibbs, Metode grafice în termodinamica fluidelor

Există două definiții legate de entropie: definiția termodinamică și definiția mecanicii statistice. Din punct de vedere istoric, definiția clasică a termodinamicii s-a dezvoltat mai întâi. Din punctul de vedere al termodinamicii clasice, sistemul este compus dintr-un număr foarte mare de constituenți (atomi, molecule), iar starea sistemului este descrisă de proprietățile termodinamice medii ale acelor constituenți; detaliile constituenților sistemului nu sunt luate în considerare direct, dar comportamentul lor este descris de proprietăți medii macroscopice, de ex. temperatura, presiunea, entropia, capacitatea calorică. Definiția clasică timpurie a proprietăților sistemului asumat în echilibru. Definiția termodinamică clasică a entropiei a fost mai recent extinsă în domeniul termodinamicii neechilibrului. Mai târziu, proprietățile termodinamice, inclusiv entropia, au dat o definiție alternativă în ceea ce privește statisticile mișcărilor componentelor microscopice ale unui sistem – modelate la început clasic, de ex. particulele newtonice constituind un gaz, și mai târziu prin mecanica cuantică (fotoni, fononi, spini etc.). Descrierea mecanicii statistice a comportamentului unui sistem este necesară deoarece definiția proprietăților unui sistem care utilizează termodinamica clasică devine o metodă din ce în ce mai nesigură de a prezice starea finală a unui sistem care este supus unui anumit proces.

Funcția de stare

Există multe proprietăți termodinamice care sunt funcții de stare. Aceasta înseamnă că la o anumită stare termodinamică (care nu trebuie confundată cu starea microscopică a unui sistem), aceste proprietăți au o anumită valoare. Adesea, dacă se determină două proprietăți ale sistemului, atunci se determină starea și se pot determina și valorile celorlalte proprietăți. De exemplu, o cantitate de gaz la o anumită temperatură și presiune are starea sa fixată de acele valori și astfel are un volum specific care este determinat de aceste valori. Ca un alt exemplu, un sistem compus dintr-o substanță pură dintr-o singură fază, la o temperatură și presiune uniformă (și astfel este o stare particulară) și care nu este numai la un anumit volum, ci și la o anumită entropie. Faptul că entropia este o funcție de stare este unul dintre motivele pentru care este utilă. În ciclul Carnot, lichidul de lucru revine la aceeași stare pe care a avut-o la începutul ciclului, de unde integrarea liniară a oricărei funcții de stare, cum ar fi entropia, în acest ciclu reversibil este zero.

Proces reversibil

Entropia este conservată pentru un proces reversibil. Un proces reversibil este unul care nu se abate de la echilibrul termodinamic, în timp ce produce lucru mecanic maxim. Orice proces care se petrece suficient de rapid pentru a se abate de la echilibrul termic nu poate fi reversibil. În aceste cazuri, energia se pierde prin căldură, crește entropia totală și se pierde și potențialul de lucru mecanic maxim în tranziție. Mai precis, entropia totală este conservată într-un proces reversibil și nu este conservată într-un proces ireversibil. De exemplu, în ciclul Carnot, în timp ce fluxul de căldură de la rezervorul de căldură la rezervorul rece reprezintă o creștere a entropiei, lucrul mecanic rezultat, dacă este reversibil și perfect stocat într-un mecanism de stocare a energiei, reprezintă o scădere a entropiei care ar putea fi utilizată pentru a opera motorul termic în sens invers și a reveni la starea anterioară, astfel încât modificarea totală a entropiei este în continuare zero în orice moment dacă întregul proces este reversibil. Un proces ireversibil mărește entropia.

Entropia unui sistem

Un sistem termodinamic(Un sistem termodinamic)

Entropia apare direct din ciclul Carnot. Se poate de asemenea descrie sub forma de căldura reversibilă împărțită la temperatură. Entropia este o funcție fundamentală a stării.

Într-un sistem termodinamic, presiunea, densitatea și temperatura tind să devină uniforme în timp, deoarece starea de echilibru are probabilitate mai mare (mai multe combinații posibile de microstări) decât orice altă stare.

De exemplu, pentru un pahar de apă cu gheață în aer la temperatura camerei, diferența de temperatură dintre o cameră caldă (mediu) și un pahar rece de gheață și apă (sistemul și nu o parte a camerei) începe să se egaleze porțiuni ale energiei termice din mediul cald, răspândite în sistemul răcitor de gheață și apă. În timp temperatura sticlei și a conținutului acesteia și temperatura camerei devin egale. Cu alte cuvinte, entropia camerei a scăzut pe măsură ce o parte din energia ei a fost dispersată în gheață și apă.

Cu toate acestea, după cum se calculează în exemplu, entropia sistemului de gheață și apă a crescut mai mult decât a scăzut entropia camerei. Într-un sistem izolat, cum ar fi camera și apa cu gheață luate împreună, dispersarea energiei de la încălzitor la răcitor determină întotdeauna o creștere netă a entropiei. Astfel, atunci când „universul” sistemului de cameră și apă cu gheață a atins un echilibru de temperatură, schimbarea entropiei de la starea inițială este maximă. Entropia sistemului termodinamic este o măsură a măsurii în care egalizarea a progresat.

Entropia termodinamică este o funcție de stare neconservată, care are o mare importanță în științele fizicii și chimiei. Din punct de vedere istoric, conceptul de entropie a evoluat pentru a explica de ce unele procese (permise de legile de conservare) apar spontan, în timp ce inversarea timpului lor (permisă și de legile de conservare) nu; sistemele tind să progreseze în direcția creșterii entropiei. Pentru sistemele izolate, entropia nu scade niciodată. Acest fapt are câteva consecințe importante în domeniul științei: în primul rând, interzice mașinilor „mișcarea perpetuă”; și în al doilea rând, presupune că săgeata entropiei are aceeași direcție ca săgeata timpului. Creșterea entropiei corespunde schimbărilor ireversibile ale unui sistem, deoarece o anumită energie este folosită sub formă de căldură reziduală, limitând cantitatea de lucru mecanic pe care un sistem îl poate produce.

O diagramă temperatură-entropie pentru abur
Sursa https://en.wikipedia.org/wiki/File:Temperature-entropy_chart_for_steam,_US_units.svg

(O diagramă temperatură-entropie pentru abur. Axa verticală reprezintă temperatura uniformă și axa orizontală reprezintă entropia specifică Fiecare linie întunecată pe grafic reprezintă o presiune constantă și acestea formează o plasă cu linii gri deschis și volum constant (Albastrul închis este apa lichidă, albastrul deschis este amestecul lichid-abur, iar albastru pal este abur. Gri-albastru reprezinta apa lichidă supercritică.) )

Spre deosebire de multe alte funcții de stare, entropia nu poate fi observată direct, ci trebuie calculată. Entropia poate fi calculată pentru o substanță ca entropia molară standard de la zero absolut (cunoscută și ca entropie absolută) sau ca o diferență de entropie dintr-o altă stare de referință care este definită ca entropie zero. Entropia are dimensiunea energiei împărțită la temperatură, care are o unitate de jouli per kelvin (J/K) în Sistemul Internațional de Unități. În timp ce acestea sunt aceleași unități ca și capacitatea calorică, cele două concepte sunt distincte. Entropia nu este o cantitate conservată: de exemplu, într-un sistem izolat cu temperatură neuniformă, căldura ar putea curge ireversibil, iar temperatura va deveni mai uniformă, astfel încât entropia să crească. A doua lege a termodinamicii afirmă că un sistem închis are entropie care poate crește sau rămâne constantă în orice alt mod. Reacțiile chimice provoacă schimbări în entropie și entropia joacă un rol important în determinarea direcției în care se produce o reacție chimică în mod spontan.

O definiție a entropiei din dicționar este că este „o măsură a energiei termice pe unitatea de temperatură care nu este disponibilă pentru un lucru mecanic util”. De exemplu, o substanță la o temperatură uniformă este la entropia maximă și nu poate alimenta un motor termic. O substanță la o temperatură neuniformă este la o entropie mai mică (decât dacă distribuția de căldură este lăsată să se ajusteze) și o parte din energia termică poate alimenta un motor termic.

Un caz special de creștere a entropiei, entropia amestecării, apare când două sau mai multe substanțe diferite sunt amestecate. Dacă substanțele sunt la aceeași temperatură și presiune, nu există schimburi nete de căldură sau de lucru – schimbarea entropiei se datorează în întregime amestecării diferitelor substanțe. La nivelul mecanicii statistice, aceasta se datorează modificării volumului disponibil per particulă cu amestecarea.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *