(Moleculele lui Boltzmann (1896) în o „poziție de repaus” într-un solid)
În termodinamică, entropia este asociată frecvent cu măsura ordinii, dezordinii sau haosului într-un sistem termodinamic. Acest lucru rezultă din afirmația lui Rudolf Clausius din 1862 că orice proces termodinamic, întodeauna „se admite că este redus la alterarea într-un fel sau altul a aranjamentului părților componente ale corpului de lucru” și că lucrul mecanic intern asociat cu aceste modificări este cuantificat energetic printr-o măsură a schimbării „entropiei”, în conformitate cu următoarea expresie diferențială:
∫ δQ/T ≥ 0
unde Q este energia de mișcare („căldura”) transferată reversibil către sistem din mediul înconjurător și T este temperatura absolută la care are loc transferul.
În anii care au urmat, Ludwig Boltzmann a tradus aceste „alterări” într-o perspectivă probabilistică a ordinii și a dezordinii în sistemele moleculare în fază gazoasă.
În ultimii ani, în manualele de chimie a existat o trecere de la utilizarea termenilor „ordine” și „dezordine” la cea a conceptului de dispersie a energiei pentru a descrie entropia, printre alte teorii. În enciclopedia Encarta din 2002, de exemplu, entropia este definită ca o proprietate termodinamică care servește ca măsură a cât de aproape este un sistem de echilibru, precum și o măsură a dezordinii din sistem. În contextul entropiei, „dezordinea internă perfectă” este sinonimă cu „echilibrul”, dar întrucât această definiție este cu mult diferită de definiția obișnuită implicată în vorbirea normală, utilizarea termenului în știință a provocat o mare confuzie și neînţelegere.
La nivel local, entropia poate fi redusă prin acțiunea externă. Acest lucru se aplică mașinilor, cum ar fi un frigider, unde entropia în zona rece este redusă, și la organismele vii. Această scădere locală a entropiei este totuși posibilă numai pe seama unei creșteri a entropiei în mediu.
Prezentare generală
Pentru a evidenția faptul că ordinea și dezordinea sunt în mod obișnuit înțelese ca fiind măsurate în termeni de entropie, mai jos sunt definițiile entropiei din enciclopedia științifică și dicționarul științific curent:
- O măsură a indisponibilității energiei unui sistem de lucru; de asemenea o măsură a dezordinii; cu cât entropia este mai mare, cu atât mai mare este dezordinea.
- O măsură a dezordinii; cu cât entropia este mai mare, cu atât mai mare este dezordinea.
- În termodinamică, un parametru reprezentând starea de dezordine a unui sistem la nivel atomic, ionic sau molecular; cu cât este mai mare dezordinea cu atât este mai mare entropia.
- O măsură a dezordinii din univers sau a indisponibilității energiei de a produce lucru mecanic.
Entropia și dezordinea au de asemenea asocieri cu echilibrul. Din punct de vedere tehnic, entropia, din această perspectivă, este definită ca o proprietate termodinamică care servește ca o măsură a cât de aproape este un sistem de echilibru – adică de a ajunge la dezordinea internă. De asemenea, valoarea entropiei unei distribuții de atomi și molecule într-un sistem termodinamic este o măsură a dezordinii în aranjamentele particulelor sale. Într-o bucată de cauciuc întinsă, de exemplu, dispunerea moleculelor din structura sa are o distribuție „ordonată” și are entropie zero, în timp ce distribuția „dezordonată” a atomilor și a moleculelor din cauciucul neîntins are entropie pozitivă. În mod similar, într-un gaz ordinea este perfectă și măsura entropiei sistemului are cea mai mică valoare atunci când toate moleculele sunt într-un singur loc, în timp ce atunci când sunt ocupate mai multe puncte, gazul este cu atât mai dezordonat și măsura entropiei din sistem are valoare mai mare.
În ecologia sistemelor, ca un alt exemplu, entropia unei colecții de elemente care cuprind un sistem este definită ca măsură a dezordinii lor sau echivalent cu probabilitatea relativă a configurației instantanee a elementelor. Mai mult, potrivit ecologistului teoretician și inginerului chimic Robert Ulanowicz, „faprul că entropia ar putea oferi o cuantificare a noțiunii de dezordine subiectivă până acum, a generat nenumărate narațiuni științifice și filosofice”. În special, mulți biologi au vorbit în termeni de entropie a unui organism sau despre antonimul său negentropia, ca o măsură a ordinii structurale în cadrul unui organism.
Baza matematică cu privire la asocierea entropiei cu ordinea și dezordinea a pornit, în esență, de la faimoasa formulă Boltzmann, S = kB lnW, care corelează entropia S cu numărul de stări posibile W în care poate fi găsit un sistem. Ca exemplu, luați în considerare o cutie care este împărțită în două secțiuni. Care este probabilitatea ca un anumit număr sau toate particulele să fie găsite într-o secțiune în raport cu cealaltă atunci când particulele sunt repartizate aleatoriu în diferite locuri din cutie? Dacă aveți doar o singură particulă, atunci acel sistem al unei particule poate exista în două stări, de o parte a cutiei sau de cealaltă. Dacă aveți mai mult de o particulă sau definiți stări ca fiind subdiviziuni de localizare suplimentare ale cutiei, entropia este mai mare, deoarece numărul de stări este mai mare. Relația dintre entropie, ordine și dezordine în ecuația Boltzmann este atât de clară în rândul fizicienilor încât, conform punctelor de vedere ale ecologiștilor termodinamici Sven Jorgensen și Yuri Svirezhev, „este evident că entropia este o măsură a ordinii sau, cel mai probabil, dezordinii sistemului”. În această direcție, a doua lege a termodinamicii, așa cum a fost enunțată de Rudolf Clausius în 1865, afirmă:
„Entropia universului tinde spre un maxim.“
Astfel, dacă entropia este asociată cu dezordinea și dacă entropia universului se îndreaptă către entropia maximă, atunci mulți sunt adesea nedumeriți în ceea ce privește natura ”ordonării” procesului și funcționarea evoluției în raport cu cea mai faimoasă versiune a celei de a doua legi a lui Clausius, care afirmă că universul se îndreaptă către „dezordinea” maximă. În cartea recentă din 2003, SYNC – Știința emergentă a ordonării spontane de Steven Strogatz, de exemplu, găsim că „oamenii de știință au fost adesea derutați de existența unei ordini spontane în univers. Legile termodinamicii par să dicteze contrariul, natura ar trebui să degenească inexorabil spre o stare de dezordine mai mare, o entropie mai mare. Cu toate acestea, în jurul nostru vedem structuri magnifice – galaxii, celule, ecosisteme, ființe umane – care au reușit cumva să se adune singure”.
Argumentul comun folosit pentru a explica acest lucru este că, la nivel local, entropia poate fi redusă prin acțiunea externă, de ex. acțiunea de încălzire solară și că aceasta se aplică mașinilor, cum ar fi un frigider, unde entropia în camera rece este redusă, la cristalele în creștere și la organismele vii. Această creștere locală este, totuși, posibilă numai pe seama unei creșteri a entropiei în mediu; aici trebuie să se creeze mai multe dezordini. Condiționarea acestei afirmații este suficientă pentru că sistemele vii sunt sisteme deschise în care atât căldura, masa, cât și lucrul mecanic pot fi transferate în sau din sistem. Spre deosebire de temperatură, entropia presupusă a unui sistem viu se va schimba drastic dacă organismul ar fi izolat termodinamic. Dacă un organism se află în acest tip de situație „izolată”, entropia sa ar crește considerabil, întrucât componentele odată vii ale organismului s-au degradat într-o masă de nerecunoscut.
Lasă un răspuns