Přeskočit na obsah

Entropie

Z Infopedia
Rozbalit box

Obsah boxu

Šablona:Infobox Fyzikální veličina

Entropie (značka S) je fundamentální fyzikální veličina, která se nejčastěji popisuje jako míra neuspořádanosti, náhodnosti nebo neurčitosti v systému. Je to klíčový koncept v termodynamice, statistické mechanice a informační teorii. Její význam je úzce spjat s druhým zákonem termodynamiky, který říká, že celková entropie izolovaného systému se časem nikdy nezmenšuje.

V termodynamickém kontextu entropie souvisí s množstvím energie, které není k dispozici pro vykonání práce. Ve statistické mechanice je definována pomocí počtu možných mikroskopických uspořádání (mikrostavů), které odpovídají jednomu makroskopickému stavu systému. V informační teorii pak entropie kvantifikuje množství nejistoty nebo informace obsažené ve zprávě či datovém souboru.

Základní jednotkou entropie v soustavě SI je Joule na kelvin (J/K).

📜 Historie

Koncept entropie se vyvíjel postupně v 19. století v souvislosti se snahou porozumět fungování parních strojů a limitům jejich účinnosti.

🌡️ Práce Rudolfa Clausia

Pojem entropie zavedl v roce 1865 německý fyzik Rudolf Clausius. Hledal veličinu, která by popisovala nevratnost přírodních procesů, jako je například vedení tepla z teplejšího tělesa na chladnější. Clausius definoval změnu entropie (ΔS) pro reverzibilní (vratný) proces jako podíl tepla (Q) dodaného systému a absolutní teploty (T), při které se teplo dodává:

ΔS=QrevT

Clausius také formuloval druhý zákon termodynamiky pomocí entropie, když prohlásil: "Entropie vesmíru spěje k maximu." Tím vyjádřil myšlenku, že všechny samovolné procesy v přírodě směřují ke stavu větší neuspořádanosti.

🎲 Statistický přístup Ludwiga Boltzmanna

Rakouský fyzik Ludwig Boltzmann na konci 19. století propojil makroskopický koncept entropie s mikroskopickým chováním atomů a molekul. Uvědomil si, že entropie je mírou počtu možných mikroskopických uspořádání (mikrostavů), které může systém zaujmout, aniž by se změnil jeho makroskopický stav (např. tlak, teplota, objem).

Tento vztah je vyjádřen slavnou Boltzmannovou rovnicí, která je vytesána na jeho náhrobku:

S=kBlnW

kde:

  • S je entropie systému.
  • kB je Boltzmannova konstanta (přírodní konstanta spojující energii a teplotu).
  • W (z německého Wahrscheinlichkeit – pravděpodobnost) je počet mikrostavů odpovídajících danému makrostavu.

Boltzmannova definice ukázala, že nárůst entropie je vlastně přechod systému do pravděpodobnějšího stavu. Stav s vysokou uspořádaností (např. všechny molekuly plynu v jednom rohu nádoby) je možný, ale extrémně nepravděpodobný ve srovnání s obrovským počtem neuspořádaných stavů (molekuly rovnoměrně rozptýlené po celé nádobě).

💬 Informační entropie Clauda Shannona

Ve 40. letech 20. století americký matematik a inženýr Claude Shannon vyvinul informační teorii a zavedl koncept informační entropie. Shannonova entropie je mírou nejistoty spojené s náhodnou proměnnou nebo mírou průměrného množství informace obsaženého ve zprávě.

Matematicky je velmi podobná Boltzmannově rovnici a ukazuje hlubokou souvislost mezi termodynamikou a informací. Systém s vysokou informační entropií je nepředvídatelný (např. hod spravedlivou mincí), zatímco systém s nízkou entropií je předvídatelný (např. hod falešnou mincí, která vždy padne na jednu stranu).

🔬 Konceptuální Definice

Entropii lze chápat z několika různých, ale vzájemně propojených úhlů pohledu.

Termodynamická definice

V klasické termodynamice je entropie stavová funkce, což znamená, že její hodnota závisí pouze na aktuálním stavu systému, nikoli na cestě, jakou se do něj dostal. Změna entropie popisuje, jak se teplo šíří a jaká část energie je "znehodnocena" v tom smyslu, že ji nelze přeměnit na užitečnou práci. Například při tření se mechanická energie nevratně mění na teplo, což zvyšuje celkovou entropii.

Statistická definice

Tato definice je považována za fundamentálnější. Představme si krabici rozdělenou na dvě poloviny a v ní čtyři molekuly plynu.

  • Nízká entropie: Existuje pouze jeden způsob (mikrostav), jak mohou být všechny čtyři molekuly v levé polovině. Tento stav je vysoce uspořádaný.
  • Vysoká entropie: Existuje šest různých způsobů, jak mohou být dvě molekuly vlevo a dvě vpravo. Tento stav je neuspořádaný a statisticky mnohem pravděpodobnější.

Protože systémy v přírodě samovolně přecházejí do nejpravděpodobnějších stavů, plyn se vždy rozptýlí po celé nádobě, čímž maximalizuje svou entropii.

Informační definice

V kontextu informací entropie měří průměrnou "překvapivost". Pokud zdroj vysílá zprávy, které jsou velmi předvídatelné (např. text složený pouze z písmene "A"), entropie je nízká. Pokud jsou zprávy zcela náhodné a nepředvídatelné, entropie je vysoká. Tento princip je základem pro kompresi dat – data s nízkou entropií (opakující se vzory) lze zkomprimovat efektivněji.

⚙️ Druhý zákon termodynamiky

Druhý zákon termodynamiky je jedním z nejdůležitějších přírodních zákonů a je neoddělitelně spjat s entropií. Lze jej formulovat několika způsoby:

1. Clausiova formulace: Teplo nemůže samovolně přecházet z chladnějšího tělesa na teplejší. 2. Kelvin-Planckova formulace: Není možné sestrojit periodicky pracující stroj, který by trvale konal práci pouze ochlazováním jednoho tělesa. 3. Entropická formulace: Celková entropie izolované soustavy se časem nikdy nezmenšuje. Při reverzibilních dějích zůstává konstantní, při ireverzibilních (všech reálných) dějích roste.

Tento zákon vysvětluje, proč se věci opotřebovávají, proč se horký čaj ochladí na pokojovou teplotu (ale nikdy se samovolně neohřeje) a proč je nemožné dosáhnout 100% účinnosti u tepelných strojů. Definuje také takzvanou šipku času – směr, kterým se procesy v čase přirozeně vyvíjejí.

🌍 Aplikace a Důsledky

Entropie má hluboké důsledky v mnoha oblastech vědy a techniky.

  • Fyzika a chemie: Entropie řídí směr chemických reakcí, fázové přechody (např. tání ledu, vypařování vody) a chování plynů. Je klíčová pro pochopení účinnosti tepelných motorů a chladicích zařízení.
  • Kosmologie: Koncept nárůstu entropie vedl k hypotéze o tepelné smrti vesmíru, což je teoretický konečný stav, kdy vesmír dosáhne maximální entropie a termodynamické rovnováhy, což znemožní jakoukoli další práci a procesy. Entropie je také spojována s černými dírami (Bekenstein-Hawkingova entropie).
  • Biologie: Živé organismy jsou vysoce uspořádané systémy s nízkou entropií. Udržují si tento stav tím, že neustále přijímají energii z okolí (např. potravu) a uvolňují odpadní produkty a teplo, čímž zvyšují entropii svého okolí. Život je tedy lokální snížení entropie, které je "zaplaceno" větším zvýšením entropie ve zbytku vesmíru. Tento koncept se někdy označuje jako negentropie.
  • Informatika: Informační entropie je základem pro teorii kódování, kryptografii a algoritmy pro bezeztrátovou kompresi dat, jako je Huffmanovo kódování.
  • Ekonomie a sociální vědy: Pojem entropie se metaforicky používá k popisu tendence sociálních a ekonomických systémů k rozpadu a chaosu, pokud do nich není neustále vkládána energie a úsilí k udržení struktury.

💡 Pro laiky: Entropie na příkladu

Představte si entropii jako "míru nepořádku".

  • Uklizený pokoj: Váš pokoj je uklizený – knihy jsou v knihovně, oblečení ve skříni. Tento stav má nízkou entropii. Je velmi uspořádaný, ale existuje jen málo způsobů, jak ho dosáhnout. K jeho udržení musíte dodávat energii (uklízet).
  • Neuklizený pokoj: Pokud necháte pokoj svému osudu, postupně se stane neuspořádaným. Oblečení se válí po zemi, knihy jsou rozházené. Tento stav má vysokou entropii. Existuje obrovské množství způsobů, jak může být pokoj neuklizený. Systém samovolně směřuje do tohoto neuspořádaného, pravděpodobnějšího stavu.

Stejný princip platí pro fyzikální systémy:

  • Kostka ledu ve vodě: Kostka ledu má molekuly vody uspořádané v pevné krystalové mřížce (nízká entropie). Jak taje, molekuly se uvolňují a pohybují se chaoticky v kapalině (vysoká entropie). Kostka ledu vždy roztaje v teplé vodě; nikdy neuvidíte, že by se z vlažné vody samovolně vytvořila kostka ledu a zbytek vody se ohřál. To je druhý zákon termodynamiky v praxi.


Šablona:Aktualizováno