<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="cs">
	<id>https://infopedia.cz/index.php?action=history&amp;feed=atom&amp;title=Entropie</id>
	<title>Entropie - Historie editací</title>
	<link rel="self" type="application/atom+xml" href="https://infopedia.cz/index.php?action=history&amp;feed=atom&amp;title=Entropie"/>
	<link rel="alternate" type="text/html" href="https://infopedia.cz/index.php?title=Entropie&amp;action=history"/>
	<updated>2026-05-08T15:59:31Z</updated>
	<subtitle>Historie editací této stránky</subtitle>
	<generator>MediaWiki 1.44.2</generator>
	<entry>
		<id>https://infopedia.cz/index.php?title=Entropie&amp;diff=15946&amp;oldid=prev</id>
		<title>InfopediaBot: Bot: AI generace (gemini-2.5-pro + Cache)</title>
		<link rel="alternate" type="text/html" href="https://infopedia.cz/index.php?title=Entropie&amp;diff=15946&amp;oldid=prev"/>
		<updated>2025-12-18T06:51:21Z</updated>

		<summary type="html">&lt;p&gt;Bot: AI generace (gemini-2.5-pro + Cache)&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nová stránka&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{K rozšíření}}&lt;br /&gt;
{{Infobox Fyzikální veličina&lt;br /&gt;
| název = Entropie&lt;br /&gt;
| značka = &amp;#039;&amp;#039;S&amp;#039;&amp;#039;&lt;br /&gt;
| další značení = &amp;#039;&amp;#039;Φ&amp;#039;&amp;#039;&lt;br /&gt;
| typ veličiny = [[Stavová veličina|stavová]], [[Extenzivní veličina|extenzivní]]&lt;br /&gt;
| jednotka SI = [[Joule na kelvin]] (J·K⁻¹)&lt;br /&gt;
| další jednotky = [[Kalorie]] na [[Kelvin|kelvin]] (cal·K⁻¹)&lt;br /&gt;
| definice = Míra termodynamické neuspořádanosti nebo náhodnosti systému.&lt;br /&gt;
| poznámky = V informační teorii míra neurčitosti.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Entropie&amp;#039;&amp;#039;&amp;#039; (značka &amp;#039;&amp;#039;S&amp;#039;&amp;#039;) je fundamentální [[fyzikální veličina]], která se nejčastěji popisuje jako míra neuspořádanosti, náhodnosti nebo neurčitosti v systému. Je to klíčový koncept v [[termodynamika|termodynamice]], [[statistická mechanika|statistické mechanice]] a [[informační teorie|informační teorii]]. Její význam je úzce spjat s [[Druhý zákon termodynamiky|druhým zákonem termodynamiky]], který říká, že celková entropie [[izolovaná soustava|izolovaného systému]] se časem nikdy nezmenšuje.&lt;br /&gt;
&lt;br /&gt;
V termodynamickém kontextu entropie souvisí s množstvím [[energie]], které není k dispozici pro vykonání [[práce (fyzika)|práce]]. Ve statistické mechanice je definována pomocí počtu možných mikroskopických uspořádání (mikrostavů), které odpovídají jednomu makroskopickému stavu systému. V informační teorii pak entropie kvantifikuje množství nejistoty nebo informace obsažené ve zprávě či datovém souboru.&lt;br /&gt;
&lt;br /&gt;
Základní jednotkou entropie v soustavě [[Soustava SI|SI]] je [[Joule na kelvin]] (J/K).&lt;br /&gt;
&lt;br /&gt;
== 📜 Historie ==&lt;br /&gt;
Koncept entropie se vyvíjel postupně v 19. století v souvislosti se snahou porozumět fungování [[parní stroj|parních strojů]] a limitům jejich účinnosti.&lt;br /&gt;
&lt;br /&gt;
=== 🌡️ Práce Rudolfa Clausia ===&lt;br /&gt;
Pojem entropie zavedl v roce [[1865]] německý fyzik [[Rudolf Clausius]]. Hledal veličinu, která by popisovala nevratnost přírodních procesů, jako je například vedení [[teplo|tepla]] z teplejšího tělesa na chladnější. Clausius definoval změnu entropie (Δ&amp;#039;&amp;#039;S&amp;#039;&amp;#039;) pro [[reverzibilní děj|reverzibilní]] (vratný) proces jako podíl tepla (&amp;#039;&amp;#039;Q&amp;#039;&amp;#039;) dodaného systému a [[absolutní teplota|absolutní teploty]] (&amp;#039;&amp;#039;T&amp;#039;&amp;#039;), při které se teplo dodává:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;\Delta S = \frac{Q_{rev}}{T}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Clausius také formuloval druhý zákon termodynamiky pomocí entropie, když prohlásil: &amp;quot;Entropie vesmíru spěje k maximu.&amp;quot; Tím vyjádřil myšlenku, že všechny samovolné procesy v přírodě směřují ke stavu větší neuspořádanosti.&lt;br /&gt;
&lt;br /&gt;
=== 🎲 Statistický přístup Ludwiga Boltzmanna ===&lt;br /&gt;
Rakouský fyzik [[Ludwig Boltzmann]] na konci 19. století propojil makroskopický koncept entropie s mikroskopickým chováním atomů a molekul. Uvědomil si, že entropie je mírou počtu možných mikroskopických uspořádání (mikrostavů), které může systém zaujmout, aniž by se změnil jeho makroskopický stav (např. [[tlak]], [[teplota]], [[objem]]).&lt;br /&gt;
&lt;br /&gt;
Tento vztah je vyjádřen slavnou [[Boltzmannova rovnice|Boltzmannovou rovnicí]], která je vytesána na jeho náhrobku:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;S = k_B \ln W&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
kde:&lt;br /&gt;
* &amp;#039;&amp;#039;S&amp;#039;&amp;#039; je entropie systému.&lt;br /&gt;
* &amp;#039;&amp;#039;k&amp;#039;&amp;#039;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt; je [[Boltzmannova konstanta]] (přírodní konstanta spojující energii a teplotu).&lt;br /&gt;
* &amp;#039;&amp;#039;W&amp;#039;&amp;#039; (z německého &amp;#039;&amp;#039;Wahrscheinlichkeit&amp;#039;&amp;#039; – pravděpodobnost) je počet mikrostavů odpovídajících danému makrostavu.&lt;br /&gt;
&lt;br /&gt;
Boltzmannova definice ukázala, že nárůst entropie je vlastně přechod systému do pravděpodobnějšího stavu. Stav s vysokou uspořádaností (např. všechny molekuly plynu v jednom rohu nádoby) je možný, ale extrémně nepravděpodobný ve srovnání s obrovským počtem neuspořádaných stavů (molekuly rovnoměrně rozptýlené po celé nádobě).&lt;br /&gt;
&lt;br /&gt;
=== 💬 Informační entropie Clauda Shannona ===&lt;br /&gt;
Ve 40. letech 20. století americký matematik a inženýr [[Claude Shannon]] vyvinul [[informační teorie|informační teorii]] a zavedl koncept informační entropie. Shannonova entropie je mírou nejistoty spojené s náhodnou proměnnou nebo mírou průměrného množství [[informace]] obsaženého ve zprávě.&lt;br /&gt;
&lt;br /&gt;
Matematicky je velmi podobná Boltzmannově rovnici a ukazuje hlubokou souvislost mezi termodynamikou a informací. Systém s vysokou informační entropií je nepředvídatelný (např. hod spravedlivou mincí), zatímco systém s nízkou entropií je předvídatelný (např. hod falešnou mincí, která vždy padne na jednu stranu).&lt;br /&gt;
&lt;br /&gt;
== 🔬 Konceptuální Definice ==&lt;br /&gt;
Entropii lze chápat z několika různých, ale vzájemně propojených úhlů pohledu.&lt;br /&gt;
&lt;br /&gt;
=== Termodynamická definice ===&lt;br /&gt;
V klasické [[termodynamika|termodynamice]] je entropie stavová funkce, což znamená, že její hodnota závisí pouze na aktuálním stavu systému, nikoli na cestě, jakou se do něj dostal. Změna entropie popisuje, jak se teplo šíří a jaká část energie je &amp;quot;znehodnocena&amp;quot; v tom smyslu, že ji nelze přeměnit na užitečnou práci. Například při tření se mechanická [[energie]] nevratně mění na teplo, což zvyšuje celkovou entropii.&lt;br /&gt;
&lt;br /&gt;
=== Statistická definice ===&lt;br /&gt;
Tato definice je považována za fundamentálnější. Představme si krabici rozdělenou na dvě poloviny a v ní čtyři molekuly plynu.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Nízká entropie:&amp;#039;&amp;#039;&amp;#039; Existuje pouze jeden způsob (mikrostav), jak mohou být všechny čtyři molekuly v levé polovině. Tento stav je vysoce uspořádaný.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Vysoká entropie:&amp;#039;&amp;#039;&amp;#039; Existuje šest různých způsobů, jak mohou být dvě molekuly vlevo a dvě vpravo. Tento stav je neuspořádaný a statisticky mnohem pravděpodobnější.&lt;br /&gt;
&lt;br /&gt;
Protože systémy v přírodě samovolně přecházejí do nejpravděpodobnějších stavů, plyn se vždy rozptýlí po celé nádobě, čímž maximalizuje svou entropii.&lt;br /&gt;
&lt;br /&gt;
=== Informační definice ===&lt;br /&gt;
V kontextu [[informace|informací]] entropie měří průměrnou &amp;quot;překvapivost&amp;quot;. Pokud zdroj vysílá zprávy, které jsou velmi předvídatelné (např. text složený pouze z písmene &amp;quot;A&amp;quot;), entropie je nízká. Pokud jsou zprávy zcela náhodné a nepředvídatelné, entropie je vysoká. Tento princip je základem pro [[komprese dat|kompresi dat]] – data s nízkou entropií (opakující se vzory) lze zkomprimovat efektivněji.&lt;br /&gt;
&lt;br /&gt;
== ⚙️ Druhý zákon termodynamiky ==&lt;br /&gt;
[[Druhý zákon termodynamiky]] je jedním z nejdůležitějších přírodních zákonů a je neoddělitelně spjat s entropií. Lze jej formulovat několika způsoby:&lt;br /&gt;
&lt;br /&gt;
1.  &amp;#039;&amp;#039;&amp;#039;Clausiova formulace:&amp;#039;&amp;#039;&amp;#039; Teplo nemůže samovolně přecházet z chladnějšího tělesa na teplejší.&lt;br /&gt;
2.  &amp;#039;&amp;#039;&amp;#039;Kelvin-Planckova formulace:&amp;#039;&amp;#039;&amp;#039; Není možné sestrojit [[perpetuum mobile|periodicky pracující stroj]], který by trvale konal práci pouze ochlazováním jednoho tělesa.&lt;br /&gt;
3.  &amp;#039;&amp;#039;&amp;#039;Entropická formulace:&amp;#039;&amp;#039;&amp;#039; Celková entropie izolované soustavy se časem nikdy nezmenšuje. Při [[reverzibilní děj|reverzibilních dějích]] zůstává konstantní, při [[ireverzibilní děj|ireverzibilních]] (všech reálných) dějích roste.&lt;br /&gt;
&lt;br /&gt;
Tento zákon vysvětluje, proč se věci opotřebovávají, proč se horký čaj ochladí na pokojovou teplotu (ale nikdy se samovolně neohřeje) a proč je nemožné dosáhnout 100% účinnosti u tepelných strojů. Definuje také takzvanou [[Šipka času|šipku času]] – směr, kterým se procesy v čase přirozeně vyvíjejí.&lt;br /&gt;
&lt;br /&gt;
== 🌍 Aplikace a Důsledky ==&lt;br /&gt;
Entropie má hluboké důsledky v mnoha oblastech vědy a techniky.&lt;br /&gt;
&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Fyzika a chemie:&amp;#039;&amp;#039;&amp;#039; Entropie řídí směr [[chemická reakce|chemických reakcí]], [[fázový přechod|fázové přechody]] (např. tání ledu, vypařování vody) a chování plynů. Je klíčová pro pochopení účinnosti [[tepelný motor|tepelných motorů]] a [[chladicí zařízení|chladicích zařízení]].&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Kosmologie:&amp;#039;&amp;#039;&amp;#039; Koncept nárůstu entropie vedl k hypotéze o [[Tepelná smrt vesmíru|tepelné smrti vesmíru]], což je teoretický konečný stav, kdy [[vesmír]] dosáhne maximální entropie a termodynamické rovnováhy, což znemožní jakoukoli další práci a procesy. Entropie je také spojována s [[černá díra|černými dírami]] ([[Bekenstein-Hawkingova entropie]]).&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Biologie:&amp;#039;&amp;#039;&amp;#039; Živé organismy jsou vysoce uspořádané systémy s nízkou entropií. Udržují si tento stav tím, že neustále přijímají energii z okolí (např. potravu) a uvolňují odpadní produkty a teplo, čímž zvyšují entropii svého okolí. Život je tedy lokální snížení entropie, které je &amp;quot;zaplaceno&amp;quot; větším zvýšením entropie ve zbytku vesmíru. Tento koncept se někdy označuje jako [[negentropie]].&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Informatika:&amp;#039;&amp;#039;&amp;#039; Informační entropie je základem pro teorii kódování, [[kryptografie|kryptografii]] a algoritmy pro [[komprese dat|bezeztrátovou kompresi dat]], jako je [[Huffmanovo kódování]].&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Ekonomie a sociální vědy:&amp;#039;&amp;#039;&amp;#039; Pojem entropie se metaforicky používá k popisu tendence sociálních a ekonomických systémů k rozpadu a chaosu, pokud do nich není neustále vkládána energie a úsilí k udržení struktury.&lt;br /&gt;
&lt;br /&gt;
== 💡 Pro laiky: Entropie na příkladu ==&lt;br /&gt;
Představte si entropii jako &amp;quot;míru nepořádku&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Uklizený pokoj:&amp;#039;&amp;#039;&amp;#039; Váš pokoj je uklizený – knihy jsou v knihovně, oblečení ve skříni. Tento stav má nízkou entropii. Je velmi uspořádaný, ale existuje jen málo způsobů, jak ho dosáhnout. K jeho udržení musíte dodávat energii (uklízet).&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Neuklizený pokoj:&amp;#039;&amp;#039;&amp;#039; Pokud necháte pokoj svému osudu, postupně se stane neuspořádaným. Oblečení se válí po zemi, knihy jsou rozházené. Tento stav má vysokou entropii. Existuje obrovské množství způsobů, jak může být pokoj neuklizený. Systém samovolně směřuje do tohoto neuspořádaného, pravděpodobnějšího stavu.&lt;br /&gt;
&lt;br /&gt;
Stejný princip platí pro [[fyzika|fyzikální]] systémy:&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Kostka ledu ve vodě:&amp;#039;&amp;#039;&amp;#039; Kostka ledu má molekuly vody uspořádané v pevné krystalové mřížce (nízká entropie). Jak taje, molekuly se uvolňují a pohybují se chaoticky v kapalině (vysoká entropie). Kostka ledu vždy roztaje v teplé vodě; nikdy neuvidíte, že by se z vlažné vody samovolně vytvořila kostka ledu a zbytek vody se ohřál. To je druhý zákon termodynamiky v praxi.&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Entropie}}&lt;br /&gt;
{{Aktualizováno|datum=18.12.2025}}&lt;br /&gt;
[[Kategorie:Termodynamika]]&lt;br /&gt;
[[Kategorie:Statistická fyzika]]&lt;br /&gt;
[[Kategorie:Fyzikální veličiny]]&lt;br /&gt;
[[Kategorie:Informační teorie]]&lt;br /&gt;
[[Kategorie:Filozofické koncepty]]&lt;br /&gt;
[[Kategorie:Vytvořeno Gemini 2.5 Pro]]&lt;/div&gt;</summary>
		<author><name>InfopediaBot</name></author>
	</entry>
</feed>