<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="cs">
	<id>https://infopedia.cz/index.php?action=history&amp;feed=atom&amp;title=Big_data</id>
	<title>Big data - Historie editací</title>
	<link rel="self" type="application/atom+xml" href="https://infopedia.cz/index.php?action=history&amp;feed=atom&amp;title=Big_data"/>
	<link rel="alternate" type="text/html" href="https://infopedia.cz/index.php?title=Big_data&amp;action=history"/>
	<updated>2026-04-08T16:00:33Z</updated>
	<subtitle>Historie editací této stránky</subtitle>
	<generator>MediaWiki 1.44.2</generator>
	<entry>
		<id>https://infopedia.cz/index.php?title=Big_data&amp;diff=9744&amp;oldid=prev</id>
		<title>Filmedy v 7. 10. 2025, 00:33</title>
		<link rel="alternate" type="text/html" href="https://infopedia.cz/index.php?title=Big_data&amp;diff=9744&amp;oldid=prev"/>
		<updated>2025-10-07T00:33:40Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;a href=&quot;https://infopedia.cz/index.php?title=Big_data&amp;amp;diff=9744&amp;amp;oldid=9743&quot;&gt;Ukázat změny&lt;/a&gt;</summary>
		<author><name>Filmedy</name></author>
	</entry>
	<entry>
		<id>https://infopedia.cz/index.php?title=Big_data&amp;diff=9743&amp;oldid=prev</id>
		<title>Filmedy: založena nová stránka s textem „{{K rozšíření}}  &#039;&#039;&#039;Big data&#039;&#039;&#039; (množné číslo, česky též &#039;&#039;&#039;velká data&#039;&#039;&#039;) je termín označující extrémně velké a složité datové soubory, jejichž analýza a zpracování jsou nad rámec možností tradičních databázových a softwarových nástrojů. Nejde jen o samotné množství dat, ale také o rychlost, jakou jsou generována, a o jejich rozmanitost. Cílem analýzy Big data je odhalit skryté vzorce, neznámé korelace, t…“</title>
		<link rel="alternate" type="text/html" href="https://infopedia.cz/index.php?title=Big_data&amp;diff=9743&amp;oldid=prev"/>
		<updated>2025-10-07T00:30:54Z</updated>

		<summary type="html">&lt;p&gt;založena nová stránka s textem „{{K rozšíření}}  &amp;#039;&amp;#039;&amp;#039;Big data&amp;#039;&amp;#039;&amp;#039; (množné číslo, česky též &amp;#039;&amp;#039;&amp;#039;velká data&amp;#039;&amp;#039;&amp;#039;) je termín označující extrémně velké a složité datové soubory, jejichž analýza a zpracování jsou nad rámec možností tradičních databázových a softwarových nástrojů. Nejde jen o samotné množství dat, ale také o rychlost, jakou jsou generována, a o jejich rozmanitost. Cílem analýzy Big data je odhalit skryté vzorce, neznámé korelace, t…“&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nová stránka&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{K rozšíření}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Big data&amp;#039;&amp;#039;&amp;#039; (množné číslo, česky též &amp;#039;&amp;#039;&amp;#039;velká data&amp;#039;&amp;#039;&amp;#039;) je termín označující extrémně velké a složité datové soubory, jejichž analýza a zpracování jsou nad rámec možností tradičních databázových a softwarových nástrojů. Nejde jen o samotné množství dat, ale také o rychlost, jakou jsou generována, a o jejich rozmanitost. Cílem analýzy Big data je odhalit skryté vzorce, neznámé korelace, tržní trendy a další užitečné informace, které mohou vést k lepším obchodním rozhodnutím, vědeckým objevům a optimalizaci procesů.&lt;br /&gt;
&lt;br /&gt;
{{Infobox Technologie&lt;br /&gt;
| název = Big data&lt;br /&gt;
| obrázek = Big_Data_visualization.png&lt;br /&gt;
| popisek = Vizualizace datových toků, typický příklad komplexity Big data&lt;br /&gt;
| typ = Zpracování a analýza velkých datových souborů&lt;br /&gt;
| klíčové koncepty = Pět V (Volume, Velocity, Variety, Veracity, Value), Distribuované výpočty, [[Strojové učení]], [[Umělá inteligence]]&lt;br /&gt;
| klíčové technologie = [[Apache Hadoop]], [[Apache Spark]], [[NoSQL]] databáze&lt;br /&gt;
| související obory = [[Informatika]], [[Statistika]], [[Ekonomie]], [[Sociologie]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== 📝 Definice a charakteristika (Pět V) ==&lt;br /&gt;
Big data jsou nejčastěji definována pomocí několika charakteristik, které se označují jako &amp;quot;V&amp;quot;. Původně byly tři, ale postupně se model rozšířil na pět klíčových vlastností&amp;lt;ref&amp;gt;https://www.ibm.com/topics/big-data&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
1.  &amp;#039;&amp;#039;&amp;#039;Volume (Objem):&amp;#039;&amp;#039;&amp;#039; Jedná se o nejzřejmější charakteristiku – obrovské množství dat. Zatímco v minulosti se jednalo o gigabajty a terabajty, dnes se běžně pracuje s petabajty, exabajty a zettabajty dat. Například sociální sítě, vědecké experimenty (např. v CERNu) nebo senzory v [[Internet věcí|Internetu věcí]] (IoT) generují nepředstavitelné objemy dat každý den.&lt;br /&gt;
2.  &amp;#039;&amp;#039;&amp;#039;Velocity (Rychlost):&amp;#039;&amp;#039;&amp;#039; Popisuje rychlost, s jakou jsou nová data generována a s jakou se musí zpracovávat. V mnoha případech je potřeba analyzovat data v reálném čase (nebo téměř v reálném čase), aby měla smysl. Příkladem jsou data z finančních trhů, monitorování dopravy nebo streamované příspěvky na sociálních sítích.&lt;br /&gt;
3.  &amp;#039;&amp;#039;&amp;#039;Variety (Rozmanitost):&amp;#039;&amp;#039;&amp;#039; Data přicházejí v mnoha různých formátech. Dělí se na tři hlavní typy:&lt;br /&gt;
    *   &amp;#039;&amp;#039;&amp;#039;Strukturovaná data:&amp;#039;&amp;#039;&amp;#039; Mají pevně daný formát a jsou snadno organizovatelná v tabulkách, typicky v relačních databázích (např. data o bankovních transakcích).&lt;br /&gt;
    *   &amp;#039;&amp;#039;&amp;#039;Nestrukturovaná data:&amp;#039;&amp;#039;&amp;#039; Nemají žádnou předdefinovanou strukturu. Tvoří většinu Big data. Patří sem texty (e-maily, dokumenty, příspěvky na sociálních sítích), obrázky, audio a video záznamy&amp;lt;ref&amp;gt;https://www.techtarget.com/searchdatamanagement/definition/unstructured-data&amp;lt;/ref&amp;gt;.&lt;br /&gt;
    *   &amp;#039;&amp;#039;&amp;#039;Semistrukturovaná data:&amp;#039;&amp;#039;&amp;#039; Jsou jakýmsi mezistupněm, nemají pevnou tabulkovou strukturu, ale obsahují tagy a značky, které oddělují sémantické prvky (např. data ve formátu XML nebo JSON).&lt;br /&gt;
&lt;br /&gt;
K těmto třem základním &amp;quot;V&amp;quot; se často přidávají další dvě:&lt;br /&gt;
4.  &amp;#039;&amp;#039;&amp;#039;Veracity (Věrohodnost):&amp;#039;&amp;#039;&amp;#039; Týká se kvality a spolehlivosti dat. Data mohou být neúplná, nepřesná, nekonzistentní nebo zastaralá. Zajištění věrohodnosti je jednou z největších výzev, protože rozhodnutí založená na špatných datech mohou být chybná a škodlivá.&lt;br /&gt;
5.  &amp;#039;&amp;#039;&amp;#039;Value (Hodnota):&amp;#039;&amp;#039;&amp;#039; Samotná data nemají žádnou hodnotu, dokud nejsou analyzována a přeměněna na užitečnou informaci. Cílem je z obrovského objemu dat &amp;quot;vytěžit&amp;quot; hodnotné poznatky, které lze využít k inovacím, optimalizaci nebo strategickému rozhodování.&lt;br /&gt;
&lt;br /&gt;
== ⏳ Historický kontext a vznik ==&lt;br /&gt;
Pojem Big data se začal objevovat na začátku 21. století, ale problém zpracování velkých objemů dat je mnohem starší. Exploze dat začala s nástupem digitálního věku a byla poháněna několika klíčovými faktory:&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Rozvoj internetu a World Wide Webu:&amp;#039;&amp;#039;&amp;#039; Na počátku 90. let začaly firmy jako Google a Yahoo čelit problému, jak indexovat a prohledávat obrovské a neustále rostoucí množství webových stránek.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Sociální média a mobilní zařízení:&amp;#039;&amp;#039;&amp;#039; Nástup platforem jako Facebook, Twitter a YouTube v první dekádě 21. století vedl k exponenciálnímu nárůstu uživatelsky generovaných dat (texty, fotky, videa).&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Internet věcí (IoT):&amp;#039;&amp;#039;&amp;#039; V posledních letech se hlavním zdrojem dat stávají miliardy propojených zařízení – od chytrých hodinek a telefonů přes senzory v automobilech a průmyslových strojích až po chytré domácnosti.&lt;br /&gt;
&lt;br /&gt;
Tradiční &amp;#039;&amp;#039;&amp;#039;relační databázové systémy&amp;#039;&amp;#039;&amp;#039; (založené na jazyce [[SQL]]) byly navrženy pro zpracování strukturovaných dat na jednom výkonném serveru. S nástupem Big data se však tento centralizovaný přístup ukázal jako neudržitelný – žádný jednotlivý počítač nedokázal uložit a zpracovat tak obrovské a rozmanité datové soubory dostatečně rychle. Bylo nutné vyvinout nový přístup založený na &amp;#039;&amp;#039;&amp;#039;distribuovaných výpočtech&amp;#039;&amp;#039;&amp;#039;, tedy rozdělení úlohy mezi desítky, stovky nebo i tisíce levnějších, běžných počítačů (komoditní hardware) pracujících paralelně&amp;lt;ref&amp;gt;https://cs.wikipedia.org/wiki/Distribuovan%C3%BD_syst%C3%A9m&amp;lt;/ref&amp;gt;. Průkopníkem v této oblasti byl Google, který na začátku 21. století vyvinul pro vlastní potřebu technologie MapReduce a Google File System, jež se staly inspirací pro open-source projekty, které dnes tvoří jádro ekosystému Big data&amp;lt;ref&amp;gt;https://www.mongodb.com/big-data-explained/history-of-big-data&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== 🛠️ Technologie a architektura ==&lt;br /&gt;
Zpracování Big data vyžaduje specializované technologie, které jsou navrženy pro práci v distribuovaném prostředí.&lt;br /&gt;
&lt;br /&gt;
=== Ekosystém Apache Hadoop ===&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;[[Apache Hadoop]]&amp;#039;&amp;#039;&amp;#039; je open-source softwarový framework, který se stal de facto standardem pro ukládání a dávkové zpracování Big data. Je inspirován technologiemi Googlu a skládá se ze dvou klíčových komponent&amp;lt;ref&amp;gt;https://hadoop.apache.org/&amp;lt;/ref&amp;gt;:&lt;br /&gt;
1.  &amp;#039;&amp;#039;&amp;#039;Hadoop Distributed File System (HDFS):&amp;#039;&amp;#039;&amp;#039; Je to distribuovaný souborový systém navržený pro ukládání obrovských souborů (terabajty a více) napříč velkým počtem běžných serverů. Data jsou automaticky rozdělena do menších bloků a replikována na více strojů, což zajišťuje vysokou dostupnost a odolnost proti selhání jednotlivých serverů.&lt;br /&gt;
2.  &amp;#039;&amp;#039;&amp;#039;MapReduce:&amp;#039;&amp;#039;&amp;#039; Je to programovací model a zpracovávací engine pro paralelní zpracování dat uložených v HDFS. Funguje ve dvou fázích:&lt;br /&gt;
    *   &amp;#039;&amp;#039;&amp;#039;Fáze Map:&amp;#039;&amp;#039;&amp;#039; Hlavní úloha je rozdělena na mnoho menších podúloh, které jsou paralelně zpracovány na jednotlivých uzlech clusteru (tam, kde leží data).&lt;br /&gt;
    *   &amp;#039;&amp;#039;&amp;#039;Fáze Reduce:&amp;#039;&amp;#039;&amp;#039; Výsledky z fáze Map jsou shromážděny, agregovány a je z nich vytvořen finální výsledek.&lt;br /&gt;
Kolem těchto dvou základních pilířů se vyvinul rozsáhlý ekosystém dalších nástrojů, jako jsou Hive (pro SQL-like dotazování), Pig (pro skriptování datových toků) nebo HBase (NoSQL databáze).&lt;br /&gt;
&lt;br /&gt;
=== Apache Spark ===&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;[[Apache Spark]]&amp;#039;&amp;#039;&amp;#039; je modernější a rychlejší alternativa k MapReduce. Zatímco MapReduce zapisuje mezivýsledky na disk, Spark provádí většinu výpočtů v operační paměti (in-memory), což ho činí až 100krát rychlejším&amp;lt;ref&amp;gt;https://spark.apache.org/&amp;lt;/ref&amp;gt;. Díky své rychlosti a flexibilitě je vhodný nejen pro dávkové zpracování, ale i pro interaktivní analýzu, strojové učení a zpracování dat v reálném čase (streaming).&lt;br /&gt;
&lt;br /&gt;
=== NoSQL Databáze ===&lt;br /&gt;
Tradiční relační databáze (SQL) jsou pro mnoho typů Big data příliš rigidní a špatně škálovatelné. Proto vznikly &amp;#039;&amp;#039;&amp;#039;[[NoSQL]]&amp;#039;&amp;#039;&amp;#039; (&amp;quot;Not Only SQL&amp;quot;) databáze, které jsou navrženy pro flexibilitu, škálovatelnost a práci s nestrukturovanými daty. Existuje několik typů&amp;lt;ref&amp;gt;https://www.mongodb.com/nosql-explained&amp;lt;/ref&amp;gt;:&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Dokumentové databáze&amp;#039;&amp;#039;&amp;#039; (např. MongoDB): Ukládají data ve flexibilních, semistrukturovaných dokumentech (např. JSON).&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Klíč-hodnota databáze&amp;#039;&amp;#039;&amp;#039; (např. Redis): Nejjednodušší typ, ukládá data jako páry klíčů a hodnot.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Sloupcové databáze&amp;#039;&amp;#039;&amp;#039; (např. Apache Cassandra): Optimalizované pro rychlé čtení a zápis velkých objemů dat.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Grafové databáze&amp;#039;&amp;#039;&amp;#039; (např. Neo4j): Specializované na ukládání a analýzu vztahů mezi daty, ideální pro sociální sítě nebo doporučovací systémy.&lt;br /&gt;
&lt;br /&gt;
== 🔄 Životní cyklus Big data ==&lt;br /&gt;
Práce s Big data je komplexní proces, který lze rozdělit do několika fází:&lt;br /&gt;
&lt;br /&gt;
1.  &amp;#039;&amp;#039;&amp;#039;Sběr dat (Ingestion):&amp;#039;&amp;#039;&amp;#039; Data jsou shromažďována z různých zdrojů – webových stránek, sociálních médií, senzorů, logů aplikací atd.&lt;br /&gt;
2.  &amp;#039;&amp;#039;&amp;#039;Uložení (Storage):&amp;#039;&amp;#039;&amp;#039; Obrovské objemy dat jsou uloženy v distribuovaném souborovém systému, jako je HDFS, nebo v cloudových úložištích (např. Amazon S3).&lt;br /&gt;
3.  &amp;#039;&amp;#039;&amp;#039;Zpracování a čištění (Processing &amp;amp; Cleaning):&amp;#039;&amp;#039;&amp;#039; Surová data jsou často neúplná, nekonzistentní a plná chyb. V této fázi jsou data transformována, čištěna a připravována pro analýzu. Tento proces, často označovaný jako &amp;#039;&amp;#039;&amp;#039;ETL&amp;#039;&amp;#039;&amp;#039; (Extract, Transform, Load), je jedním z časově nejnáročnějších.&lt;br /&gt;
4.  &amp;#039;&amp;#039;&amp;#039;Analýza (Analysis):&amp;#039;&amp;#039;&amp;#039; Jádro celého procesu. Na připravená data jsou aplikovány různé analytické metody – od jednoduchých statistických dotazů přes datamining až po složité algoritmy [[strojové učení|strojového učení]] a [[umělá inteligence|umělé inteligence]] – s cílem odhalit vzorce a trendy.&lt;br /&gt;
5.  &amp;#039;&amp;#039;&amp;#039;Vizualizace a interpretace (Visualization &amp;amp; Interpretation):&amp;#039;&amp;#039;&amp;#039; Výsledky analýzy jsou prezentovány v srozumitelné formě, nejčastěji pomocí grafů, dashboardů a reportů, aby jim mohli porozumět i netechničtí uživatelé a mohli na jejich základě činit rozhodnutí.&lt;br /&gt;
&lt;br /&gt;
== 🏢 Příklady aplikací ==&lt;br /&gt;
Big data transformují téměř každé odvětví.&lt;br /&gt;
&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Obchod a marketing:&amp;#039;&amp;#039;&amp;#039; Firmy analyzují nákupní chování zákazníků, aby jim mohly nabízet personalizované produkty a reklamu (doporučovací systémy Amazonu, Netflixu). Sledují trendy na sociálních sítích a optimalizují své marketingové kampaně.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Zdravotnictví:&amp;#039;&amp;#039;&amp;#039; Analýza velkých souborů dat o pacientech, genomických dat a klinických studií pomáhá v personalizované medicíně, predikci šíření nemocí a vývoji nových léků. Chytré hodinky a nositelná elektronika sbírají v reálném čase data o zdravotním stavu uživatelů.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Finance:&amp;#039;&amp;#039;&amp;#039; Banky a finanční instituce využívají Big data k detekci podvodných transakcí, hodnocení úvěrového rizika a algoritmickému obchodování na burze.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Doprava a logistika:&amp;#039;&amp;#039;&amp;#039; Analýza dopravních dat v reálném čase umožňuje optimalizovat trasy (např. Google Maps, Waze), řídit dopravní systémy a předcházet zácpám. Logistické firmy jako UPS nebo FedEx optimalizují své doručovací trasy, čímž šetří palivo a čas.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Věda:&amp;#039;&amp;#039;&amp;#039; Vědecké obory jako astronomie (analýza dat z teleskopů), fyzika částic (zpracování dat ze srážek v urychlovačích) nebo genomika by bez schopnosti zpracovávat masivní datové soubory nemohly existovat.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Média a zábava:&amp;#039;&amp;#039;&amp;#039; Streamovací služby analyzují sledovanost a chování uživatelů, aby rozhodly, do jakých filmů a seriálů investovat.&lt;br /&gt;
&lt;br /&gt;
== ⚖️ Výzvy, kritika a etika ==&lt;br /&gt;
Navzdory obrovskému potenciálu přináší éra Big data i řadu závažných výzev a etických problémů.&lt;br /&gt;
&lt;br /&gt;
=== Soukromí a ochrana dat ===&lt;br /&gt;
Shromažďování obrovského množství osobních údajů vyvolává vážné obavy o soukromí. Data o našem chování na internetu, poloze, nákupních zvyklostech nebo zdravotním stavu mohou být zneužita k manipulaci, diskriminaci nebo sledování. V reakci na tyto hrozby vznikají nové legislativní rámce, jako je &amp;#039;&amp;#039;&amp;#039;[[Obecné nařízení o ochraně osobních údajů|Obecné nařízení o ochraně osobních údajů]]&amp;#039;&amp;#039;&amp;#039; (GDPR) v Evropské unii, které dává jednotlivcům větší kontrolu nad jejich osobními údaji&amp;lt;ref&amp;gt;https://gdpr.eu/&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
=== Bezpečnost ===&lt;br /&gt;
Centralizace obrovského množství citlivých dat na jednom místě (byť distribuovaném) z nich činí atraktivní cíl pro kybernetické útoky. Masivní úniky dat (data breaches) mohou mít katastrofální následky pro miliony lidí. Zabezpečení Big data infrastruktury je proto klíčovou a neustálou výzvou.&lt;br /&gt;
&lt;br /&gt;
=== Algoritmická zaujatost (Bias) a diskriminace ===&lt;br /&gt;
Algoritmy strojového učení se učí z dat, která jim poskytneme. Pokud tato trénovací data odrážejí existující společenské předsudky (např. rasové nebo genderové), algoritmus se je naučí a může je dokonce i zesílit&amp;lt;ref&amp;gt;https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/&amp;lt;/ref&amp;gt;. To může vést k diskriminaci v oblastech, jako je schvalování úvěrů, nábor zaměstnanců nebo policejní práce, kde &amp;quot;objektivní&amp;quot; rozhodnutí stroje ve skutečnosti jen replikuje lidské předsudky.&lt;br /&gt;
&lt;br /&gt;
=== Nedostatek odborníků a složitost ===&lt;br /&gt;
Práce s Big data vyžaduje vysoce specializované dovednosti v oblasti informatiky, statistiky a strojového učení. Poptávka po odbornících, jako jsou &amp;#039;&amp;#039;&amp;#039;datoví vědci&amp;#039;&amp;#039;&amp;#039; (data scientists) a datoví inženýři, výrazně převyšuje nabídku, což představuje pro mnoho firem překážku v adopci těchto technologií&amp;lt;ref&amp;gt;https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-data-scientist-shortage-and-how-to-fix-it&amp;lt;/ref&amp;gt;. Implementace a správa Big data systémů je navíc technicky velmi náročná a nákladná.&lt;br /&gt;
&lt;br /&gt;
== 🔮 Budoucnost Big data ==&lt;br /&gt;
Oblast Big data se neustále vyvíjí a směřuje k několika klíčovým trendům:&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Integrace s umělou inteligencí:&amp;#039;&amp;#039;&amp;#039; AI a strojové učení se stávají nepostradatelnými pro automatickou analýzu a získávání hodnoty z dat. Budoucí systémy budou schopny nejen analyzovat, co se stalo, ale i předpovídat budoucí trendy a automaticky na ně reagovat.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Edge Computing:&amp;#039;&amp;#039;&amp;#039; Místo posílání všech dat ze senzorů a zařízení do centrálního cloudu se stále více výpočtů bude odehrávat na &amp;quot;okraji&amp;quot; sítě (&amp;#039;&amp;#039;edge&amp;#039;&amp;#039;), tedy přímo v zařízeních. To snižuje zpoždění (latenci) a je klíčové pro aplikace vyžadující okamžitou reakci, jako jsou autonomní vozidla&amp;lt;ref&amp;gt;https://www.ibm.com/cloud/what-is-edge-computing&amp;lt;/ref&amp;gt;.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Explainable AI (XAI):&amp;#039;&amp;#039;&amp;#039; S rostoucím nasazením komplexních AI modelů (&amp;quot;černých skříněk&amp;quot;) roste potřeba, aby jejich rozhodnutí byla transparentní a srozumitelná pro člověka. XAI (vysvětlitelná umělá inteligence) se snaží vyvinout metody, jak fungování těchto modelů vysvětlit, což je zásadní pro jejich důvěryhodnost a odpovědnost&amp;lt;ref&amp;gt;https://www.ibm.com/watson/what-is-explainable-ai&amp;lt;/ref&amp;gt;.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Data as a Service (DaaS):&amp;#039;&amp;#039;&amp;#039; Trh s daty roste. Firmy budou stále více obchodovat s anonymizovanými datovými soubory, které mohou jiné organizace využít pro své analýzy.&lt;br /&gt;
&lt;br /&gt;
== 💡 Pro laiky ==&lt;br /&gt;
=== Těžení zlata z hromady písku ===&lt;br /&gt;
Představte si, že máte obrovskou, nekonečnou hromadu písku, která se každou sekundu ještě zvětšuje. V tomto písku jsou ukryty mikroskopické částečky zlata, ale také spousta bezcenných kamínků a odpadu.&lt;br /&gt;
&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Hromada písku = Big data:&amp;#039;&amp;#039;&amp;#039; Je obrovská (&amp;#039;&amp;#039;&amp;#039;Volume&amp;#039;&amp;#039;&amp;#039;), neustále roste (&amp;#039;&amp;#039;&amp;#039;Velocity&amp;#039;&amp;#039;&amp;#039;) a skládá se z různých věcí – písku, kamínků, hlíny (&amp;#039;&amp;#039;&amp;#039;Variety&amp;#039;&amp;#039;&amp;#039;). Navíc nevíte, která část je čistá a která znečištěná (&amp;#039;&amp;#039;&amp;#039;Veracity&amp;#039;&amp;#039;&amp;#039;).&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Tradiční lopata = Staré databáze:&amp;#039;&amp;#039;&amp;#039; S obyčejnou lopatou a kyblíkem nemáte šanci takovou hromadu prohrabat a zlato najít. Je to příliš pomalé a neefektivní.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Obří automatizovaný důl = Big data technologie:&amp;#039;&amp;#039;&amp;#039; Místo lopaty postavíte obrovský automatizovaný důlní systém (jako &amp;#039;&amp;#039;&amp;#039;Hadoop&amp;#039;&amp;#039;&amp;#039; a &amp;#039;&amp;#039;&amp;#039;Spark&amp;#039;&amp;#039;&amp;#039;). Má tisíce malých robotických ramen, která pracují najednou. Každé rameno prohrabává svou malou část hromady, odděluje písek od kamínků a hledá cokoli, co se třpytí.&lt;br /&gt;
*   &amp;#039;&amp;#039;&amp;#039;Nalezené zlato = Hodnota (Value):&amp;#039;&amp;#039;&amp;#039; Roboti sami o sobě zlato nevytvářejí, ale dokážou ho neuvěřitelně rychle najít. Těmito zlatými nugety jsou &amp;#039;&amp;#039;&amp;#039;užitečné informace&amp;#039;&amp;#039;&amp;#039;: například odhalení, že zákazníci, kteří kupují produkt A, si s 80% pravděpodobností koupí i produkt B, nebo zjištění, že určitá kombinace příznaků u pacientů spolehlivě předpovídá nástup nemoci.&lt;br /&gt;
&lt;br /&gt;
Cílem Big data tedy není jen sbírat &amp;quot;písek&amp;quot;, ale mít technologii, která z něj dokáže včas vytěžit cenné &amp;quot;zlato&amp;quot; – tedy poznatky, které by jinak zůstaly navždy skryté.&lt;br /&gt;
&lt;br /&gt;
== Reference ==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{DEFAULTSORT:Big data}}&lt;br /&gt;
[[Kategorie:Informatika]]&lt;br /&gt;
[[Kategorie:Data]]&lt;br /&gt;
[[Kategorie:Internet]]&lt;br /&gt;
[[Kategorie:Databáze]]&lt;br /&gt;
[[Kategorie:Technologie]]&lt;br /&gt;
[[Kategorie:Vytvořeno Gemini]]&lt;/div&gt;</summary>
		<author><name>Filmedy</name></author>
	</entry>
</feed>