Informace jako negentropie http://ditam.org/texty/filosofie/informace-jako-negentropie.html Mediální aneb informační věk, v němž žijeme, vyžaduje logicky porozumění pojmům média a informace. Tématem médií jsme se již trochu zabývali v minulé úvaze, nezbývá tedy než se pustit do problematiky informace. Existuje samozřejmě jejích mnoho definic z mnoha vědních oborů a filosofických škol, ale nás bude momentálně nejvíce zajímat pojetí informace jako negentropie ENTROPIE Negentropie je negativní entropie. Co je entropie? Pojem zavedl Rudolf Clausius (1822-88), ale je znám spíš od Ludwiga Boltzmanna (1844-1906), který ji v roce 1887 učinil jedním ze základních konceptů nového oboru statistické fyziky zabývající se termodynamickými vztahy. (Statistická fyzika studuje chování velkého množství částic pomocí metod teorie pravděpodobnosti, přičemž vychází z předpokladů kinetické teorie látek, která je důležitou částí molekulové fyziky.) Entropie je veličina, která charakterizuje směr vývoje systému. Nejjednodušším příkladem fungování entropie ve vesmíru je příklad rozbité skleničky – skleničky se rozbíjejí celkem často, ale nikdy se neskládají zpátky. Obdobně třeba bordel, co se vytváří v našich pokojích – uklízet se musí pořád, ale nepořádek se dělá sám. Neuspořádanost v našem vesmíru vzrůstá. Termodynamika (věda zabývající se teplem, tepelnou energií, neboli kinetickou energií neuspořádaného pohybu částic látky) má tři hlavní zákony neboli věty. První termodynamický zákon je zákonem kvantitativním, který říká, že všechny druhy energie jsou kvantitativně ekvivalentní a vzájemně je lze transformovat. Tedy z hlediska tepelné energie je lze jako formu energie přeměňovat na jiné formy. První věta termodynamická určuje, že energie nikde nemizí, ani se neztrácí, jen přechází z jedné formy do druhé. Druhý termodynamický zákon je kvalitativní, uvádí, jak probíhají tepelné děje v případě, že je tepelnou energii možno přeměňovat s určitým omezením. Je empirický a pravděpodobnostní. Druhá věta v podstatě vylučuje, že by šlo udělat perpetum mobile, protože dochází k neustálým ztrátám energie. Druhá termodynamická věta určuje přirozený směr, kterým přírodní procesy probíhají, ukazuje nevratnost tepelných pochodů, neboli princip růstu entropie (směřování ke stavu s nulovou energetickou úrovní – k úklidu je potřeba mít energii; lenost jako podléhání všeobecné entropii, je možné zjednodušeně chápat jako nejsnadnější „činnost“). V souvislosti s formulací druhého zákona termodynamiky je růst entropie také spojován se směrem času (tzv. termodynamická šipka času). Důležité je, že entropie, která je zde chápána jako stále rostoucí veličina charakterizující tendenci systému dosáhnout rovnovážného stavu, takto funguje v rámci izolovaných systémů. Celková entropie uzavřeného systému se nemůže nikdy zmenšit. V přírodě jakožto uzavřeném vesmíru tedy všechny děje směřují do více neuspořádaného stavu, a tak roste celková entropie. Dle předpokladů L. Boltzmanna se jeví jako nejpravděpodobnější konečný stav vyrovnání pohybových energií molekul. To znamená, že by se konečné hodnoty entropie ve vesmíru dosáhlo tehdy, kdyby se vyrovnaly veškeré teplotní rozdíly (to je tzv. tepelná smrt vesmíru). Tímto konečným stádiem je tedy rovnovážný neuspořádaný stav. Zvláštní je, že takový stav je vlastně naprosto klidným, vyrovnaným, rovnoměrně rozloženým stavem systému a člověk má tendenci nazvat jej spíš uspořádaným. Jde však o stav bez rozlišení, uspořádání, struktury, bez „mřížky“, proto jej nazýváme neuspořádaným, tedy nemajícím řád… NEGENTROPIE Pojem negativní entropie pochází od Erwina Schrödingera, z jeho knihy Co je život? (1944), později ho Léon Brillouin zkrátil na negentropii. Mohl vzniknout až na základě pojetí otevřených systémů. V otevřených systémech se růst entropie kompenzuje možností vzniku negentropie – informace. S růstem poznání a efektivního využívání informací entropie klesá a roste uspořádanost, tedy negentropie. Zřejmě by se dokonce dala vést dělicí čára mezi termodynamikou 19. a 20 stol., jako teorií izolovaných systémů a teorií pracující s otevřenými systémy. Jedině v rámci otevřených systému je totiž možné uvažovat o místních fluktuacích charakteristických růstem negentropie. Zatímco entropie je tedy silou rozkladu, nezměnitelností, nevratností ztrát, přísným řídícím principem uzavřených systémů, negentropie je silou, která se staví proti rozkladu a přináší schopnost otevřených systémů (tedy ve zkratce řečeno těch fungujících v interakci se svým vnějškem) vytvářet soudržné a (svým způsobem) trvalé informace a jejich uspořádání. Tím se také od úvah o směru času v podobě jednoduché šipky času (směrů jednotlivých konkrétních procesů) dostáváme k představě času jako historii v plném slova smyslu, jakožto něčeho relativně trvalého v dějinách živých organismů či lidstva, udržovaného v paměti, ať už v genetické nebo v sociokulturní (např. v knihovnách či na internetové síti). INFORMACE JAKO NEGENTROPIE Mnoho vědců se zabývalo a stále zabývá problémem vztahu termodynamické a informační entropie. (Existují i názory, že první je jen případem druhé…) Situaci lze zjednodušeně vidět i takto: termodynamika se zabývá teplem a bez tepla není život. Úbytek tepla je nahrazován vzrůstem negentropie – informace. I informace je tedy život, je to energie v jiné, uspořádané či organizované podobě (přesně podle první věty termodynamiky, podle níž se energie neztrácí, ale přeměňuje). TEORIE PRAVDĚPODOBNOSTI Shrňme si, že entropie je funkcí stavu uzavřené soustavy charakterizovanou směrem toku samočinných procesů k větší neuspořádanosti a chaosu, a tedy k větší pravděpodobnosti; jejím konečným stádiem je dosažení rovnovážného stavu. Pojem entropie, jak jsme již naznačili, souvisí s teorií pravděpodobnosti, která se týká náhodných jevů (jevů, jejichž výsledek není jistý, jako je např. hod kostkou). Rozvoj teorie pravděpodobnosti probíhal už od 17. století inspirován právě hazardními hrami. Za její počátek se považuje slavná výměna dopisů mezi matematiky Blaisem Pascalem a Pierrem Fermatem zahájená roku 1654. Šlo jim tehdy o otázku, jak spravedlivě rozdělit bank mezi hráče, jestliže série hazardních her musela být předčasně přerušena. Výsledků teorie pravděpodobnosti využívá zejména matematická statistika, zejména v oblasti asymptotického chování náhodných výběrů. Časté jsou také aplikace náhodných procesů na finanční, fyzikální a jiné procesy sledované v čase.[1] Teorie pravděpodobnosti je spojena s novými analýzami dat: rozlišují se systémy náhodné (stochastické), determinované (v přirozených podmínkách vzácné) a chaotické – ty jsou náhodné jen navenek, ale ve skutečnosti skrývají nějaký řád, který se ukáže až při určitém množství pozorování, při zanesení do grafu pak vytvářejí fraktální vzory (jejichž dimenze je zlomková; vyplňují jen část prostoru, jejich prvky jsou velmi zjednodušeně řečeno přitahovány atraktory (body, liniemi, fraktálními vzorci), kolem nichž se jakoby shlukují, zatímco okolo zůstává prázdný prostor). Poznání a rozhodování snižuje míru entropie tak, že pokaždé, když z většího množství alternativ/možností jednu vybereme, snížíme neurčitost a zvětšíme míru informace. Maximální entropie znamená, že jsou všechny pravděpodobnosti stejné. Vědomí se pak může ukazovat i jako míra svobody plynoucí z nutnosti volby; pravděpodobnost uspořádání je nepřímo úměrná negentropii. Můžeme-li v této chvíli činit nějaké závěry, pak snad to, že lidské poznání, ukládání a třídění informací je silou jdoucí proti entropii tohoto vesmíru, proti síle rozpadu a degenerace. Entropie však také umožňuje neustálý vznik nového – jen díky tomuto principu není již všechno, co známe, dávno zastaralé a zkostnatělé. S tím souvisí důležitost otevřenosti negentropických systémů: zatímco v uzavřeném systému entropie pouze stoupá, v otevřeném je vyvážena lokálním vzrůstem negentropie (celková entropie vesmíru vždy jen roste!). Jistou analogií těchto procesů může být i vývoj Internetu s jeho sociálním softwarem (jako je YouTube, Wikipedia apod.), permanentními beta verzemi, které se neustále přizpůsobují uživatelům a celkovou neuzavřeností, zkrátka celkovým procesuálním charakterem. Jedině takový způsob ukládání informací, který nemůže být v žádné chvíli dokonalý a dokončený, umožňuje vývoj. Pozn.: Text je ve srovnání s verzí na webu mírně upravený, zavádějící tvrzení jsem přeformuloval či vynechal. (Marek Timko) ________________________________ [1] Zajímavý příklad pokusu aplikace jejích výsledků na burzu nabízí například film π režiséra Darrena Aronofského. Film sice nevykazuje správnou míru vědecké exaktnosti, zato je obestřen až mystickou atmosférou hledáním kódu/jména/vzorce/logu – zlatého řezu jako ideálního poměru. Hlavní hrdina Max se o kódu vyjadřuje jasně, jak to mají matematici ve zvyku: 1) Mathematics is the language of nature. 2) Everything around us can be represented and understood thro´ numbers. 3) If you graf the numbers of any system patterns emerge.