E-LOGOS ELECTRONIC JOURNAL FOR PHILOSOPHY/2004 ISSN 1211-0442 ------------------------ Informace, ontologie, entropie Ján Pavlík Tato studie vznikla v rámci projektu Grantové agentury České republiky GA 402/02/1544: Metodologie ekonomických věd a její filosofické základy. Anotace: Třebaže matematická teorie informace vznikla v souvislosti s problematikou technického přenosu sdělení (přičemž přenášená informace se mohla skládat ze zcela nesmyslného řetězce nesmyslných slov), lze ukázat, že její hlavní principy nejsou není natolik vzdáleny logické struktuře předvědeckého rozumění v rámci tzv. přirozeného světa, jak by se mohlo zdát. Tak třeba Ashbyho teorie variety je kompatibilní se strukturou definice v klasické logice. V klasické (Platónově) ontologii, která reflektuje strukturu předvědeckého rozumění, se dokonce uskutečnil první pokus o kvantifikaci množství informace obsažené v rodových a druhových podstatách, a sice na bázi apriorního poznání nejvyššího rodu. Také Shannonovu formuli pro kvantifikaci informace lze interpretovat ontologicky, v tomto případě však jde o ontologii slučující empiricistický koncept vzájemně nezávislých elementů zkušenosti s kombinatorickým přístupem prvně nastíněným u R. Lulla. V intencích této interpretace je možné vyjádřit množství informace v závislosti na počtu elementárních rozlišení, což odpovídá Batesonově definici informace. Ontologická interpretace základních principů teorie informace ruší „odcizení“ mezi touto teorií a předvědeckým způsobem orientace člověka ve světe, umožňuje vyhnout se jak subjektivismu, tak objektivismu v pojetí informace a vede k vymezení informace jakožto potenciální negentropie. Information, Ontology, Entropy Ján Pavlík Summary In spite of the fact that the mathematical theory of information was formed in connection with the problems of technical transmission of data (when data could consist of fully nonsensical string of nonsensical words), it is possible to show that its main principles are not so distant from the logical structure of pre-scientific (comon sense) understanding, as applied by people in the frame of the Lebenswelt, as it could seem. E. g., Ashby’s theory of variety is compatible with the structure of definition in classical logic. Moreover, the first attempt at the quantification of information took place in classical (Platonic) ontology which was a reflection of the structure of pre-scientific understanding; starting from his conception of the ANAMNESIS, according to which we can have an a priori cognition of summum genus, he tried to determine the quantity of information (measured by differences) as being comprehended in generic essences and species. Shannon’s formula for the quantification of information can be interpreted ontologically, too, but the ontology which is adequate to this combines an empiricist concept of mutually independent elements of experience with the combinatorial approach first outlined by R. Lullus. In accordance with this ontological interpretation there exists a possibility to express the quantity of information as a function of the quantity of elementary differences (which is in harmony with Bateson’s definition of information). The ontological interpretation of the basic principles of the theory of information eliminates the „alienation“ between it and man’s pre-scientific (common sense) orientation in the world, enables to avoid both subjectivist and objectivist misconceptions of the status of information, and, finally, leads to the identification of information with potential negentropy. 1 Vzhledem k tomu, jak podstatnou roli hraje v evoluci života i fungování jednotlivého živého organismu dědičná informace (a ovšem i informace získávaná smyslovým poznáním), se na první pohled zdá být zarážející skutečnost, že Prigogine i někteří další teoretikové samoorganizace kladou relativně malý, resp. žádný důraz na souvislost mezi fyzikální a informační entropií, která má v rámci teorie informace konstitutivní význam pro definici pojmu informace. Třeba Coveney a Highfield kritizují koncepci Brookse a Wileye v jejich knize Evoluce jako entropie kvůli „směšování odlišných přístupů – myšlenek teorie informace a termodynamické entropie, která … byla opakovaně matoucí od dob von Neumanna“.1 Při specifikaci svých výhrad proti zmíněnému směšování uvádějí, že z podobnosti Shannonovy formule pro kvantifikaci informace a vzorce pro entropii, který se používá ve statistické fyzice, se dospělo k závěru, že mezi oběma koncepcemi existuje přímý vztah. Z tohoto hlediska má informační šum, na rozdíl od uspořádání, které přísluší informaci, povahu nahodilosti resp. neuspořádanosti, z čehož plyne, že čím více informací zpráva obsahuje, tím nižší je entropie. Informace se v těchto intencích definuje jako záporná statistická (Shannonova) entropie. Tento způsob uvažování je podepřen účinností metody známé pod názvem „formalismus maximální entropie“ (zkráceně „maxent“), pomocí které můžeme odlišit užitečnou informaci od šumu a rušení, což „jinak znamená najít jehlu v kupce sena“.2 Povrchní ztotožňování informační a termodynamické entropie však obvykle vede k tomu, že se akceptuje subjektivistický výklad termodynamické entropie, reprezentovaný Jaynesem a jeho žáky, v souladu s nímž je i tento druh entropie vykládán v termínech blízkých teorii informace: termodynamická entropie je ztotožňována s mírou naší neznalosti (Gel-Mann),3 resp. s mírou naší neschopnosti sledovat jednotlivé detaily nějakého děje na úrovni nižší, než je nám dostupná.4 Tento způsob ztotožňování informace a entropie vyúsťuje v tvrzení, že nevratnost („šíp času“) je také pouhým korelátem naší neznalosti či omezenosti našich schopností. Prigoginovy snahy (jež nalézají plnou podporu u Coveneye a Highfielda) se v posledních desetiletích zaměřují naopak k nalezení a prokázání objektivního fyzikálního základu pro nevratnost, kterou konstatujeme na úrovni makroskopických jevů. Když pomineme subjektivistické pojetí termodynamické entropie, jehož reprezentanty jsou kromě Jaynese či Gell-Manna P. Bridgman, A. Einstein,5 M. Born aj., můžeme i při traktování informační entropie resp. samotné informace konstatovat dva přístupy, subjektivistický a objektivistický. Subjektivistický přístup spočívá v názoru, že informační entropie je pouze mírou pro uspořádanost znaků a není to entropie skutečných fyzikálních systémů; jestliže entropie souvisí s objektivním charakterem fyzikálních systémů, pak informace je prý jen funkcí subjektivního vědění. Převod informace v entropii není možný, neboť stav vědění o předmětech (informace) nemůže sám působit na předměty. Entropie systémů se může měnit 1 Se značnou mírou zlomyslnosti uvádějí historku, podle níž C. E. Shannona přesvědčil k tomu, aby použil slovo entropie, matematik John von Neumann. Ten mu prý řekl: „Dám ti něco, co můžeš použít v každé diskusi entropii. On totiž nikdo pořádně neví, co to vlastně je.“ (Peter Coveney, Roger Highfield, Šíp času, OLDAG, Ostrava 1995, str. 215.) 2 Ibid., str. 214. 3 Srv. Ilya Prigogine, The End of Certainty, The Free Press, New York 1997, str. 24. 4 Jaynes doslova prohlašuje: „Entropie je antropomorfický pojem, nejen v dobře známém statistickém smyslu, že totiž měří velikost lidské neznalosti mikrostavu. I na čistě fenomenologické rovině je entropie antropomorfickým pojmem. Neboť je vlastností nikoliv fyzikálního systému, nýbrž speciálních experimentů, které vy nebo já vybíráme, abychom ji prokázali.“ (E. T. Jaynes, Gibbs versus Boltzmann Entropies, Am. J. of Physics 1965/33, str. 398; cit in Jiří Zeman, Teorie odrazu a kybernetika, Academia, Praha 1978, str. 75.) 5 Ve své korespondenci s Einsteinem mu jeho přítel Besso neustále kladl otázku týkající se nevratnosti a následnosti v čase. Einstein odpovídal: „Jaká nevratnost? Šipka času v přírodě neexistuje. je to jenom čistě lidská koncepce, záležitost pouze relativní.“ [Cit. in Ilya Prigogine, Čas k stávání (K historii času), KLP, Praha 1997, str. 22.] 2 nezávisle na poznatcích a naopak.6 Lze snadno vidět, že jde o jednoduchou transpozici karteziánského dualismu vědomí a hmoty, resp. dualistické separace subjektu a objektu. Subjektivismus může nabýt i podoby nominalisticko-instrumentalistické redukce informace na její syntaktickou, resp. technicko-přenosovou dimenzi; tato redukce, která záměrně abstrahuje od sémantické dimenze informace, a tudíž i od jejích vazeb na objektivní realitu resp. na ontickou strukturu přirozeného světa, stála přímo u zrodu matematické teorie informace a poskytla základ pro takové její výklady, jež doposud popírají její platnost mimo hranic zmíněného redukcionistického přístupu.7 Objektivistický přístup se na druhé straně vyznačuje tím, že usiluje (v tomto specifickém případě) o příliš málo zprostředkované překonání výše zmíněného dualismu; výsledkem je eliminace subjektivního momentu informace a její redukce na ryzí objektivní realitu (jde o ji jistý druh objektivistického monismu). Děje se tak obvykle tím způsobem, že se opouští původní (shannonovský) komunikační kontext teorie informace (kde informace vystupuje ve smyslu sdělení či zprávy) a pojem informace je extrapolován na jakékoli (nejen komunikační) systémy. V kvalitativně obsahovém smyslu je pak v tomto širokém pojetí informace chápána jako organizace vůbec, tj. uspořádanost, strukturovanost nějakého systému, a v kvantitativním smyslu jako negentropie čili míra organizace systému.8 (Kritiku tohoto postoje podáme v závěru této studie.) Subjekt-objektové pojetí (které zohledňuje jak subjektivní, tak objektivní dimenzi informace, resp. informační entropie, aniž by upadalo do jednostranností subjektivismu a objektivismu) lze najít v Ashbyho teorii omezení variety. Logickým východiskem této koncepce je důležité tvrzení, že totiž předávání i uchování informace je zásadně spjato s výskytem nějaké množiny možností. Ashby toto tvrzení demonstruje na příkladu vězně, jemuž manželka chce sdělovat zakódované vzkazy tím, že mu pošle buď slazenou nebo neslazenou kávu, a dozorce, který chce tomu zamezit tak, že do předávaného šálku přidá větší množství cukru a vězni to řekne. Zobecněním tohoto příkladu docházíme k závěru, že nějaká věc, jejíž uzpůsobením lze zakódovat sdělení, musí mít množinu možností různých uzpůsobení, přičemž počet prvků v této množině možností nesmí být menší než 2. (Dozorce ve výše zmíněné situaci usiluje právě o to, aby se počet možností uzpůsobení zredukoval na jednu.) Zcela intuitivně dospíváme k tomu, že čím větší je množina možností, tím „víc“ informace lze sdělit, jestliže daným uzpůsobením předmětu aktualizujeme jednu z nich. Navíc platí, že předávaná informace není vnitřní vlastností individuální zprávy, nýbrž závisí na množině možných zpráv, z nichž je vybrána.9 6 J. Zeman, ibid., str. 58. Podobně i J. Fast argumentuje, že formule pro termodynamickou a informační entropií mají jen ryze formální podobnost; informační entropie není fyzikální veličina, protože nemá oproti termodynamické entropii rozměr J.K–1 ; termodynamickou entropii nelze oddělit od pojmu teploty a množství tepla, jak je tomu u entropie informační. (Srv. ibid., str. 73.) 7 Právě takový výklad lze najít u Coveney a Highfielda: „Teorie informace se zabývá problémy spojenými s kódováním a přenosem zpráv. Každý komunikační systém (…) je při své činnosti vystaven náhodným rušivým vlivům nebo se při jeho činnosti objevuje šum. Cílem teorie informace je ukázat, jakým způsobem je možno na přijímací straně vybrat zprávu právě z tohoto rušení a šumu. Základy této teorie položili Claude Shannon a Warren Weaver v roce 1947. Podle nich se mohla informace skládat ze zcela nesmyslného řetězce nesmyslných slov. Její význam z technického hlediska byl pouze ten, že zpráva mohla být zakódována, odeslána, následně přijata a dekódována (šlo tedy pouze o postup, kterým se se zprávou zacházelo, a nikoliv o obsah zprávy samotné). Shannon navrhl čistě matematickou definici informace pro libovolné rozložení hustoty pravděpodobnosti uvnitř nějakého systému. Tuto definici bylo možno použít pro výpočet pravděpodobnosti, se kterou informaci v záplavě šumu a rušení nalezneme.“ (Šíp času, str. 212.) 8 J. Zeman, ibid., str. 66. Toto rozšíření pojmu informace lze také ve standardním formulacích biofyziky – např. u J. Krempaského vystupuje kvantifikovatelná informace jako parametr, který hodnotí vznikající struktury z hlediska fyzikální uspořádanosti, tj. z hlediska uložení subsystémů v systému. (Srv. Július Kremapský,Fyzika, Alfa, Bratislava, str. 664). 9 W. Ross Ashby, Kybernetika, Orbis, Praha 1961, str. 155-156. Jako příklad uvádí Ashby dva vojáky, kteří upadli do zajetí ve dvou nepřátelských zemích A a B. V zemi A je dovoleno, aby si zajatec při posílání zprávy 3 Za účelem kvantifikace množiny možností zavádí Ashby pojem variety, který se vztahuje k množině rozlišitelných prvků. Tento pojem označuje 1. počet různých prvků v množině – zde ovšem platí, že varieta množiny není její vnitřní vlastností, neboť má-li být přesně definována, musíme specifikovat pozorovatele i jeho rozlišovací schopnosti; a 2. logaritmus (při základě 2) počtu různých prvků v množině. Logaritmická míra velikosti variety (jejíž jednotkou je bit) je podle Ashbyho výhodná, protože násobení lze nahradit pouhým sčítáním.10 Ashby pak přechází k pojmu omezení variety, které je definováno jako vztah mezi dvěma množinami, jenž se objevuje tehdy, je-li varieta za jedné podmínky menší než za jiné podmínky. Způsobem omezení variety je existence nějakého invariantu v množině jevů; přítomnost invariantu má za následek, že se neuplatňuje celý rozsah variety. Intenzita omezení variety pak určuje, do jaké míry se zmenší počet možných uspořádání. Snadno nahlédneme, že svět je velmi bohatý na omezení variety odpovídající výše uvedeným charakteristikám. Každý přírodní zákon je spjat s existencí nějakého invariantu, a je tudíž omezením variety. Newtonův zákon vylučuje mnoho poloh a rychlostí, které by si bylo možno představit a predikuje, že se s nimi nikdy nestkáme. Z toho plyne, že predikce jako taková také předpokládá omezení variety – v plně chaotickém světě, který by nastal v důsledku zrušení omezení variet, by byla jakákoliv predikce nemožná. Předmět jakožto soudržná jednota konstitutivních částí představuje také omezení variety vzhledem k možnostem pohybu svých jednotlivých částí, pokud by byly dány odděleně – když např. sestrojujeme židli z opěradla, sedátka a čtyř nohou, přecházíme od množiny, která zahrnuje 6 x 6 = 36 stupňů volnosti k množině (hotové židli), jejíž počet stupňů volnosti je pouze 6. Také učení na základě asociací nebo vštěpování instrukcí typu „je-li dáno A, odpovězte číslem 2“ apod. předpokládá omezování variety. Posléze, při přechodu od dosavadního zkoumání variety v absolutním smyslu k problematice variety v pravděpodobnostním smyslu, akceptuje Ashby jako míru pro množství variety, kterou má Markovův řetězec11 na každém kroku, Shannonem zavedenou veličinu H = – Σ pi log2 pi, vyjadřující entropii množiny pravděpodobností. Implicitně (neboť explicitní tvrzení v podobě teze u Ashbyho chybí) z toho vyplývá, že omezení variety spadá vjedno se snížením informační entropie, tj. neurčitosti a že na druhé straně informace jakožto „to, co odstraňuje neurčitost“ (podle Shannona a Wienera) se měří množstvím „odstraněné“ neurčitosti (a tedy i mírou omezení variety, k němuž akceptace informace vede). Je však třeba říci, že Ashbyho výklad právě při tematizaci vztahu variety, informace a entropie postrádá dostatečnou jasnost.12 Jelikož se nejasnosti kolem základních pojmů teorie informace vyskytují v u mnoha autorů, jeví se nezbytným prozkoumat tyto základní pojmy, a sice fenomenologickou metodou reaktivace mentálních aktů, v nichž se konstituuje jejich původní významové jádro na půdě předvědecké zkušenosti; jejich významy je tedy nutno postihnout v jejich „originární“ danosti, domů vybral mezi 3 zprávami: „jsem zdráv“, „jsem lehce nemocen“, „jsem těžce nemocen“, avšak v zemi B může poslat pouze zprávu „jsem zdráv“. Stejná zpráva „jsem zdráv“ tedy ve druhém případě znamená pouze to, že voják v zemi B je naživu a liší se tudíž svým obsahem od zprávy odeslané vojákem ze země A. 10 V Kybernetice lze k tomu najít instruktivní příklad: Farmář dovede rozlišovat osm druhů kuřat, nedovede je však rozlišit podle pohlaví; jeho žena je dovede rozlišovat podle pohlaví, nerozlišuje však odrůdy. Dohromady jsou manželé s to rozlišit 2 x 8 = 16 „druhů“ kuřat. V logaritmické míře dovede farmář rozlišovat varietu 3 bitů, jeho žena varietu 1 bitu, takže dohromady rozlišují varietu 3 + 1 = 4 bitů. 11 V Ashbyho formulaci jsou Markovovy řetězce takové posloupnosti stavů, v nichž je pro různě dlouhé intervaly posloupnost každého přechodu stejná, přičemž platí, že pravděpodobnosti přechodu nesmějí záviset na stavech, které předcházejí danému operandu (tj. „paměť“ systému popsaného Markovovými řetězci nesahá dále než 1 krok dozadu). 12 Český překladatel Kybernetiky logik Karel Berka musel právě při expozici shannonovské entropie doplnit Ashbyho výklad o zkrácený Shannonův důkaz (z Apendixu 2 jeho Matematické teorie komunikace), že výraz H lze opravdu uplatnit jako logaritmickou míru variety v pravděpodobnostním smyslu. (Viz Ashby, Kybernetika, str. 218-219.) 4 tj. ještě předtím, než dochází k jejich sedimentaci (zapomínajícímu „ztuhnutí“) do podoby známých vzorců pro kvantifikaci informace H = – log2 p, resp. H = –Σ pi log2 pi. Třebaže matematická teorie informace vznikla v souvislosti s problematikou technického přenosu sdělení, lze dost snadno ukázat, že moderní traktování pojmu informace není natolik vzdáleno tzv. přirozenému světu a jeho filosoficko-ontologickým reflexím, jak by se mohlo zdát.13 Pokud chceme na jednu ze základních otázek, jež se vyskytují v přirozeném jazyku, na otázku „co je to?“, odpovědět vyčerpávajícím způsobem, musí mít odpověď formální strukturu definice, tj. zahrnovat nejbližší vyšší rod (genus proximum), jakož i druhový rozdíl (differentia specifica). Klasifikace daného individua čili jeho zařazení do určitého druhu tudíž vyžaduje, aby byla prostřednictvím nejbližšího vyššího rodu určena celá množina druhů, pod něž je možné dané individuum subsumovat; teprve pak se tato varieta druhů radikálně omezí specifickým rozdílem, jehož prezentace zpomezi všech pouze možných species, pod něž může být definiendum subsumováno, vybere právě jeden druh; tímto výběrem jej v daném kontextu převede z možnosti ve skutečnost, a sice při vyloučení všech ostatních druhů. Analogicky ještě původnější otázka: „Co mám (teď, zítra atp.) dělat?“ předpokládá u tázajícího, že si je vědom toho, že je před ním celá řada možností jednání, z nichž se bude na základě jeho rozhodnutí realizovat pouze jedna. Tyto možnosti jednání mají charakter druhů; pod zvolený druh jednání se individuum mající jednat subsumuje tím, že jej převádí z možnosti ve skutečnost svojí činností v příslušném čase a místě. To, že člověk rozumí pluralitě (varietě) možností svého jednání jakožto pluralitě, není nahodilým poznatkem, nýbrž fundamentálním apriorním způsobem rozumění sobě jakožto svobodné bytosti. Konkrétní náplň této plurality možností je ovšem u každého jedince poněkud jiná; právě tím, že jí jedinec rozumí, rozumí sobě jako konkrétnímu, zde a teď situovanému kdo-bytí. Lze ukázat, že rozumění určité činnosti jakožto aktualizaci jednoho prvku ze souboru možných činností bylo základem, na němž se vyvinula obdobná struktura rozumění věcem. (Přenos této struktury byl umožněn tím, že činnosti jsou intencionálně orientovány k věcem.) To, co Ashby označil jako varietu a omezení variety, tedy patří ke struktuře našeho rozumění věcem i sobě; to lze vyjádřit i tak, že naše rozumění postupuje od obecného ke zvláštnímu a jednotlivému. Z toho však zároveň plyne, že rozumění předpokládá překonání úrovně nejbližšího vyššího rodu: i tomu totiž rozumíme jakožto aktualizaci jednoho z variety rodů nacházejících se na nejbližší vyšší úrovni obecnosti atd. Při postupu ke stále vyšším rodům se příslušné variety zmenšují, až celý proces vzestupu vrcholí v tzv. nejvyšším rodu (summum genus), který je zbaven plurality a určuje se jako v klasické ontologii jako Jedno (resp. u Platóna jako nepředmětné bytí). Nejvyššímu rodu rozumíme naprosto primárně (tj. apriorně; u Platóna je podobou tohoto apriorního rozumění rozpomínání neboli ANAMNESIS) a na základě tohoto rozumění pak rozumíme i všem nižším rodům a druhům. Filosofové, v první řadě Platón, ovšem usilovali o to, aby sledovali tuto cestu našeho rozumění od nejobecnějšího ke specifickému. Jestliže cesta vzhůru se vyznačovala hledáním společného, pak cesta dolů musí být nutně cestou diferenciace. Z toho vyplynulo, že nejvyšší rod musí zahrnovat kromě nepředmětného bytí (jež zakládá to, co je věcem, druhům i rodům společné) i samo-se-aktualizující potenci diferenciace, skrze niž se Jedno rozlišuje v mnohost rodů a druhů. K tomuto poznání dospěl Platón až ve svém třetím, pythagorejském období, v důsledku čehož princip diferenciace označil jako Neurčitou Dvojici neboli kvantitativní rozdíl 13 Jak říká J. Patočka, „zásadní kritická výzva k těm, kdo se zabývají teorií informace a jejími teoretickými a filosofickými implikacemi, je (…) v tom, nespěchat k posledním, nejvyšším problémům a rozebírat místo toho kriticky vztah základních pojmů jako informace, tok, znak. jazyk atd. k tradičním filosofickým problémům…“ (Jan Patočka, Filosofie a společenský problém informace, in: Acta bibliothecalia and informatica, Slezská Universita, Opava 1996, str. 14) 5 víc-míň.14 Diferenciace Jedna tudíž u Platóna probíhá v podobě jeho proporcionálního rozdělení, které se iterativně opakuje; analogií tohoto procesu je opakování stejné proporce mezi stále se zmenšujícími částmi iterativně dělené úsečky. (Jak říká J. Patočka, jde o syntézu Jedna a Rozdílu v určité proporci.)15 Opakování proporce ovšem poskytlo Platónovi možnost charakterizovat každou rodovou či druhovou podstatu jako číslo, neboť každá z nich je určena počtem iterativních sestupných kroků v hierarchii od nejjednoduššího Jedna až k nejnižšímu druhu. Jinak řečeno, rodové a druhové podstaty (ideje) jsou čísly, protože vznikají dělbou nejvyššího summum genus, která má určitý počet stupňů a určuje, kolik abstraktních významových složek je zahrnuto v té které ideji. Podle Patočky dochází u Platóna tímto způsobem k matematizaci pohybu mimočasové logické geneze (jde o genezi konkrétna z abstraktních určení), což lze považovat za historicky první podobu matematizace pohybu vůbec. S pomocí pozdějšího Porfyriova stromu (arbor porphyriana) i Hegelova důrazu na roli (myslitelné) negativity v diferenciaci neurčitého bytí do systému odlišených kategorií můžeme pro naše účely modifikovat Platónovu koncepci idejí-čísel následovně: Východiskem celého procesu ideální geneze konkrétna bude summum genus, jenž je nerozlišenou jednotou všezahrnujícího nepředmětného bytí-Jednoho a rozlišování (diferenciace), majícího charakter aktivní negace. (Schelling popisuje tento prazáklad jako identitu identity a neidentity.) První akt diferenciace ustaví diferencí mezi sférou jsoucího a nejsoucího, a tímto rozhraničením ustaví obě tyto sféry jako takové. Diferenciace opakovaně proběhne v rámci sféry jsoucího, kde ustaví rozdíl mezi hmotným (tj. tělesem) a nehmotným; ve svém uplatnění na hmotné pak ustaví rozdíl mezi sférou oživeného (živých bytostí) a neoživeného; diferenciací oživeného vzniká na jedné straně bytost smyslová (živočich) a na straně druhé bytost ne-smyslová (rostlina); a konečně, živočich se diferencuje na živočicha rozumného (animal rationale) a živočicha nerozumného (zvíře). Ideji člověka tedy přísluší číslo pět, protože stačí pouze pět opakovaných aktů diferenciace všezahrnujícího bytí, abychom z nejabstraktnějšího vrcholu ontologické hierarchie sestoupili až k člověku; počtu pět odpovídá i pět významových složek vymezujících druhovou podstatu člověka: je rozumný, čímž zároveň je smyslovou živou bytostí, hmotným tělesem a jsoucnem. Jestliže si v tomto kontextu připomeneme známý Batesonův výrok, v souladu s nímž je informace jakákoliv diference, která vytváří nějakou diferenci,16 pak můžeme konstatovat, 14 Platón překonal Parmenidovu tezi o nemyslitelnosti rozdílů všeho druhu tím, že druhové, resp. rodové rozdíly převáděl na různost kvantit dobra a krásy: druhové podstaty se mezi sebou liší tím, že obsahují více nebo méně těchto určení. V pozadí tohoto Platónova postupu stála myšlenka (aplikovaná později explicitně sv. Tomášem), že totiž neplatí striktní negace 10 není 9, protože desítka v sobě zahrnuje devítku (10 – 1); z otho plyne, že poznání desítky v sobě zahrnuje poznání devítky a všech dalších čísel menších než 10. Podobně když apriorně známe dobro a krásu v jejich plnosti, známe i všechny jejich menší kvantity odpvídající druhovým podstatám. 15 Jan Patočka, Aristoteles, jeho předchůdci a dědicové, NČSAV, Praha 1964, str. 30. 16 V originálu „any difference that makes a difference“ (Gregory Bateson, Mind and Nature, New York, 1979, Glossary, str. 233). Skutečnost, že toto vymezení představuje zajímavou a podnětnou formou subjektobjektového pojetí informace, se stane zřejmou, když vezmeme v potaz Batesonovo rozlišení mezi potenciální (resp. latentní) a efektivní diferencí. Potenciální diference je imanentně přítomna ve vzájemné souvztažnosti nejméně dvou entit (reálných nebo představovaných); tato souvztažnost musí mít ovšem takový charakter, aby zpráva o diferenci, kterou zakládá, mohla být reprezentována jakožto diference uvnitř mentálního procesu, resp. uvnitř jakéhokoliv systému zpracovávajícího informace (mozek, rostlinný organismus, snad i počítač). Když se tato možnost v příslušném procesu či systému aktualizuje, vzniká efektivní diference, která je v Batesonově pojetí totožná s informační jednotkou (vymezení informace jako diference způsobující diferenci popisuje vlastně proces geneze této informační jednotky, tj. přechod potenciální diference v diferenci efektivní). Čistě latentní diference (jež nezpůsobuje efektivní diference) není podle Batesona informací; z toho plyne, že „části“, „celky“, „stromy“ a „zvuky“ existují jako takové jen v uvozovkách – jsme to totiž my, kdož odlišujeme „strom“ od „vzduchu“, „část“ od „celku“ atd. Aby se vyhnul subjektivismu, jež je implikován v těchto tvrzeních, Bateson dodává, že „strom“ je také živou bytostí, která je jako taková s to přijímat určitý druh informace – např. odlišovat „suché“ od „mokrého“. Bateson dále zdůrazňuje, že diference není substance, což znamená, že informace se liší 6 že Platónova koncepce idejí-čísel nebyla pouze pokusem o matematizaci pohybu logické geneze, ale také prvním pokusem o kvantifikaci informace obsažené v rodových a druhových pojmech. Jde ovšem o kvantifikaci „shora“, jež umožňuje číselně odlišit různé stupně konkretizace abstraktního ontologického principu (resp. různé stupně růstu obsahu pojmů při jejich klesajícím rozsahu). Kvantifikovatelnou konkretizací, tak jak ji vyjadřuje modifikace Porfyriova stromu, můžeme sice dospět k určení obsahu druhové podstaty člověka, nikoliv však k vymezení onoho obrovského množství species, s nimž se setkáváme v živé i neživé přírodě. Jednotlivé druhy živých bytostí se liší tvarem, velikostí a stavbou těla, způsobem pohybu, atd., což jsou charaktery, které není možné v jejich mnohosti vyvodit diferenciací v podobě iterativní negace – pokud například zvíře nemá nějaký určitý tvar, nějakou určitou velikost nebo barvu atp., může mít kterýkoliv z velmi velkého počtu jiných tvarů, velikostí či barev. (To, že se Porfyriův strom osvědčuje při specifikaci lidského druhu, je umožněno pouze tím, že člověku náleží takový charakter, který nemá žádný jiný živočich – tímto charakterem je rozum.) Abstraktní určení, která se uplatňují u Porfyriova stromu, nejsou navíc vzájemně nezávislá (lidé jsou podmnožinou živočichů, živočichové podmnožinou živých bytostí atd.); jelikož tedy nejsou na stejné úrovni obecnosti, není z nich možné „vytvořit“ mnohost druhů cestou kombinace – na rozdíl od takových charakterů, jako jsou barvy, tvary či velikosti, které se mohou nezávisle kombinovat. Nemožnost vyvození plné mnohosti reálně existujících species cestou aprioristicko-ontologické konkretizace abstraktního počátku si uvědomoval i Hegel, který, jak známo, se ve své filosofii přírody na této cestě odvážil nejdál; důsledkem je jeho teze o nepřekonatelné kontingenci přírody (což lze v intencích jeho systému zjednodušeně vysvětlit tak, že absolutní idea se v přírodě odcizuje sama sobě natolik efektivně, že při svém návratu k sobě nemůže toto sebeodcizení nikdy úplně překonat). jako od hmoty, tak od energie, které jsou (navzájem převoditelnými) substancemi. Diference, jejíž povahou je vztahovost, dokonce ani není lokalizována v čase a prostoru: lze totiž říci, že křídová skvrna je „tam“, „uprostřed tabule“, avšak diference mezi skvrnou a tabulí není ani na tabuli, ani ve skvrně čili není „tam“; když skvrnu odstraníme, diference mezi ní a tabulí přesto nezaniká. Batesonova koncepce ovšem naráží na závažný problém, který rezultuje z jeho tvrzení, že vše, co můžeme poznat, jsou pouze naše ideje – neboli efektivní diference. (Bateson se zde dostává na pozici empiristicky interpretované imanence subjektu.) Jak potom můžeme vědět, že efektivní diference jsou způsobeny potenciálními diferencemi mezi vnějšími entitami, které našemu vnímání nejsou bezprostředně dány? Jestliže tedy Bateson tvrdí, že i matérie počitku je párem hodnot nějaké proměnné, prezentovaným smyslovému orgánu, jehož reakce závisí na poměru mezi členy páru, pak pro toto tvrzení neexistuje v rámci jeho pozice imanence subjektu žádné oprávnění. Problém není vyřešen ani Batesonovým konstatováním, že každá ze dvou entit konstituujících potenciální diferenci, pokud je vzata o sobě (mimo vztah diference k druhé entitě) je pro mysl a percepci non-entitou, nejsoucnem, a neliší se tudíž ani od bytí, ani od nebytí. Krátce řečeno, Batesonovi chybí teorie reprezentace resp. kriticky pojatá epistemologie. (Jeho zmínky o tom, že mentální reprezentace je jistým druhem kódování, jsou pouhým klouzáním po povrchu.) Bez zmíněné epistemologie lze jeho pojetí informace aplikovat pouze na fenomenální úrovni, tj. tehdy, když i potenciální diference má povahu registrovatelné (ne však vždy registrované) smyslové nebo mentální danosti. Bateson sám dospívá k tomuto řešení, když způsobování diference diferencí zařazuje do zpětnovazebního (kybernetického) cyklu. Uvádí příklad střelce, který má ruku s pistolí pod stolem (takže nemůže přesně mířit) a koriguje směr svého střílení podle vnímaných diferencí mezi polohou předchozích zásahů a polohou terče. Jinými slovy, samoorganizující se systémy svojí aktivitou vytvářejí diference ve svém okolí, a tyto diference se stávají podnětem ke vzniku dalších diferencí uvnitř samoorganizujících se systémů samotných – v příkladu se střelcem je vnějškově daná diference zásah-terč interpretovaná jako diference mezi záměrem a rezultátem akce a vědomí této diference vede k provedení akce, jež se liší od akce původní. V návaznosti na H. Mittelstaedta (od něhož přebírá příklad střelce) Bateson zdůrazňuje, že je zapotřebí celé třídy akcí, aby u střelce došlo k takové adaptaci nervů a svalů, která umožňuje „automaticky“ provést optimální zaměření; tato vnitřní proměna aktivního systému, pro niž Mittelstaedt použil termín „kalibrace“, se podle Batesona má k prosté zpětné vazbě jako vyšší logický typ k nižšímu. (Srv. G. Bateson, ibid., str. 78-79, 108-111, 206, 210-217.) Anglický originál „difference that makes a difference“ má kromě toho ještě jednu (nepřeložitelnou) významovou dimenzi, že totiž potenciální diference je pro systém důležitá. Interpretovat Batesonovo pojetí informace jako „fraktál“, tj. jako rozdíl, který v sobě zahrnuje další rozdíly, je neadekvátní, a to navzdory tomu, že takový výklad se se zřetelem na hegelovské metafyzické pojetí negativity (nebo dokonce na derridovské pojetím „différance“) může jevit jako plauzibilní. 7 O kombinatorický výklad procesu konkretizace abstraktních určení se pokusil Raymund Lullus ve své Ars Magna; byl to zároveň velmi významný krok směrem k formalizaci logických aktů prostřednictvím mechanických operací s obecnými pojmy. Účelem Lullova mechanického modelu myšlení bylo najít jednoduchou metodu objevování nových (konkrétních) pravd odpovídajících kombinacím výše zmíněných abstraktních určení. Lullův kombinatorický mechanismus se realizuje prostřednictvím systému sedmi soustředných kruhů, z nichž každý obsahuje skupinu podobných pojmů. V jednom z nich jsou umístěny substance („bůh“, „anděl“, „člověk“, „nebe“ atd.), ve druhém zase odpovídající absolutní predikáty, např. „moc“, „poznání“, „milosrdenství“, „trvání“ aj. Ve třetím se pak nalézají takové vztahové predikáty, jako např. „velké“, „šťastné“ atp. Pohyby kruhů či jejich vzájemné polohy vytvářejí různé kombinace těchto abstraktních termínů, jimž odpovídají konkrétní významové jednoty („milostivý bůh“, „veliký bůh“, „veliké milosrdenství boží“ atd.). Jak snadno nahlédneme, konceptuální jednotky, které jsou u Lulla východiskovým materiálem kombinatorických operací, nejsou ve striktním smyslu navzájem nezávislé, neboť se mezi nimi uplatňují subjekt-predikátové vazby. Jeho jinak velice přínosná idea konceptuální kombinatoriky proto za těchto podmínek nemohla (a ani neměla za cíl)17 vést k vyvození mnohosti vzájemně odlišených druhů. Nestalo se tak ani u jeho pokračovatele, racionalisty Leibnize a ani u britských empiriků, kteří sice svou koncepci počitků jakožto navzájem nezávislých, dále již nedělitelných psychických atomů dospěli k vymezení vhodného východiskového materiálu pro kombinatorické operace, avšak samotná (v zásadě ryze racionalistická) myšlenka kombinatorického vyvozování mnohosti druhů jim zůstala cizí. A to i navzdory tomu, že Lockova teorie abstrakce, podle níž je druh věcí konstituován přítomností společné smyslově vnímatelné vlastnosti (nebo řady vlastností) ve všech jednotlivinách, které pod něj spadají, je východiskem pro klasifikaci „zdola“, která nepostupuje cestou postupné diferenciace nejvyššího rodu, nýbrž se opírá o prostý a neredukovatelný fakt výskytu či absence příslušné vlastnosti. „Realizovat“ resp. reprodukovat proces logické geneze množství druhů (variety) prostřednictvím kombinací nezávislých elementů se podařilo teprve nepřímým, symbolickým způsobem – prostřednictvím kombinací binárních kódů (systém „1“ – „0“, resp. „ano“ – „ne“), jež jsou potřebné na to, aby v rámci zprávy týkající se variety vyjádřili odlišná jména jejích prvků. Pro exemplifikaci tohoto postupu zvolíme chemické prvky (které jsou zároveň druhy, pod něž lze subsumovat kteroukoliv chemickou součást jakékoli látky); snadno zjistíme, že v binárním kódu bychom pomocí jeho základních znaků (0, 1) mohli zakódovat jen 2 chemické prvky, např. vodík a hélium. Jestliže použijeme dvojice znaků, můžeme metodou kombinování zakódovat 4 prvky (00, 01, 10, 11), při použití trojic již 8 prvků atd. Obecně při použití H-tic binárních znaků můžeme prostřednictvím jejich kombinací zakódovat n = 2H prvků. To znamená, že k tomu, aby se ve zprávě uskutečnil přenos variety sestávající z n prvků (v případě chemických prvků je při zanedbání transuránů n = 92), je nutné použít n Htic binárních znaků, přičemž H = log2 n. Tento přístup, jehož autorem je C. E. Shannon, umožňuje stanovit vhodný způsob kvantifikace informace odpovídající plnému omezení variety. To si lze ujasnit z následující exemplární situace: Víme, že účinnou látkou léku je právě jeden chemický prvek a že zároveň existuje stejná apriorní pravděpodobnost, že touto účinnou látkou může být kterýkoliv z 92 stálých chemických prvků; varieta n = 92 zde představuje neurčitost, tj. naši neschopnost aktuálně subsumovat (při dané úrovni poznání) účinnou látku pod právě jeden z druhů- 17 V souvislosti s tím, že moderní informační technologie jsou naplněním Lullova programu mechanizace myšlení, působí nicméně značně ironicky, že hlavním účelem tohoto programu bylo docílit, aby i lidé průměrných schopností byli s to odhalovat nové pravdy, resp. přesvědčovali se o nezvratné pravdivosti jediného katolického náboženství. (Srv. V. V. Sokolov, Středověká filosofie, Svoboda, Praha 1988, str. 400.) 8 chemických prvků. Apriorní pravděpodobnost p = 1/n (=1/92) představuje zde míru přeměny možnosti ve skutečnost (míru aktualizace možnosti):18 zpomezi 92 možných prvků bude po předpokládané změně stavu poznání vybrán právě jeden, aby pod něj byla účinná látka aktuálně subsumovaná. (Pro každý z chemických prvků je při daném stavu poznání tato míra relativně malá: 1/92.) Přeměnu možnosti subsumovat (týkající se n druhů-prvků) v aktuální subsumpci (týkající se 1 druhu-prvku) lze charakterizovat jako plné omezení variety. Pokud používáme termín „varieta“ ve druhém významu, který uvádí Ashby, tj. jako logaritmickou míru počtu možností H = log2 n, pak plné omezení variety znamená její redukci na nulu. Ve Shannonově terminologii, kde se varieta ztotožňuje s informační (resp. statistickou) entropií, znamená plné omezení variety redukci oné entropie na nulovou hodnotu. Pro minimální možnou varietu platí n = 2; změna stavu našeho poznání, která způsobuje její plné omezení (čili ruší neurčitost, která jí odpovídá), byla vzata za jednotku množství informací a pojmenována „bit“. Bit je tedy množství informace, které umožňuje stanovit, která možnost z variety dvou stejně pravděpodobných možností (p = 1/2) se přemění ve skutečnost. Plné omezení variet, pro které platí n > 2, se pak měří tím způsobem, že se stanoví, kolikrát se v něm opakuje plné omezení minimální variety (neboli akceptace 1 bitu informace, jež představuje minimální, dále již nedělitelný krok v postupu omezování variety). Jelikož plné omezení variety znamená redukci veličiny H = log2 n na nulu, bude tato veličina vyjadřovat i množství informace, jejíž akceptace ono plné omezení způsobuje.19 Jelikož p = 1/n, platí rovnost H = log2 n = log2 1/p, a tudíž i H = – log2 p. (V našem příkladu zpráva, že účinnou látkou v léku je železo, představuje H = – log2 [1/92] = 6,52 bitů informace.) Nesmíme ovšem zapomínat, že Shannonova formule pro kvantifikaci informace (byť byla zde vysvětlena pomocí Ashbyho pojmu variety, který se vztahuje na realitu jako takovou), byla odvozena se zřetelem na kombinace znaků v přenášené zprávě. Tento fakt – že totiž množství informace se měří na arbitrárně ustavených množinách znaků – slouží jako hlavní východisko argumentace těch, kdo odmítají spojovat informační a termodynamickou entropii. Námitkám tohoto typu se lze vyhnout tím, že se pro Shannonovu formuli nalezne fundace v jistém typu empiristicko-realistické ontologie, zahrnující jak kombinatorický přístup R. Lulla, tak Lockovo pojetí konstituce druhů (přesněji tříd objektů) na bázi operace abstrakce. Termínem „ontologie“ zde ovšem nebudeme rozumět teorii bytí, nýbrž jakýkoli systém klasifikace umožňující subsumpci daného individua do variety druhů resp. vyšších rodů; jak bylo výše naznačeno, půjde o klasifikaci „zdola“. Spojení formule pro kvantifikaci informace s problematikou klasifikace reálně se vyskytujících jsoucen má zároveň umožnit kompatibilitu teorie informace s Hayekovým pojetím mysli z jeho díla The Sensory Order, podle něhož hlavní funkcí mysli jak na úrovní „řádu smyslovosti“, tak na úrovni konceptuální je provádět klasifikaci. Ontologický přístup kromě toho umožní naznačit vztah mezi mírou informace a Batesonovým pojetím informace jakožto diference resp. s hayekovskosaussurovským pojetím diferenciace jako prapůvodního dění, jež ustavením vztahu diference ustavuje zároveň i jeho póly. K naznačené ontologii můžeme snadno dospět, pokud si uvědomíme, že jednotlivé binární kódy v H-tici odpovídající varietě n můžeme nahradit otázkami, na něž se odpovídá 18 Srv. Ivan Kuchár, Problém pravděpodobnosti a determinismus, Academia, Praha 1967, str. 147. 19 Skutečnost, že jak varieta ve druhém významu dle Ashbyho, tak i informace, která vede k plnému omezení oné variety, mají stejné kvantitativní vyjádření H = log2 n, resp. H = – log2 p, může způsobit nedorozumění. Např. J. Krempaský uvádí, že „k přenosu n údajů bychom potřebovali H = log2 n základních znaků (binárního kódu). Tato veličina se nazývá množství přenášené informace…“ (Fyzika, str. 665.) To je právě dvojznačnost, kterou je nutno upřesnit: K přenosu informace, která způsobí plné omezení variety (neboli aktualizuje jednu z n možností), potřebujeme opravdu H znaků (v našem příkladu H = 7, protože znaky binárního kódu jsou nedělitelné), avšak k přenosu n údajů, tj. všech n možností, potřebujeme, jak již výše uvedeno, n H-tic znaků. 9 buď „ano“ nebo „ne“.20 Informace, která způsobí plné omezení variety, bude sestávat z H = log2 n takto zodpovězených otázek; jejich počet se tudíž rovná množství bitů, jež ona informace zahrnuje. Otázky ovšem musí přesáhnout rovinu pouhého symbolického kódování a směřovat k „věci samé“. V našem příkladu s účinnou látkou se při uplatnění empirického přístupu budou otázky týkat různých charakterů původně nijak neurčené látky – zdali má šedivou barvu, zdali je po své izolaci ze sloučeniny kujná atp. – nepůjde tedy o otázky typu „zdali je tuhou látkou“ a pak „zdali je kovem,“ jak by odpovídalo klasifikaci „shora“ (resp. známým hrám, v nichž se hráč snaží takovýmito otázkami určit předmět, který je jeho protihráčům znám). Obecně řečeno, otázky v rámci klasifikace „zdola“ se týkají toho, zda neurčité něco má nebo nemá dané empirické charaktery či vlastnosti; to lze vyjádřit také tak, že se ptáme, zda ony charaktery existují nebo neexistují na nijak dále neurčeném substrátu (HYPOKEIMENON), jehož funkce spočívá pouze v tom, že vzájemně odlišným charakterům dává formu trvající věcné jednoty.21 Empirické charaktery se vyznačují tím, že jako vzájemně nezávislé mohou na stejném substrátu koexistovat; druh, resp. rod věcí pak bude zahrnovat třídu všech substrátů, na nichž bude existovat (nebo naopak nebude existovat) daný charakter. Termín „existence“ – a nikoliv termín „výskyt“ – používáme v souvislosti se vztahem charakterů a příslušných substrátů proto, abychom zdůraznili, že charaktery, o které zde jde, nejsou pouhými akcidenty, jejichž výskyt (či naopak nevyskytování se) nijak neovlivní subsumovatelnost věci pod určitý druh. Rekonstrukce geneze mnohosti druhů (variety) za těchto podmínek bude mít podobu zkoumání, kolik různých druhů věcí může vzniknout kombinacemi existence a neexistence různých empirických charakterů v počtu H na příslušných substrátech.22 Ony charaktery nemusíme nijak blíže (kvalitativně) určovat – ke stanovení variety či kvantity informace postačí, když je traktujeme in abstracto; právě tato abstraktnost umožňuje, abychom o nich v duchu empirického přístupu předpokládali, že jsou elementárními (dále již nedělitelnými) smyslovými danostmi. Další postup je analogický výše uvedenému shannonovskému zkoumání vlastností kombinací binárních kódů. Pokud počet charakterů H je rovný 1 (a onen 1 charakter nazveme A), pak se existencí, resp. neexistencí tohoto charakteru na jinak neurčeném substrátu (na něčem) konstituují 2 druhy věcí: věci mající charakter A a věci tento charakter postrádající. V případě, že H = 2 (jsou to charaktery A, B, pro něž platí A ≠ B), mohou nastat 4 případy: 1. na jinak neurčeném substrátu existuje zároveň A i B; 2. na jinak neurčeném substrátu existuje A a neexistuje B; 3. na jinak neurčeném substrátu neexistuje A a existuje B; na jinak neurčeném substrátu neexistuje ani A ani B. To znamená, že kombinacemi existence/neexistence charakterů A, B se konstituují 4 druhy věcí. Při H = 3 vzniká varieta o velikosti osmi (ABC, AB~C, A~BC, A~B~C, ~ABC, ~AB~C, ~A~BC a ~A~B~C)23 a obecně 20 Podle F. Weizsäckera je informací každá forma, která může být popsána konečným počtem rozhodnutí ano/ne. 21 Jestliže J. Locke ještě zachoval myšlenku identické nevnímatelné (a proto nepoznatelné) substance jakožto podkladu, nositele či substrátu smyslově daných vlastností, pak jeho následovníci Berkeley a Hume tuto myšlenku odvrhli, čímž redukovali věc na pouhý komplex počitků. Jak však později ukázal Husserl, syntéza mnohosti počitků do trvající věcné jednoty patří k apriorní struktuře našeho vnímání; má také svůj protějšek ve struktuře přirozeného jazyka, v němž se charaktery vždy predikují něčemu. Pojem substrátu proto zachováme jako pomocný prostředek výkladu, ovšem s tím, že skrze svou neurčitost se při založení kvantifikace informace neuplatní. (A navíc, jedině tím, že ho zachováme, bude mít zde prezentované schéma nárok na to, aby mohlo být považováno za ontologii – byť velice reduktivní.) 22 Z neurčitosti substrátu, jenž pouze sjednocuje dané mnohost daných charakterů, plyne, že počet substrátů bude určen počtem kombinací. Substrát je pouhé prázdné X, je odlišen od jiného jen tím, že na něm existuje nebo neexistuje jiný charakter. 23 Symbolem ~X vyjadřujeme neexistenci příslušného charakteru. 10 pak platí, že kombinacemi existence/neexistence H charakterů se konstituuje mnohost druhů o počtu n, přičemž n = 2H . Pro plné omezení variety pak platí známý vztah H = log2 n, resp. H = – log2 p; poskytuje odpověď na otázku, kolik vzájemně nezávislých charakterů musíme na věci indikovat, abychom ji mohli subsumovat pod právě jeden z n druhů, z nichž daná varieta sestává.24 Příklad, který nám výstižně přiblíží status charakterů i způsob, jímž se uplatňují při konstituci variet, se bude týkat faktu, že lidské oko dokáže rozlišit až 70 000 barevných odstínů; v empiristické tradici jsou tyto barevné odstíny dále již nedělitelnými atomy naší zkušenosti (počitky). Ve své existenci či neexistenci na daném substrátu jsou jako takové navzájem nezávislé. I když nám chybí pojmenování pro většinu z nich (říkáme, že jde např. o odstíny červeně), bylo by možné adekvátní jména zavést uměle a precizovat je poukazem na fyzikálně-objektivní základ barev (modifikace elektromagnetického vlnění); to implikuje, že všechny barevné odstíny jsou charakterizovány stejnou úrovní obecnosti. Kombinacemi jejich existence/neexistence na odpovídajících substrátech můžeme „zdola“ vybudovat klasifikační systém (varietu), sestávající z ohromného počtu 270 000 druhů. (Při tomto „budování“ jde samozřejmě jen o rekonstrukci toho, co dokázala biologickokulturní evoluce v oblasti našeho zrakového vnímání.) Položme si však otázku po statusu a množství charakterů, které naopak umožňují, aby lidský zrak disponoval varietou 70 000 barev. Co se týče kvantity, výpočet je jednoduchý: H = log2 70 000 = 16,095 bitu, což znamená, že k dispozici musí být 17 distinktních charakterů. Jejich status je komplikovanější, neboť na fenomenální úrovni jsou barevné odstíny bezprostředními kvalitativními danostmi, a nikoliv kombinacemi nějakých ještě elementárnějších „odstínů“. Z toho plyne, že kombinatorické operace s oněmi 17 charaktery musejí probíhat na transfenomenální úrovni v mozku, jenž je materiální bází našeho vnímání. Transfenomenalita zde znamená pouze tolik, že kdybychom se do mozku podívali, nemohli bychom tam svým barevným viděním ony charaktery uzřít jakožto barevné, protože představují (evolučně) apriorní základ našeho rozlišování barev. Jejich funkci v našem vnímání barev můžeme pouze teoreticky rekonstruovat (například prostředky teorie neuronových sítí), přičemž bychom museli předpokládat, že neuronové sítě svými specifickými prostředky vytvářejí systémy klasifikace cestou kombinací existence a neexistence odlišných charakterů na příslušných substrátech. Jak patrno, k proniknutí do struktury transfenomenálna stačí inverzní aplikace matematického vztahu získaného na fenomenální úrovni v rámci empiristicko-kombinatorického přístupu. (Inverze zde spočívá v tom, že množinu elementárních smyslových charakterů, která původně slouží jako východiskový materiál k výstavbě variety, považujeme také za varietu a hledáme odpovídající „elementárnější“ charaktery, jejichž kombinacemi je konstituována.) Na výše uvedeném symbolickém znázornění variety, která odpovídá počtu charakterů H = 3, si můžeme všimnout, že zároveň s druhy se konstituují i rody věcí: je tam patrný rod věcí s charakterem A, který se diferencuje ve 2 nižší rody, které se vzájemně liší přítomností charakteru B, a tyto 2 nižší rody se diferencují každý do dvou druhů, které se zase liší přítomností/nepřítomností charakteru C. Vzájemná nezávislost charakterů ovšem má za následek, že právě tak můžeme stanovit, že relativně nejvyšším rodem je v našem případě rod věcí s charakterem B, který se diferencuje ve 2 nižší rody, které se vzájemně liší přítomností/nepřítomností charakteru A, a tyto 2 nižší rody se diferencují každý do dvou druhů, které se zase liší přítomností/nepřítomností charakteru C. Také rod věcí s charakterem C může analogicky být považován za relativně nejvyšší rod. Z toho plyne, že v rámci naší empiristicko-kombinatorické ontologie není rodové určení nižšího či vyššího stupně 24 Logaritmická míra nám zde vyplynula zcela „přirozeně“ (tj. nikoliv na základě účelově stanoveného binárního kódu), a sice na základě diference mezi diferencí existence/neexistence a diferencemi mezi jednotlivými charaktery A, B, C… Schopnost provádět onu diferenci mezi diferencemi patří nutně ke struktuře našeho předvědeckého rozumění. 11 objektivně dané, nýbrž závisí na naší volbě. Je to důsledek toho, že u charakterů, sloužících jako východiskový materiál ke kombinacím, nelze provést distinkci mezi podstatným určením a akcidentem; jsou proto všechny „stejně“ podstatné (existence každého z nich na společně sdíleném substrátu je conditio sine qua non pro to, aby byla odpovídající věc subsumována pod příslušný druh nebo rod) – nebo „stejně“ akcidentální. Empiristicko-kombinatorická ontologie neumožňuje ani jednoznačně stanovit absolutně nejvyšší rod (summum genus), který je základem rozumění všech nižších rodů a druhů. Rozlišení mezi podstatnými a akcidentálními charaktery (a s tím i stanovení, který z nich bude rozhodující ve „zdola“ vybudovaném klasifikačním schématu), musí proto přijít zvnějšku, tj. z předvědeckého rozumění absolutně nejvyššího rodu a jeho diferenciací, resp. z klasických ontologií, které toto rozumění precizují, jak jsme viděli na příkladu Porfyriova stromu.25 Toto tvrzení ovšem platí pro veškerou kvantifikovatelnou informaci, ať již pracuje s binárními kódy nebo s realisticky traktovanými charaktery.26 Hlavním důvodem této odkázanosti kvantifikovatelné informace na již nekvantifikovatelné ontologické rozumění27 je ve druhém případě zásadní omezenost pole, v němž lze aplikovat Lockovu teorii abstrakce. Abychom co nejvíc připodobnili založení kvantifikace informace v empiristickokombinatorické ontologii původnímu Platónovu pokusu (v němž ovšem jde o vytvoření variety „shora“) a postupovali i v souladu s Batesonovým pojetím informace jako diference, můžeme se pokusit o vyjádření míry informace pomocí počtu diferencí, které ji konstituují. Že nejde o pouhou formalistní hříčku, nás přesvědčí následující citát ze Saussura: „…v jazyce 25 Zde existuje zásadní shoda s tvrzením B. Smitha, že ontologie – a sice v klasickém aristotelsko-realistickém, resp. raně fenomenologickém) pojetí – je vedoucí disciplínou (master-discipline) mezi informačních vědami. Tato teze implikuje nesprávnost obvyklého konstruktivistického přístupu, který vnávaznosti na Kanta předpokládá, že klasifikační systémy tvořící základ databází různého druhu jsou pouhými subjektivními pořádacími schématy, jež více nebo méně libovolně produkuje naše mysl. Místo takovéhoto subjektivismu je podle B. Smitha nutné založit informační systémy na soustavě kategorií, jejichž intersubjektivní platnost zaručuje to, že jsou nejen kategoriemi myšlení, nýbrž zároveň i kategoriálními modifikacemi bytí, vyjadřujícími nejobecnější formální struktury toho, co reálně jest mimo naši mysl; jinými slovy, informační systémy musí být založeny na soustavě kategorií, která má charakter ontologie. Navíc jenom za podmínky, že naše logickoklasifikační stromy budou odpovídat strukturám rozvětvování reality samotné, může dojít kvyloučení všech nejednoznačností v databázových systémech (majících obvykle podobu tzv. diamantů). Podle B. Smitha lze správnost formální ontologie experimentálně ověřovat pomocí počítačových modelů, a na základě tohoto ověřování i korigovat, přičemž platí, že ona formální ontologie (po případných korekcích) bude správná tehdy, když všechna její materiální zkonkrétnění – např. voblasti lékařství, v oblasti geografie atd., atd. – umožní výstavbu takových logicko-klasifikačních stromů, které vyloučí z databází veškeré nejednoznačnosti. (Srv. http://ontology.buffalo.edu/smith//index.html.) Zdá se však víc než pravděpodobné, že při počítačovém modelování bude muset Smith alespoň implicitně přejít na pozice zde nastíněné empiristicko-kombinatorické ontologie, neboť ona jedině umožňuje kvantifikaci informace. 26 Podle J. Patočky „informace může být dobře jistou komponentou poznání, tou, která umožňuje orientaci, rozhoduje naši nejistotu v určitém smyslu, aniž by znamenala poznání nebo poznávání vůbec“. (Filosofie a společenský problém informace, str. 14.) 27 Zajímavým způsobem tematizoval problém vztahu informace a ontologického rozumění celku světa český autor M. Růžička ve své eseji nazvané Informace a dobro (Praha, 1993). Rozlišuje mezi informací a daty, přičemž termínu „informace“ dává význam aristotelského in-formování, což znamená, že přijetí informace může na straně akceptora vést ke proměně jeho obecného ontologického schématu světa jako celku (toto schéma umožňuje rozumět každému faktu na základě toho, jaké místo v něm zaujímá). Na rozdíl od informace data pouze vyplňují (husserlovsky řečeno) prázdné intence zaměřené k faktům. Jinými slovy, Růžičkova koncepce implikuje, že naše poznání jako celek lze modelovat jako funkci f s argumenty x, y, z atd.; informace se v tomto modelu vztahuje k samotné funkci f – její přijetí může tuto funkci transformovat do poněkud jiné podoby, řekněme f2. Data jsou v tomto modelu reprezentována konkrétními hodnotami proměnných x, y, z. Růžičkova koncepce nebyla akceptována, neboť rezervuje termín „informace“ pouze pro vzácné a zřídka se vyskytující poznatky, které jsou s to změnit něčí obecné ontologické schéma světa; takovéto změny souvisejí s restrukturalizací hodnotové hierarchie dané osoby a s celkovou proměnou její osobnostní struktury, z čehož plyne, že „informaci“ tohoto druhu získáváme nanejvýš pouze několikrát v životě. Růžička navíc dualisticky oddělil to, co nazývá daty, od ontologie – a ontologii spolu s informací od dat. 12 existují pouze rozdíly. Ba co víc: určitý rozdíl obecně předpokládá pozitivní termíny, mezi nimiž se vytváří; avšak v jazyce existují pouze bez pozitivních termínů. Ať už si všímáme označovaného nebo označujícího, jazyk nemá ani ideje, ani hlásky, které existovaly před systémem jazyka ale jen konceptuální fónické rozdíly které z tohoto systému vyplynuly. To, co je na znaku z ideje, nebo fónického, není tak důležité jako to, co je v ostatních znacích, které jsou kolem něj.“28 V podobném smyslu se v souvislosti se smyslovými kvalitami a rozdíly mezi nimi vyjádřil Hayek a mohli bychom také znovu zdůraznit tu obecnou vlastnost spontánních řádů, že jejich geneze má charakter diferenciace. Rozdíly, jež konstituují varietu v rámci empiristicko-kombinatorické ontologie lze rozlišit do dvou typů. K prvnímu patří rozdíly mezi charaktery A, B, C… O těchto rozdílech se předpokládá, že jakožto rozdíly mezi elementy jsou dány bezprostředně. Při počtu H charakterů je počet rozdílů mezi těmito charaktery roven číslu H(H – 1)/2. (V saussurovském duchu bychom spíš měli říci, že H(H – 1)/2 rozdílů konstituuje H rozdílných charakterů.) K tomuto číslu ovšem musíme připočíst rozdíl mezi existencí a neexistencí daného charakteru na příslušném substrátu. Od rozdílů mezi charaktery se liší tím, že mezi jeho póly je vztah vzájemného vylučování: na daném substrátu nemůže zároveň existovat i neexistovat určitý charakter. Rozdíl mezi existencí a neexistencí se konstituuje (smyslovým) vyplněním nebo nevyplněním tzv. prázdné, pouze mínící intence: v intencionálním aktu mínění je charakter A dán jako mohoucí existovat na substrátu jako takovém, a pak buď shledáváme, že na určitém substrátu opravdu existuje, anebo naopak, že tam neexistuje. Kantova známá teze ovšem stanovuje, že „bytí (ve smyslu existence) není reálný predikát“, což má znamenat, že zde-existování nějakého A v modu vnímanosti předpokládá vnímající subjekt a nepatří tedy k objektivním určením věci. Z našeho subjekt-objektového stanoviska, které zamítá Kantův dualismus autonomního subjektu a věci o sobě a naopak tvrdí, že existence vnímajícího subjektu je právě takovým důsledkem přírodního dění, jakým je i diferenciace jsoucího do druhů a rodů (resp. do empiricky daných charakterů), však naopak plyne, že i rozdíl existence-neexistence dává poznání o objektivním stavu přírodního jsoucna.29 Celkový počet diferencí bude tudíž vyjádřen vztahem D = H(H – 1)/2 + 1, z něhož pro počet charakterů H (a zároveň pro množství informace) dostáváme formuli H = [1 + (8D – 7) 1/2 ]/2, která by mohl sloužit jako kvantitativní vyjádření vymezení informace jakožto diference; vztah pro odpovídající varietu pak bude mít tvar n = 2[1 + √(8D – 7)]/2 . Zajímavým důsledkem kvantifikace variety na základě diferencí je fakt, že k tomu, abychom dostali celočíselné hodnoty H (což je u elementárních charakterů nezbytné), musí počet diferencí nabývat jen jistých diskrétních hodnot, odpovídajících posloupnosti {1, 2, 4, 7, 11, 16, 22,…}, určené rekurentním vzorcem Dn+1 = 2Dn – Dn–1 + 1. Obecně však lze říci, že lidská mysl je zvyklá zacházet spíše s produkty diferenciace (vztahovými póly, mezi nimiž nalézáme rozdíly) než s procesem diferenciace, který tyto póly rodí; jak bylo výše naznačeno, týká se toto tvrzení obzvlášť rozdílů mezi elementárními charaktery, jako jsou barvy atd.. Pokud bychom při budování variety na základě diferencí nebrali v úvahu pouze takové, které jsou dány ve smyslovém vnímání, museli bychom k výše uvedenému počtu diferencí připočíst i diference mezi diferencí existence/neexistence na jedné straně a diferencemi mezi charaktery na straně druhé. Tyto diference zahrnují implicitně tzv. ontologickou diferenci neboli rozdíl mezi daným charakterem a tím, zda tento charakter existuje či neexistuje (což lze vyjádřit i jako rozdíl mezi charakterem jako míněnou možností 28 Ferdinand de Saussure, Kurs obecné lingvistiky, Odeon, Praha 1989, str. 148. Když však srovnáme tyto Saussurovy výroky s výše uvedenou Platónovou koncepcí diferenciace, snadno nahlédneme, že u Saussura (a Hayeka) schází nutný korelát k diferencím, totiž nediferencované bytí-Jedno, v němž se jedině může diferenciace uskutečnit. 29 Přesněji řečeno, v tomto poznání poznávací subjekt činí svým předmětem souvislost subjektu a objektu. 13 a jejím uskutečněním či neuskutečněním). Tyto diference jsou dány pouze v našem myšlení či rozumění a „viditelnou“ podobu získávají prostřednictvím rozdílu mezi funkcemi symbolů 2 a H ve výrazu 2H , jenž se ovšem týká nikoliv diferencí, nýbrž počtů jimi už konstituovaných vztahových pólů; symbolický výraz 2H poukazuje na to, že diference existence/neexistence nestojí ve stejné řadě s rozdíly mezi charaktery, nýbrž má vůči nim „privilegované“ (transverzální) postavení. Připočtení diferencí mezi diferencemi odpovídá situaci, kdy ustavení variety na základě diferencí nestudujeme pouze v rámci objektivní reality (dané nám ve smyslech), nýbrž polem tohoto zkoumání se stává vztah subjektu k objektu, u něhož musíme vzít v potaz i diference, které (na bázi materiálních neuronových sítí) produkuje naše myšlení. Při stanovení počtu těchto diferencí mezi diferencemi můžeme vycházet z již zjištěných počtů diferencí: na jedné straně máme diference mezi charaktery v počtu H(H – 1)/2, na druhé zase jedinou diferenci existence/neexistence. Jelikož vztah diference se musí uplatnit mezi diferencí existence/neexistence a každou z mezicharakterových diferencí, je zřejmé, že hledaný počet diferencí druhého řádu je též H(H – 1)/2. Když tento výraz přičteme k předchozímu vztahu pro počet diferencí, dostáváme pro počet diferencí vyjádření D′ = H(H – 1) + 1. Počet charakterů v závislosti na diferencích (resp. množství informace nutné plné omezení variety) bude odpovídat vztahu H = [1 + (4D′ – 3)1/2 ]/2, zatímco pro varietu samotnou bude platit n = 2[1 + √(4D′ – 3)]/2 . Aby byly hodnoty H celočíselné, musí počet diferencí nabývat jen jistých diskrétních hodnot, odpovídajících posloupnosti {1, 3, 7, 13, 21, 31, 43,…}, určené vzorcem Dn = Dn–1 + 2(n – 1). Tematizace diferencí mezi diferencemi má kromě toho zamezit výtce, že při kvantifikace diferencí dochází k nivelizaci rozdílu existence/neexistence na úroveň rozdílů mezicharakterových. Proti tomu by někdo mohl zase namítnout, že přičtením několika dalších rozdílů (notabene také nivelizovaných, aby mohly být matematizovány) se problém neřeší. Nicméně to je jediný způsob, jak lze postupovat v mezích kvantifikujícího přístupu, který v tomto případě redukuje nejen kvality, ale také druhové podstaty na kvantity diferencí.30 V rámci úkolu nalézt klasifikačně-ontologickou fundaci matematických vztahů pro kvantifikaci informace zbývá ještě interpretovat tímto způsobem obecnou formuli H = – Σ pi log2 pi. Odpovídá situaci, kdy se o množině (resp. o varietě) o počtu n prvků-druhů dovíme, že se diferencuje do určitého počtu rodů a že pravděpodobnost (resp. relativní četnost případů), že daná entita bude subsumována pod některý z těchto rodů, bude určena poměrem ni/n, kde ni vyjadřuje počet druhů obsažených v daném rodu. To, že disponujeme informací o diferenciaci variety do rodů, znamená, že u variety došlo k částečnému omezení – ovšem jen relativně oproti situaci, kdy její diferencovanost není známá.31 Jakým způsobem se za těchto podmínek kvantifikuje takováto varieta (a zároveň jak se měří množství informace, jež je zapotřebí k jejímu dalšímu omezení), si ukážeme na jednoduchém příkladě. Disponujeme poznatkem, že varieta 92 chemických prvků-druhů se dělí na rod inertních plynů (r1), pro nějž platí n1 = 6, a rod ostatních prvků (r2), jejichž počet je n2 = 86. Úkolem je stanovit míru variety pro situaci, kdy máme danou látku subsumovat pod jeden nebo druhý výše zmíněný rod. (Odlišnost oproti odvozování formule H = – log2 p spočívá tedy v tom, že zde nejde o subsumpci neznámé látky pod jeden z 92 prvků-druhů.) Nynější úkol se 30 Další možná námitka spočívá v tom, že sčítáním diferencí s diferencemi mezi diferencemi dochází ke smíchání různých logických typů, což např. Bateson v podobných kontextech považuje za nekorektní. Otázka kvantifikace diferencí tudíž vyžaduje další podrobné zkoumání. 31 Relativita omezení variety má zde ještě jinou dimenzi: pokud bereme v úvahu jen ty vlastnosti či charaktery, které jsou společné všem druhům v rámci toho nebo onoho rodu, pak došlo k omezení variety. Kdybychom brali naopak v úvahu to, co zmíněné druhy přes jejich společné rodové znaky odlišuje, pak varieta zůstává nezměněna. Z tohoto hlediska by lepší materiál pro příklady poskytly hrací karty (srv. Ashby, Kybernetika, str. 217), avšak jako lidský artefakt nejsou zde příliš vhodné vzhledem k ontologizujícímu rázu předkládané interpretace. 14 dá formulovat i tak, že studujeme, jaké možnosti mohou přejít ve skutečnost v případě, že při nahodilé volbě jednoho z 92 prvků rozlišujeme pouze inertní plyny (v počtu 6) a ostatní (v počtu 86). Jelikož n1 ≠ n2, každý z rodů přispívá jiným podílem k celkové míře relativně omezené variety; intuitivně je jasné, že podíl rodu r2 (ostatní prvky) bude menší – jestliže totiž jde o to, abychom danou látku zařadili jenom do některého ze dvou rodů, pak v případě r2 je lhostejné, pod který z 86 v něm zahrnutých druhů bude daná látka subsumována, kdežto v případě r1 se lhostejnost bude týkat jen 6 prvků-druhů. Když se tedy zabýváme rodem r1, tak v souladu s vymezením úkolu postačuje, aby daná látka byla subsumována pod kterýkoliv ze 6 druhů z celkového počtu 92. Oproti situaci, kdy nám jde o subsumpci pod právě jeden druh ze stejného počtu 92, se tedy varieta musí šestkrát zmenšit, takže její velikost bude 92/6, obecně n/n1. U rodu r2, kde postačuje, aby došlo k subsumpci pod kterýkoliv ze 86 druhů z celkového počtu 92, se musí varieta zmenšit 86krát čili její velikost bude 92/86 (obecně n/n2). Kterýkoliv prvek-druh náležející do rodu inertních plynů (r1) bude prvkem variety, jejíž vyjádření v logaritmické míře je H1 = log2 n/n1 = – log2 n1/n = – log2 p1 (= – log2 6/92) Pro druhý rod (r2) dostáváme analogicky H2 = log2 n/n2 = – log2 p2 (= – log2 86/92) Subsumpce dané látky pod kterýkoliv z prvků rodu r1 (resp. r2) bude vyžadovat množství informace, které se, jak víme, se rovná H1 (resp. H2), neboť jde o plné omezení variety; musíme ovšem dodat, že v situaci subsumování pod rod vystupuje plné omezení variety pouze v relativním smyslu: k tomu, abychom mohli zařadit látku pod právě jeden z druhů příslušného rodu, potřebujeme ještě další informaci. Jelikož H1 ≠ H2, prvky náležející do rodu r1 se liší od prvků rodu r2 jednak mírou variety, která na ně v rámci toho nebo onoho rodu připadá, jednak množstvím informace, které je nutné, aby daná látka byla pod kterýkoliv z nich v rámci příslušného rodu subsumována. K tomu, abychom tuto nerovnocennost prvků eliminovali, nestačí stanovit jejich aritmetický průměr – zanikla by tak nestejnost podílů, jimiž každý z rodů přispívá k celkové míře toho, co jsme nazvali relativně omezenou varietou. (V našem příkladu je tomu tak, že rod r1 o 6 prvcích přispívá k celkové míře oné variety v míře H1, zatímco rod r2 o 86 prvcích k ní přispívá v míře H2.) Pokud tedy chceme zjistit, jaká je průměrná míra (relativně omezené) variety, která připadá na kterýkoliv z celé množiny n prvků (resp. průměrné množství informace nutné k subsumpci dané látky pod druhy rodů r1 a r2, tak jak připadá na kterýkoliv z celé množiny n prvků), pak musíme z daných veličin vypočíst vážený průměr: H = (n1H1 + n2H2)/n. Postupnými úpravami pak dostáváme H = – (n1/n . log2 n1/n + n2/n . log2 n2/n) a poté H = – (p1 . log2 p1 + p2 . log2 p2). Obecně pak dospějeme k Shannonově formuli H = – Σ pi . log2 pi, přičemž ovšem musí platit normovací podmínka Σ pi = 1, resp. Σ ni = n.32 32 Pro srovnání uvedeme standardní zjednodušený způsob vyvození Shannonovy formule, v němž se místo reálných druhů a rodů pracuje se symbolicky kódovanými zprávami: „Mějme dlouhou zprávu složenou z n elementů, přičemž pravděpodobnost výskytu různých symbolů je p1, p2, … atd. Pak nějaký konkrétní i-tý symbol bude nést informaci – log2 p. Tento symbol se vyskytne npi-krát, a proto celková suma informace přenášena tímto symbolem bude Hi = – npi log2 pi. Průměrné množství informace přenášené tímto symbolem bude zřejmě Hi/n čili Hi = – pi log2 pi bitů/symbol a podobně též pro ostatní symboly. V důsledku toho pak celková informace připadající na symbol u daného zdroje informace je H = – Σ pi log2 pi bitů/symbol.“ (A. E. Karbowiak, Theory of Communication, Oliver & Boyd, Edinburgh 1969, str. 16.) 15 V návaznosti na pojem statistické entropie33 označil Shannon výraz H = – Σ pi . log2 pi jako entropii množiny pravděpodobností. (Libovolné množině pravděpodobností splňujících normovací podmínku Σ pi = 1 odpovídá množina, jejíž prvky mají varietu.) Vhodnost termínu „entropie“ v tomto uplatnění (pro něž se vžil i název „informační entropie“) vysvitne nejlépe, pokud si uvědomíme, že veličina Hnabývá pro daný počet (n) pravděpodobností maximální hodnoty, jsou-li všechny pravděpodobnosti stejné (tj. když je dosaženo maxima homogenity v rozložení pravděpodobností); informační entropie H se pak rovná log2 n čili míře variety, jež není relativně omezená tím, že by byl známá její diferenciace do rodů.34 Další významové dimenze Shannonovy formule se nám odhalí, pokud si nastíníme možnosti její aplikace v teorii přírodního výběru. Při této aplikaci bude množina o počtu n reprezentovat velikost populace určitého živočišného druhu, zatímco rody r1, r2 … (s odpovídajícími počty jedinců n1, n2 …), do nichž se množina diferencuje, budou představovat jednotlivé odlišené varianty uvažovaného druhu. Veličina H pak vyjadřuje míru různorodosti variant a zároveň také množství odpovídající informace připadající v průměru na každého jedince dané populace. Její maximum znamená nestabilní stav populace, neboť vysoká různorodost variant umožňuje působení přírodního výběru, což vede k neustálé přestavbě normy; onoho maxima by bylo dosaženo, kdyby každý jedinec reprezentoval zvláštní variantu. Naopak minimum průměrné informace snižuje možnost pro působení přírodního výběru a vyjadřuje tudíž rozhodnou převahu normy, vzácnost odlišených variant a stabilitu struktury populace. Ze struktury H plyne, že příspěvek jak nejrozšířenějších (normálních), tak i velmi zřídka se vyskytujících variant k její velikosti je velmi malý. Na případě dvou vzájemně se vylučujících variant, do nichž se diferencuje populace jako celek, lze ukázat, že H vzrůstá v závislosti relativní četnosti či pravděpodobnosti výskytu příslušníků dané varianty, ale zároveň se snižuje s množstvím informace, kterou jednotliví příslušníci oné varianty nesou. Množství informace (H1 = p1. log2 1/p1) postupně stoupá od nuly (při p1 = 0) a v našem případě dosahuje maxima při p1 = 0,368 (poměrně nízká pravděpodobnost výskytu je zde kompenzována určitou kvalitativní výhodou – „novostí“); při dalším růstu p1 pak množství informace klesá – jestliže se totiž varianta množí, ztrácí charakter „novinky“, stává se součástí normy a její dřívější přednosti se postupně ztrácejí.35 Průměrné množství informace, připadající na kteréhokoliv jedince dané populace H = – Σ pi . log2 pi, dosahuje ovšem maxima při p1 = p2 = 1/2; jsou-li konkurující si varianty rovnocenné, odpovídá maximu H (které je zároveň maximem informační entropie v modu různorodosti) tzv. svoboda přírodního výběru – další vývoj může vést jak k rychlejšímu množení první, tak i druhé varianty. Svoboda přírodního výběru ovšem znamená nepřítomnost reálného výběru právě v důsledku rovnocennosti variant; znamená tudíž stav rovnováhy a 33 Ke statistické entropii dospíváme na základě obecného vzorce pro střední neboli očekávanou hodnotu náhodné veličiny (x  M = Σ xipi, kde xi jsou možné hodnoty diskrétní náhodné veličiny  a pi jsou odpovídající pravděpodobnosti), a sice jeho aplikací na zvláštní případ, kdy xi = – log2 pi (resp. ln pi či log pi). Pokud místo s pravděpodobnostmi pracujeme s relativními četnosti, přechází střední hodnota ve vážený průměr. 34 V našem příkladě s chemickými prvky to odpovídá situaci, kdy každý hypotetický „rod“ obsahuje jen jeden druh. Aplikace Shannonovy formule pak vede k výrazu Dalšími úpravami dostáváme H = – 92/92 . log2 1/92 = – log2 1/92 = log2 92. 35 Tato závislost platí mutatis mutandis i tehdy, když zkoumáme množství informace přenášené symboly v tradičním informačně-teoretickém přístupu. Jestliže v souvislosti s tímto přístupem Patočka říká, že „hodnota »informace« ve smyslu informatiky je něco zcela jiného než hodnota poznatku z hlediska správnostinesprávnosti, stoupá s novostí a neočekávaností a klesá se známostí a banalitou“ (J. Patočka, Filosofie a společenský problém informace, str. 16.), pak tento výrok je nutno korigovat v tom smyslu, že shannonovská míra průměrné informace ruší přímou úměru mezi neočekávaností a „hodnotou“ informace. 16 absenci postižení hybných sil procesu přírodního výběru – v konkrétních podmínkách má přírodní výběr určitý směr, který omezuje svobodu čili úplnou nahodilost výběru.36 Tematizace problému svobody přírodního výběru poukazuje na obecné meze takovýchto přímých a jednoduchých aplikací teorie informace. Pomocí souvztažností mezi četnostmi a mírou variety, resp. informace zahrnutých ve Shannonově formuli lze sice vyjádřit určité rysy evoluce (nebo třeba societální skutečnosti), pokud ji modelujeme prostřednictvím chování statistických souborů: to se týká fenoménů jako jsou „odchylka od normy“, „neočekávanost“ apod., které byly v rámci matematické statistiky a teorie pravděpodobnosti převedené do exaktních formulací (samozřejmě na základě předchozí reflexe jistých aspektů societálního a biologického pohybu). Avšak skutečnost, že teorie informace (a shannonovský přístup zvlášť) má statisticko-pravděpodobnostní původ, vnáší do ní základní omezení vlastní statistice, spočívající především v neschopnosti postihnout strukturální vztahy mezi prvky,37 jakož i síly, které určují dynamiku vývoje. (Avšak interpretujeme-li Shannonovu formuli v rámci empiristicko-kombinatorické ontologie, můžeme pomocí konkretizace jednotlivých charakterů vyjádřit i takové souvztažnosti, jako „je příčinou X“ apod.) Nyní již můžeme přímo přistoupit k problematice vztahu mezi informační a termodynamickou entropií.38 K nalezení kvantitativního vyjádření jejich souvislosti postačí, když vezmeme v potaz, že veličinu W, která v Boltzmannově rovnici S = k . ln W vyjadřuje termodynamickou pravděpodobnost (neboli stupeň neuspořádanosti), lze interpretovat také jako ashbyovskou varietu n: W se totiž, jak známo, rovná počtu mikrostavů, jimiž se může realizovat daný makrostav, přičemž platí, že apriorní pravděpodobnost vzniků všech těchto mikrostavů je stejná; jde tedy o množinu možností, z nichž se aktualizuje právě jedna. Můžeme tedy položit rovnost W = n, z čehož pro množství informace H plyne H = log2 W. Po několika jednoduchých úpravách39 dostáváme vztahy S = k . ln2 . H = konst. H (resp. ΔS = konst. ΔH) a H = (k . ln 2)–1 . S = 1, 11 . 1023 S které stanovují, v jaké míře souvisí množství informací, jež jsou potřebné k poznání určitého systému, s jeho entropií. Z těchto vztahů lze dospět k Brillouinovu principu negativní entropie, podle něhož lze každé informaci přiřadit negativní entropii: vnesení informace do systému má pak za následek snížení jeho entropie. To lze rozšířit na societální systémy – i v nich se informace („duševní majetek jednotlivců“) vnesená do společnosti projevuje zdokonalením samotné společnosti, 36 Srv. F. Čížek, D. Hodáňová, Přírodní výběr jako hlavní faktor evoluce, Academia, Praha 1966, str. 109-111. 37 Meze statistického přístupu klasicky vyjádřil Hayek: „Aby nějaká skupina jednotlivců mohla tvořit skutečný statistický soubor, je dokonce nutné, aby ty vlastnosti jednotlivců, jejichž rozložení četnosti studujeme, nebyly systematicky propojeny, nebo abychom se alespoň neřídili žádnými poznatky o takovýchto spojitostech, když vybíráme jednotlivce, jež tvoří onen „soubor“. Statistické soubory, na nichž studujeme pravidelnosti způsobované „zákonem velkých čísel“, tudíž rozhodně nejsou celky v tom smyslu, v němž jsou jakožto celky charakterizovány společenské struktury. (…) Majíc daleko k tomu, aby se zabývala strukturou vztahů, statistika záměrně a systematicky odhlíží od spojitostí mezi jednotlivými prvky. (…) Statistika se zabývá vlastnostmi prvků souboru, třebaže nikoliv vlastnostmi jednotlivých prvků, nýbrž četnostmi, s nimiž se prvky s určitými vlastnostmi v celkovém úhrnu vyskytují. A navíc, statistika předpokládá, že tyto vlastnosti systémově nesouvisejí s různými způsoby, jak se prvky k sobě vzájemně vztahují.“ (F. A. Hayek, Kontrarevoluce vědy, Liberální institut, Praha 1995, str. 59.) 38 Ashby v podobné souvislosti vyslovuje varování „před každým pokusem uvádět nesvědomitě a jen na ryze verbální úrovni do souvislosti Shannonovu entropii a entropii statistické mechaniky. Závěry v této oblasti musíme dělat s tou největší opatrností, neboť i sebemenší změnou podmínek se může změnit tvrzení, které je naprosto pravdivé, v tvrzení, které je nepravdivé a absurdní.“ (Kybernetika, str. 220.) 39 W = 2H ; S = k . ln W = k . ln 2H ; S = k . H . ln 2. 17 zlepšením jejího fungování a řízení atd., tj. poklesem její entropie.40 Nebo, jak to jednoduše vyjádřil Lewis, zisk informace je ztráta entropie. Brillouinův princip má i svou opačnou variantu, kterou lze exaktně vyjádřit za použití Heisenbergových relací neurčitosti: přírůstek množství získané informace týkající se systému je vždy menší než (resp. nejvýš nabývá stejné velikosti jako) přírůstek entropie systému nebo jeho okolí, vzniklý v důsledku získávání informací (pozorování).41 Nalezení vztahu mezi informací a termodynamickou entropií Brillouinovi umožnilo, aby v návaznosti na starší myšlenky Leo Szilárda vyřešil v roce 1951 problém tzv. Maxwellova démona.42 Brillouin exaktně prokázal, že k tomu, aby démon mohl úspěšně plnit svou funkci, musel by získat informace o molekulách a jejich pohybovém stavu. To by však mohl uskutečnit jen tak, že by nechal nějakého zprostředkovatele, např. foton, interagovat s molekulou, avšak tím by se automaticky zvýšila entropie systému alespoň o tolik, o kolik by poklesla démonovým regulováním letu částic. Brillouinovo řešení problému Maxwellova démona má velký význam, neboť se dá rozšířit i na analogický problém centrálního plánování hospodářství. Aby mohl komunistický nebo socialistický plánovač („démon“) suplovat fungování svobodného trhu, musel by neustále akumulovat neustále vznikající tzv. rozptýlené informace, kterými se za podmínek absence plánování řídí milióny tržních subjektů a které sestávají z poznatků o místních a časových podmínkách výroby, ze znalostí potřeb a přání samotných subjektů a také z jejich tvůrčích a inovativních nápadů týkajících se řešení problému maximalizace jejich užitkových funkcí. Získáváním těchto informací by se nutně zvýšila entropie systému alespoň o tolik, o kolik by poklesla na základě řídící činnosti plánujícího démona. Tímto způsobem lze velmi jednoduše vyvrátit koncept plánované ekonomiky, aniž bychom sáhli k ještě pádnějšímu argumentu – k Hayekovu důkazu o nemožnosti detailní explanace fungování lidského mozku lidským mozkem. Vztah mezi informací a termodynamickou entropií navíc umožňuje i exaktní propojení mezi informací a energetickými procesy, které ji zprostředkovávají. Brillouin – opět v za pomoci Heisenbergových relací neurčitosti – formuloval vztah mezi malým energetickým výdajem při získání informace a velkým energetickým efektem, který plyne z jejího využití;43 jde o tzv. negentropický efekt, který umožňuje, aby růst entropie způsobený získáváním informace, byl kompenzován využitím energetických zdrojů, jichž se týká získaná informace. (Brillouin tak podal exaktní zdůvodnění pro Hegelovu teorii lsti rozumu, v souladu s níž si slabý lidský rozum musí tváří v tvář přírodě počínat lstivě, tj. na základě svého poznání aranžovat působení autonomních přírodních sil tak, aby odvracely působení jiných, člověku nebezpečných a škodlivých sil.) Podle J. Krempaského je dalším pozitivním přínosem propojení informace a termodynamické entropie to, že umožňuje objektivně posoudit stupeň fyzikální uspořádanosti. Krempaský uvádí v této souvislosti následující příklad (uvádíme jej poněkud zkráceně): Buňky lidského těla jsou sestrojeny z biopolymerů, tyto zase sestávají z monomerů. Počet 40 Srv. J. Krempaský, Fyzika, str. 667. 41 Je-li přírůstek informace při měření je podle Brillouina úměrný výrazu ln W0/W1, kde W0 počet stejně pravděpodobných případů před provedením měření a W1 je počet těchto případů, jež po měření ještě zbyly, pak z toho plyne, že pokud W1 → 0, pak entropie vznikající procesem měření roste ad infinitum. (Srv. K. S. Trincher, Information and Biological Thermodynamics, in: L. Kubát, J. Zeman, eds., Entropy and Information in Science and Philosophy, Academia, Praha 1975, str. 109.) 42 Maxwellův démon je fiktivní bytost, která otevírá dvířka v bariéře oddělující dva plyny o různé teplotě a pouští jimi jedním směrem (z prostředí chladnějšího do teplejšího) pouze rychlé molekuly, zatímco opačným směrem pouští naopak pomalé molekuly. Démon tak uskutečňuje proces, který odporuje II. větě termodynamické – uskutečňuje přenos tepla z chladnějšího prostředí do teplejšího, aniž by dodával práci, a snižuje tím entropii systému. (Srv. J. Krempaský, Fyzika, str. 667.) 43 Srv. J. Zeman, Teorie odrazu a kybernetika, str. 64-65. 18 monomerů v celém lidském těle 3 . 1025 . Za předpokladu, že každý monomer má své nezastupitelné místo v příslušném polymeru, a tím v celém organismu (a tedy žádný z nich nemůže být nahrazen jiným), dostáváme varietu o velikosti (3 . 1025 )! možností vytvoření systému z počtu 3 . 1025 částí, přičemž z tohoto vpravdě ohromného počtu možností se uskutečnila právě jedna. Omezení variety čili množství informace potřebné na odstranění neurčitosti bude rovno H = log2 (3 . 1025 )!  1026 bitů. Podle vztahu mezi entropií a informací je celá tato uspořádanost ekvivalentní přibližně 103 J.K–1 , což odpovídá změně entropie asi 170 cm3 vody při odpaření.44 (Zdánlivá nepřiměřenost této ekvivalence plyne nikoliv z nízkého stupně komplikovanosti lidského organismu, nýbrž z nesmírné chaotičnosti tepelného pohybu nesmírného množství molekul plynu.) Jednota informační a fyzikální entropie neboli fakt, že tentýž stupeň fyzikální uspořádanosti se dá exaktně vyjádřit jak v bezrozměrných bitech, tak ve fyzikálních jednotkách o rozměru J.K–1 , podnítil obrovskou vlnu více či méně filosofických spekulací o charakteru a podstatě informace. Krajní názor zde představuje, jak říká Patočka, extrémní generalizace, která informaci v podobě tvaru, formy, uspořádanosti činí obecným rysem objektivního, hmotného světa a pokládá ji za původní, základní a nepřevodnou komponentu fyzikální reality. K tomuto názoru, reprezentovaného kromě mnoha dalších45 Friedrichem von Weizsäckerem, uvádí Patočka, že „je-li informace pojata jako něco v podobě formy se podílející na samotných prazákladech materiálního světa, může tento pojem, jakožto universale bytostně nemateriální, se svou reminiscencí na aristotelskou tradici vést ke zvláštní generalizaci pojmu porozumění i na materiální procesy, postižené procesem předávání informace (ve formě rozhodnutí jednoduchých alternativ); a v kombinaci s myšlenkou. že objektivní svět není než svět ducha, pokud může být vyjádřen řečí objektu, potom ke kuriózní obnově metafyzického idealismu“.46 Obnova metafyzického idealismu na bázi jednoty informační a termodynamické entropie není ovšem ničím jiným než nekorektním významovým posunem. Ze tří nezbytných 44 Srv. J. Krempaský, Fyzika, str. 667. 45 Zvláštní skupinu zde tvoří představitelé tzv. teorie odrazu, která v návaznosti na Lenina měla fungovat jako noetika marxismu. Inspirováni některými výroky N. Wienera a L. Brillouina dosadili informaci v extrémně generalizovaném významu slova za domnělou „elementární čivost“ vlastní všem stupňům vývoje hmoty a umožňující různé formy „odrazu“ – od nejjednodušších, projevujících se v anorganické hmotě až po lidské vědomí. K bližší představě o tomto pojetí stačí uvést několik charakteristických výroků: „Ani látka, ani energie, které by nebyly spojeny s informačními procesy, neexistují“ (Berg a Birjukov); „…informace je určitém smyslu právě takovou vlastností jako prostor, čas, pohyb atd. …informace je nejen vlastností kybernetických systémů, nýbrž vůbec neodlučitelnou vlastností hmoty“ (Ursul); „informace, jako jedna z objektivních stránek přírodních jevů, existuje všude, na celém světě, v celém vesmíru“ (Berg, Birjukov, Novik). (Cit. in: J. Zeman,Teorie odrazu a kybernetika, str. 59, 63. 46 J. Patočka, Filosofie a sociální problém informace, str. 15. Na jiném místě však dodává (opět ovšem v podmiňovacím způsobu), že je-li „materiální, substanciální stránka skutečnosti (hmota– energie) neméně vázána na »informaci« v tomto novém smyslu objektivně konstatovatelné a měřitelné fyzikální veličiny, která přesto nemá substanciální ráz, pak je to poznatek nový, nebanální, pro celý obraz o přírodě, který si tvoříme. nesmírně významný a mluvící ve prospěch »strukturalismu«. Některé rysy aristotelovského nazírání na přírodu (nikoli všecky!) by se tím snad ukazovaly včlenitelné do moderního myšlení (zdali ovšem i sám Aristotelův pojem přírody-fysis jako vnitřního pramene pohybu a klidu?)“ (Ibid., str. 17) Jak se zdá, poměrně blízko k Patočkou naznačené obnově aristotelismu se dostal K. S. Trinčer; soudí, že informace je „doprovodný článek“ (accompanying link) práce na všech jejích úrovních (technické, makromolekulární i biologické) a její funkcí je indikovat cíl pracovního procesu. Informace jakožto fyzický a bezrozměrný parametr existuje jen ve spojitosti s pracovním procesem, který má určitý cíl; musí proto být spojena s účelově operujícími systémy, jako jsou člověkem vytvořené stroje, pracující makromolekuly a metabolizující buňky. Procesy probíhající v neživé přírodě nemají charakter účelové činnosti a neobsahují tudíž žádnou informaci. (K.S. Trincher, Information and Biological Thermodynamics, str. 108.) Jinými slovy, informace je nevědomý účel či cíl, který dochází uvědomění v člověku; k tomu lze dodat jen tolik, že pojem nevědomého účelu má sice své místo ve všech aristotelizujících metafyzikách (A. Smith, Hegel atd.), avšak kvůli svému antropomorfnímu rázu má stěží místo ve vědě. 19 dimenzí informace – sémantické, syntaktické a pragmatické – umožňuje vztah ΔS = konst. . ΔH projikovat do objektivní reality pouze dimenzi syntaktickou, tj. jen ten typ formy či uspořádanosti, který je kompatibilní se Shannonovou formulí a vyznačuje se tudíž asémantičností a těmi zásadními omezeními statisticko- pravděpodobnostního přístupu, o nichž jsme mluvili výše. (Právě jen v této redukované podobě je informace převoditelná na termodynamickou entropii, která je také produktem onoho přístupu.)47 Nekorektnost výše zmíněného významového posunu spočívá v tom, že spolu s korektní projekcí syntaktické (statisticko-pravděpodobnostní) dimenze informace do reality se do ní implicitně projikuje také dimenze sémantická, nebo i takové typy uspořádanosti, které přesahují možnosti statisticko-pravděpodobnostního přístupu. Na tomto místě je vhodné ještě dodat, že informaci v tomto generalizovaném pojetí nelze v žádném případě stavět na stejnou úroveň jako hmotu a energii – pro ty totiž platí zákony zachování, kdežto v důsledku II. věty termodynamické se množství informace jakožto uspořádanosti stále snižuje. Představa, že informace existuje in rebus, se obvykle konkretizuje do pojetí tzv. strukturní informace, které lze standardně vyvodit např. následujícím způsobem: „Veškeré determinující faktory však nejsou jen v energii systému. Systémy, u nichž jsou stejné energetické a látkové poměry, mohou být kauzálně značně neekvivalentní, mohou dosahovat týchž účinků s vynaložením různého množství energie. Informace, která je obsažena v jejich uspořádanosti (struktuře), umožňuje ušetřit část energie, již musí vynakládat méně organizovaný systém. Informace má v tomto smyslu hodnotu energie; kdyby ji systém neměl, musel by vyplýtvat tuto energii na nezdařené pokusy o dosaženi daného výsledku. Informační aspekt kauzality má největší význam u biologických a společenských systémů, kde se nedá abstrahovat od cílovosti a organizovanosti jako u jednodušších fyzikálních systémů.“48 Strukturní informace se v souladu s tím vztahuje ke statickému aspektu systému: je to jeho vnitřní, relativně trvalá varieta, strukturovanost, organizovanost.49 Typickým příkladem pro strukturní informaci je genetická informace nebo informace obsažena ve struktuře lidského organismu jako celku, jejíž kvantitativní vyjádření v bitech a v jednotkách entropie J.K–1 jsme uvedli výše. Podvojnost tohoto vyjádření poukazuje na to, že máme k dispozici dva způsoby, jak popsat a kvantifikovat jeden a tentýž aspekt lidského organismu, totiž stupeň jeho uspořádanosti. Ekvivalence informace a entropie, resp. negentropie se tak ukazuje jako ambivalentní („dvojsečná“), neboť v souladu s principem Occamovy břitvy (entia non sunt multiplicanda praeter necessitatem) by měl být jeden způsob popisu redundantní; abychom tento problém vyřešili, musíme mezi nimi provést srovnání. Oba popisy stupně uspořádanosti, jak informačně-teoretický, tak statistickotermodynamický vycházejí, jak již známo, ze statisticko-pravděpodobnostního přístupu, tj. aplikují pravděpodobnost jako míru přechodu možnosti ve skutečnost. Jinými slovy to znamená, že skutečnost jistého stupně uspořádání chápou jenom ve vztahu k varietě nerealizovaných, ale přesto realizovatelných možností. Tyto nerealizované možnosti nejsou součástí vnější reality, nýbrž představují nutnou strukturu lidského a pouze lidského rozumění 47 Zmiňovaná projekce syntakticky pojaté informace do reality se dá dokumentovat známým výrokem N. Wienera: „Organismus čelí chaosu, dezintegraci, smrti právě tak jako zpráva čelí šumu“ (The Human Use of Human Beings: Cybernetics and Society). 48 M. Král, Substanční a systémové myšlení ve vědě, in: V. Tlustý, ed., Teorie systémů. Metodologické problémy experimentu, Praha 1968, str. 79. 49 J. Zeman, Teorie odrazu a kybernetika, str. 69. Pod vlivem Brillouinova rozlišení mezi bound information a free information se strukturní informace dává do relativního protikladu vůči tzv. signální informaci, jež se vztahuje k aspektu dynamické proměnlivosti systému – týká se jeho vnějších projevů, jeho řídících a komunikačních funkcí, možností a způsobů přenosu signálů atd. Převedení strukturní (vázané) informace v informaci signální, volnou, tj. ve zprávu, lze ilustrovat myšlenkou N. Wienera o možnosti telegrafického přenosu organismu převedeného v algoritmus. 20 – neboť pouze člověk je s to obklopovat skutečné horizontem možností, ať již byvších, nerealizovaných, nebo realizovatelných v budoucnosti. Na druhé straně, možnosti nejsou samozřejmě ryze subjektivní – jejich objektivní základ tkví, zjednodušeně řečeno, v dualitě zákonů a podmínek, tj. v tom rysu vnější reality, že za patřičně změněných podmínek by se v ní aktualizovala jiná možnost než ta, která se aktualizovala za daných podmínek. Zároveň Podmiňovací způsob použitý v předchozí větě však zároveň poukazuje na to, že odlišení zákona a podmínek je opět dáno jen člověku. Když použijeme termíny Hegelovy dialektiky, můžeme říci, že nerealizované možnosti, jež obklopují skutečnost, jsou sice o sobě, ale jsou jako takové pouze pro nás (což je nejvýstižnější fromulace subjekt-objektového přístupu k problému informace). V informačně-teoretickém přístupu, zejména v Ashbyho koncepci variety, je chápání skutečnosti ve vztahu k možnostem vyjádřeno explicitně, ve statisticko-termodynamickém přístupu je zahrnuto pouze implicitně. Je tu však důležitý rozdíl: v rámci teorie informace, jak jsme viděli při kvantifikaci stupně uspořádanosti lidského organismu i v případě empiristickokombinatorické ontologie, se horizont možností pouze kombinatoricky konstruuje, zatímco v termodynamice existuje způsob, jak onen horizont možností měřit a vyjádřit v příslušných jednotkách.50 To je jeden závažný důvod, proč dát přednost statisticko-termodynamickému popisu stupně uspořádanosti systémů; druhý, ještě důležitejší důvod spočívá v tom, že statisticko-termodynamický přístup lze organicky spojit s (prigoginovskou) teorií samoorganizace (v rámci nerovnovážné termodynamiky), která je s to popsat nejen výsledek samoorganizace (jak je tomu u ryze informačně-teoretického popisu), nýbrž i dynamické determinanty, vazby a vztahy, které se uplatňují v jejím průběhu. To ovšem neznamená, že by bylo třeba zavrhnout informačně-teoretický přístup ke kvantifikaci a popisu stupně složitosti systémů; je zapotřebí jej pouze rezervovat pro vztah těchto systémů k našemu poznání – ve smyslu stanovení, kolik otázek, na něž lze odpovědět ano/ne, je nutno položit, abychom plně omezili varietu možností, resp. kolik empiricky daných znaků je nutno rozlišit, aby pro nás nějaká varieta druhů vyvstala. Jinými slovy, informačně-teoretický popis je nutno uvědoměle vztahovat k subjekt-objektovému vztahu, zatímco studium objekt-objektových vztahů má zůstat doménou statisticko-, resp. nerovnovážně-termodynamického popisu. Z toho ovšem plyne, že výsledky uplatňování informačně-teoretického přístupu není přípustné projikovat do reality, jak je o sobě nezávisle na našem subjektu (či, jak níže uvidíme, na jakémkoli kvázi-subjektu, jenž je s to realizovat jednu možnost z variety možností). To že k takovéto projekci neboli ontologizaci došlo, je důsledkem nekritického převzetí staré descartovské zásady, že co je matematizovatelné, je také reálné o sobě a nezávisle na nás. Co z toho ovšem vyplývá konkrétně, je zamítnutí pojmu „strukturní informace“ a všech podobných pojmů – jsou totiž plně nahraditelné pojmy fyzikální entropie/negentropie, samoorganizace atd. Senso strictu se to týká i pojmu genetické informace, který ovšem označuje typ samoorganizace natolik podobný lidskému kódování zpráv, že je velmi pohodlné používat pro něj nekorektní antropomorfní pojmenování. Z tohoto hlediska je třeba pozitivně ocenit myšlenku W. Hofkirchnera, v souladu s níž se daný proces stává informací pouze ve vztahu k různým úrovním subjektivity. Když ji však zkombinoval se svou další hlavní ideou, že totiž informace mohou využívat pouze systémy, které minimalizují svoji entropii na úkor zvyšování entropie ve svém okolí, musel dojít k závěru, že také anorganické systémy, které toto realizují, využívajíce při tom různých procesů ve funkci informací, představují jistý druh nižších subjektů (v jeho terminologii jde o protosubjekty). To nelze přijmout jednak z toho důvodu, že chování takovýchto 50 Dosáhne se toho převedením statisticko-termodynamického vyjádření entropie na její vyjádření v rámci klasické termodynamiky. 21 anorganických systémů (jako je např. Bělousovova-Žabotinského reakce) se dá plně vysvětlit v termínech nerovnovážné termodynamiky za naprosté absence pojmu informace, jednak z ještě závažnějšího důvodu spočívajícího v tom, že oněm anorganickým systémům není nijak dána varieta možností. Odstranění neurčitosti na základě akceptované informace je odstraněním neurčitosti pro nás, kteří tyto systémy studujeme, ne však pro tyto systémy samotné. Danost variety možností se objevuje až u živočišného (či obecně organického, pokud bychom uvažovali o rudimentární danosti diferencované vnější reality i v rostlinných buňkách) kvázi-subjektu, a sice jako danost variety možností různých směrů pohybu v poli aktuálního smyslového vnímání. Pokud se v tomto poli objeví výrazný, např. čichový podnět, který je pro zvíře přitažlivý tím, že pohyb zvířete směrem k němu je spojen s gradientem prožitku očekávané slasti, znamená to omezení variety, a tedy i primitivní kvázi-informaci. U člověka pak je varieta možných akcí v poli jeho aktuálního smyslového vnímání determinován varietou či horizontem možností, které existují v jeho myšlení a přesahují tudíž oblast aktuálního smyslového vnímání. Z toho plyne, že určitý proces nebo děj se může stát informací jen v korelaci s vnímající (resp. vnímající a myslící) bytostí. Výše uvedená tematizace empiristicko-kombinatorické ontologie jakožto východiska pro kvantifikaci informace měla také za úkol upozornit, že v již rámci smyslového vnímání jakožto prvotního informačního kanálu je možné budování variet a subsumpce jednotlivin pod druhy. (To že východiskem pro teorii informací se nestalo vnímání, nýbrž symboly zprostředkovaná sdělení, bylo způsobeno jednak potřebou vytvořit teoretické základy pro technicky realizovanou komunikaci, jednak tím, že v matematice se snáze operuje se symboly než s termíny označujícími smyslové vnímání.) Vzhledem k tomu, že, jak ukázal Hayek, existují určité apriorní struktury klasifikace a subsumpce již na úrovni smyslového vnímání (např. živočich má vrozený sklon přibližovat se k určitým podnětům) a také vzhledem k existenci paměti, jež je nutně spojena se smyslovým vnímáním, lze navíc zdůvodněně přijmout charakteristiku informace jakožto potenciální negentropie, kterou vyslovil Costa de Beauregard. Informace uchovaná v paměti nebo vrozený sklon chovat se určitým způsobem se realizují pouze za určitých podmínek – tehdy odpovídající negentropie přechází z možnosti ve skutečnost. Samozřejmě, zvláštní význam nabývá tato charakteristika informace u lidského subjektu – tím, že člověk „zadržuje žádost“ (Hegel), je s to nahradit aktualizaci potenciální negentropie obsažené ve vrozené informaci aktualizací mnohem větší potenciální negentropie, jež je obsažena ve výsledcích jeho racionálního poznání. 22