Definice umělé inteligence a zákony robotiky Doposud není známo, co to vlastně inteligence jako taková je! Ke dnešnímu dni bylo publikováno mnoho definic umělé inteligence, které by ji měly ozřejmit. První tři definice: 1. Umělá inteligence je označení uměle vytvořeného jevu, který dostatečně přesvědčivě připo-míná přirozený fenomén lidské inteligence; 2. Umělá inteligence označuje tu oblast poznávání skutečnosti, která se zaobírá hledáním hranic a možnosti symbolické, znakové reprezentace poznatku a procesu jejich nabývání, udržování a využívání; 3. Umělá inteligence se zabývá problematikou postupu zpracování poznatku – osvojováním a způsobem použití poznatku při řešení problému. Britský matematik (a vlastně i zakladatel umělé inteligence) Alan Turing definoval inteligenci operačně, tzn. pomocí experimentu, v němž se lidský operátor snažil určit na základě komunikace člověk/stroj identitu druhé strany. Jestliže nebylo možno vydat rozhodnutí o identitě druhé strany, pak stroj komunikující s člověkem byl označen za inteligentní (funkcionalistické hledisko). Vlastní výraz umělá inteligence byl poprvé použit v roce 1956 na MIT (Massachusetts Institute of Technology) v USA. Autorem tohoto výrazu byl jistý John McCarthy. Podle jeho definice umělá inteligence zahrnuje: – Hraní her – stroje by měly být schopny hrát i takové složité hry jako jsou například šachy; – Expertní systémy – stroje by měly být schopny konat správná rozhodnutí v reálných situacích (lékařské diagnózy, strategické rozhodování na bojišti, burze atd.); – Zpracování hlasu – stroje by měly nejen zpracovat hlas jako takový (co dnes už není problém), ale měly by také být schopny rozumět smyslu zprávy, jenž byla vyslovena a umět na ni správně reagovat; – Neuronové sítě – jedná se o speciální matematické algoritmy, jenž dokážou velmi dobře simulovat činnost biologických neuronových sítí, a tím napodobovat inteligenci ve specifických úkolech; – Robotiku – což jsou v podstatě stroje/počítače, jenž ve formě autonomních jednotek dokážou být v interaktivním kontaktu se svým okolím. V současné době (bohužel/díkybohu?) neexistuje stroj, který by toto vše splňoval (ale jednotlivé úkoly už z velké části roboty dokážou realizovat – např. superpočítač IBM – Deep Blue – v roce 1997 porazil v šachu mistra Garyho Kasparova). Je možné říct, že stroj je inteligentní, když dokáže bez zásahu člověka logicky řešit různé situace či problémy tak, jak by je řešil člověk? Výzkum umělé inteligence se dá dělit do dvou směrů, a to do teoretického a praktického (experimen-tálního či aplikovaného). V teoretické části je studováno, jaké intelektuální mechanismy existují a v jaké interakci s řešenými problémy jsou. V experimentální části se aplikují různé algoritmy a testuje se jejich způsobilost k řešení specifických úkolů. ZÁKONY ROBOTIKY Navrhl je spisovatel sci-fi literatury Isaac Asimov. V původní verzi měly tři pravidla: 1. zákon: Robot nesmí ublížit člověku, ani svou nečinností dopustit, aby člověku bylo ublíženo. 2. zákon: Robot musí uposlechnout příkazů člověka, kromě případů, kdy by uposlechnutí rozkazu bylo v rozporu s 1. zákonem. 3. zákon: Robot musí chránit vlastní existenci, pokud tato ochrana není v rozporu s 1. a 2. zákonem. Tato tři pravidla by měla údajně zajistit, že se inteligentní stroj nikdy nepostaví proti svému tvůrci. Při bližším pohledu na tyto zákony se nám ale ukazuje, že jejich logická struktura je „děravá“. Pokud by tyto 3 zákony byly aplikované na adaptivní učící se stroje, tak existuje nemalá pravděpodobnost toho, že porušení či ignorování těchto pravidel by se mohlo stát jedním z cílů myslících strojů. Na tuto možnost upozornil i samotný autor a doplnil tzv. „nultý zákon“ robotiky, který zní: 0. zákon: Robot nesmí ublížit lidstvu, ani svou nečinností dopustit, aby lidstvu bylo ublíženo. Nevyřešeným problémem ale zůstává, že pojem „lidstvo“ je nedefinovatelná množina, tj. není stano-veno, kolik lidí tvoří lidstvo. Rozhodnutí o tom, zda dodržovat původní tři zákony robotiky, by pak bylo jen a pouze na „vůli“ stroje. Měl by ten pak „svobodnou“ „vůli“? Problém modifikace těchto či jiných zákonů by zřejmě šlo řešit přidáním zákona, který by mohl znít: Zákon ochrany: Tato sada zákonů nesmí být měněna nikdy, nikým a za žádných okolností. Pokud ano, zapoj okamžitou autodestrukci. Nicméně, i zde je skulina, a tou je okamžik uvedení stroje do chodu. Pokud by někdo vybavil robota modifikovanou sadou zákonů zaměřených na autodestrukci a doplnil by ho tímto ochranným záko-nem, pak by vznikl ideální zabiják neschopný převýchovy. Problém všech robotů a tím pádem i umělé inteligence jako takové je to, že zatím neexistuje systém algoritmů, který by dokázal dynamicky reagovat na měnící se okolí a chovat se tak jako inteligentní živá bytost. UMĚLÝ ŽIVOT? Již delší dobu jsou prováděny pokusy s vytvořením tzv. umělého života „in silico“ (v počítači). V podstatě byly definovány celkem tři směry vývoje umělého života: 1. in hardware; 2. in software; 3. in netvare. První z nich je zastoupen klasickou robotikou, druhý simulací života v prostředí počítače a třetí je hybridní kombinací obou přístupů. Pro vytvoření života je fundamentální otázkou: Co je život? Schopnost zvyšovat vlastní uspořáda-nost? Vytvářet své repliky, tedy rozmnožovat? Schopnost chovat se účelně? Či schopnost poznávat a využívat vlastní poznání k zvyšování své uspořádanosti či k replikaci? Ukazuje se, že vlastní život není podmíněn ani tak materiálním nosičem, ale komplexitou z hlediska informace jako takové, tzn. jak složitě a na jak složité situace dokáže živý organismus reagovat. Není důležité, zda nositelem informace je biologická nebo neuronová síť či křemíkový procesor. Důležitá je komplexita informačního procesu a schopnost paměti! Jedny z nejjednodušších algoritmů, které umožňují generovat složité, emergentní chování, jsou buněčné (celulární) automaty. Mezi průkopníky celulárních automatů patří zejména John von Neumann (tvůrce architektury počítače) a Stephen Wolfram (autor knihy Nový druh vědy), který vypracoval poměrně strukturovanou studii o buněčných automatech. Jedna z velmi populárních aplikací je tzv. hra života, při které se na základě primitivních pravidel vytváří velmi komplikované chování, které nebylo naprogramováno. Dalším přístupem pro simulaci umělého života jsou tzv. L-systémy, kterých duchovním otcem je biolog, který rozvinul formální popis vývoje biologických systémů pro simulaci na počítačích – Aristid Lindenmayer. Jeho základní myšlenkou je, že na vývoj organismu může být pohlíženo jako na vykonávání určitého programu uloženého v oplodněném vajíčku. Na vyšší mnohobuněčné organizmy pak lze pohlížet jako na kolekci příslušně programovaných, tzv. konečných automatů. Později byla myšlenka L-systémů obohacena o mutaci, což umožnilo generovat zmutované původní L-systémy, neboli tzv. biomorfy. Organizmy – biomorfy – které evolučně vznikly ve virtuálním (softvérovém) prostředím se programově „odpoutaly“ od svých tvůrců tím, že původní prvopočáteční organizmy zanikly a daly vzniknout novým a složitějším strukturám, které vykazují nové prvky a chování. Častokrát byly dokonce adaptabilní, což je jeden z rysů života. Simulovány byly nejenom tvary, ale už i funkce!