Umělé vědomí

Umělé vědomí (Artificial consciousness, AC), známé také jako strojové vědomí (Machine consciousness, MC) nebo syntetické vědomí, je obor související s umělou inteligencí a kognitivní robotikou, jehož cílem je definovat to, co by muselo být syntetizováno, kdyby se vědomí nacházelo v umělém artefaktu.

Myšlenka vytvoření umělé vnímající bytosti je prastará a objevuje se v mnoha mýtech – jako příklad lze uvést Golema, řecký mýtus o Prométheovi, mechanické lidi v Chrétienu de Troyes a stvoření v románu Mary Shelleyové Frankenstein. Ve vědeckofantastické literatuře mají uměle uvědomělé bytosti často podobu robotů nebo umělých inteligencí. Umělé vědomí je zajímavý filozofický problém, protože s rostoucím porozuměním genetice, neurovědám a zpracování informací může být v budoucnu možné vytvořit vědomou bytost. Ve vědeckém mainstreamu však panuje značná skepse ohledně toho, že stroje někdy realizují umělé vědomí.

Biologicky by bylo možné vytvořit bytost tak, že by se vyrobil genom s geny potřebnými pro lidský mozek a ten by se vpravil do vhodné hostitelské zárodečné buňky. Taková bytost by po implantaci a narození z vhodné dělohy byla velmi pravděpodobně vědomá a umělá. Jaké vlastnosti tohoto organismu by však byly zodpovědné za jeho vědomí? Mohla by být taková bytost vytvořena z nebiologických složek? Mohou být techniky používané při konstrukci počítačů přizpůsobeny k vytvoření vědomé bytosti? Bylo by vůbec etické něco takového udělat?

Neurověda předpokládá, že vědomí vzniká součinností různých částí mozku, které se nazývají nervové koreláty vědomí (NCC). Mozek se nějakým způsobem vyhýbá problému popsanému v omylu homunkula a překonává problémy popsané níže v následující části. Zastánci AC se domnívají, že počítače mohou tuto spolupráci, která zatím není zcela pochopena, napodobit.

Povaha vědomí

Hlavní článek: Vědomí

Podle naivního a přímého realismu lidé vnímají přímo, zatímco mozek provádí zpracování. Podle nepřímého realismu a dualismu mozky obsahují data získaná zpracováním, ale to, co lidé vnímají, je mentální model nebo stav, který se jeví jako překrytí fyzických věcí v důsledku projektivní geometrie (např. pozorování bodu v dualismu René Descarta). O tom, který z těchto přístupů k vědomí je správný, se vedou vášnivé diskuse.

Přímé vnímání problematicky vyžaduje novou fyzikální teorii, která by umožnila, aby vědomá zkušenost přímo dohlížela na svět mimo mozek. Pokud však lidé vnímají nepřímo prostřednictvím modelu světa v mozku, pak by bylo zapotřebí nového fyzikálního jevu, jiného než nekonečný další tok dat, který by vysvětlil, jak se z modelu stává zkušenost.

Pokud lidé vnímají přímo, je obtížné vysvětlit sebeuvědomění, protože jedním z hlavních důvodů pro návrh přímého vnímání je vyhnout se Ryleovu regresu, kdy se vnitřní zpracování opakuje donekonečna. Sebeuvědoměním u robotů se zabývá Junichi Takeno z univerzity Meiji v Japonsku, který tvrdí, že vyvinul robota, který dokáže rozlišit svůj vlastní obraz v zrcadle od jiného robota, a toto tvrzení již bylo přezkoumáno. Přímé vnímání také vyžaduje, aby si člověk skutečně nemohl uvědomovat sny, představy, mentální obrazy nebo jakýkoli vnitřní život, protože by to zahrnovalo rekurzi.

U entit, které vnímají nepřímo, je sebeuvědomění méně problematické, protože z definice vnímají svůj vlastní stav. Jak však bylo zmíněno výše, zastánci nepřímého vnímání musí navrhnout nějaký fenomén, ať už fyzikální, nebo dualistický, aby zabránili Ryleovu regresu. Pokud lidé vnímají nepřímo, pak by vědomí sebe sama mohlo být důsledkem rozšíření zkušenosti v čase, které popsali Immanuel Kant, William James a Descartes. Bohužel toto prodloužení v čase nemusí být v souladu s naším současným chápáním fyziky.

Zpracování informací a vědomí

Zpracování informací spočívá v zakódování stavu, například geometrie obrazu, na nosič, například proud elektronů, a následném podrobení tohoto zakódovaného stavu sérii transformací určených souborem instrukcí zvaným program. Nosičem může být v zásadě cokoli, dokonce i ocelové kuličky nebo cibule, a stroj, který instrukce provádí, nemusí být elektronický, může být mechanický nebo fluidní.

Zpracování informací v digitálních počítačích. Již od prvních dnů digitálních počítačů se předpokládalo, že tato zařízení budou jednou vědomá. Jedním z prvních pracovníků, kteří se touto myšlenkou vážně zabývali, byl Alan Turing.

Pokud by se technologové při vytváření vědomé entity omezili na použití principů digitální výpočetní techniky, narazili by na problémy spojené s filozofií silné umělé inteligence. Nejzávažnějším problémem je argument Johna Searla o čínském pokoji, který se snaží dokázat, že obsah informačního procesoru nemá žádný vnitřní význam – v každém okamžiku je to jen soubor elektronů nebo ocelových kuliček atd.

Searlova námitka nepřesvědčí každého. Zastánci přímého vnímání tvrdí, že „význam“ lze nalézt pouze v předmětech vnímání. Mnozí filozofové se vzdali vnitřního významu pro
Wittgensteinovy přístupy, sémantiku pojmových rolí atd. Proti této námitce stojí také koncepce silného emergentismu, která navrhuje, aby ze složitosti procesoru vznikl nějaký blíže nespecifikovaný nový fyzikální jev.

Debata o tom, zda stroj může být za jakýchkoli okolností vědomý, se obvykle označuje jako spor mezi fyzikalismem a dualismem. Dualisté věří, že vědomí je něco nefyzického, zatímco fyzikalisté zastávají názor, že všechny věci jsou fyzické.

Doporučujeme:  Syndrom druhého dopadu

Vědomí v digitálních počítačích

Existují různé aspekty vědomí, které jsou obecně považovány za nezbytné pro to, aby byl stroj uměle vědomý. Různé funkce, v nichž vědomí hraje roli, navrhl Bernard Baars. Cílem AC je definovat, zda a jak lze tyto a další aspekty vědomí syntetizovat v umělém artefaktu, jako je digitální počítač. Tento výčet není vyčerpávající; existuje mnoho dalších, které nebyly zahrnuty.

Obecně přijímaným kritériem vnímavosti a vědomí je sebeuvědomění: jeden slovník definuje vědomí jako „uvědomování si svého okolí a své vlastní existence, pocitů a myšlenek“ (dictionary.com). Websterův slovník z roku 1913 definuje vědomý jako „mající znalosti, ať už na základě vnitřní, vědomé zkušenosti nebo vnějšího pozorování; poznávající; uvědomělý; vnímavý“. Systém střídavého proudu by měl být schopen dosáhnout různých aspektů (nebo při přísnějším pohledu všech ověřitelných, poznaných, objektivních a pozorovatelných aspektů) vědomí. I když je sebeuvědomění velmi důležité, může být subjektivní a obecně se obtížně testuje.

Schopnost předvídat (nebo předvídat) předvídatelné události považuje Igor Aleksander za důležitou pro AC. Pro předvídání může být užitečný emergentistický princip vícenásobných návrhů, který navrhl Daniel Dennett v knize Consciousness Explained: Jde o vyhodnocení a výběr nejvhodnějšího „návrhu“, který odpovídá aktuálnímu prostředí.

Dalším požadovaným aspektem by mohlo být uvědomění, ale s přesnou definicí uvědomění je mnoho problémů. Výsledky experimentů neuroscanningu na opicích naznačují, že neurony aktivuje proces, nikoliv stav nebo objekt . Pro takovou reakci musí být vytvořen model procesu založený na informacích přijatých prostřednictvím smyslů takto vyžaduje velkou flexibilitu a je také užitečný pro vytváření předpovědí.

Učení je rovněž považováno za nezbytné pro AC. Zajímavý článek o učení je Implicitní učení a vědomí od Axela Cleeremanse z Bruselské univerzity a Luise Jiméneze z Univerzity v Santiagu, kde je učení definováno jako „soubor filogeneticky pokročilých adaptačních procesů, které kriticky závisí na vyvinuté citlivosti na subjektivní zkušenost, aby umožnily agentům flexibilně ovládat své jednání v komplexním, nepředvídatelném prostředí“.

Předvídavost je vlastnost, která by mohla být použita k tomu, aby stroj vypadal vědomě. Uměle vědomý stroj by měl být schopen správně předvídat události, aby byl připraven na ně reagovat, až nastanou. Z toho vyplývá, že stroj potřebuje součásti pracující v reálném čase, což umožňuje prokázat, že má umělé vědomí v přítomnosti, a nikoli pouze v minulosti. Aby toho bylo možné dosáhnout, musí testovaný stroj fungovat koherentně v nepředvídatelném prostředí, aby simuloval skutečný svět.

Subjektivní zkušenost neboli qualia je obecně považována za těžký problém vědomí. Skutečně se má za to, že představuje výzvu pro fyzikalismus, natož pro komputacionalismus.

Existuje několik obecně rozšířených názorů na věrohodnost a schopnost střídavého proudu a na pravděpodobnost, že se střídavý proud někdy stane skutečným vědomím. Někteří tvrdí, že termostat je skutečně vědomý, ale netvrdí, že termostat je schopen ocenit hudbu. Chalmers v jednom rozhovoru označil své tvrzení, že termostat je vědomý, za „velmi spekulativní“ a není horlivým zastáncem panpsychismu (viz strana 298 Chalmers (1996) whither panpsychism). Podobné interpretace jsou možné díky záměrně volným definicím, ale bývají příliš omezující na to, aby měly nějakou významnou intelektuální hodnotu.

Umělé vědomí nesmí být tak pravé jako Silná umělá inteligence, musí být tak objektivní, jak to vyžaduje vědecká metoda, a musí být schopné dosáhnout známých objektivně pozorovatelných schopností vědomí, kromě subjektivní zkušenosti, kterou podle Thomase Nagela nelze objektivně pozorovat.

Není možné vyzkoušet, zda je něco vědomé. Chtít po teploměru, aby ocenil hudbu, je jako chtít po člověku, aby myslel v pěti rozměrech. Pro člověka je zbytečné myslet v pěti rozměrech, stejně jako je pro teploměr irelevantní rozumět hudbě. Podle nihilistického názoru je vědomí jen slovo připisované věcem, které se zdají činit vlastní rozhodnutí, a možná i věcem, které jsou příliš složité na to, aby je naše mysl pochopila. Věci se zdají být vědomé, ale to jen proto, že naše etické postoje vyžadují rozlišení vědomé-nevědomé, nebo kvůli naší empatii s jinými entitami. Vědomí je volitelná perspektiva nebo sociální konstrukt. (Srovnejte s „intencionálním postojem“ Daniela Dennetta a eliminativismem).

Jeden z alternativních názorů říká, že je možné, aby člověk popřel svou vlastní existenci, a tím pravděpodobně i své vlastní vědomí. To, že stroj může přesvědčivě diskutovat o Descartově argumentu „Myslím, tedy jsem“, by bylo určitým důkazem ve prospěch vědomí stroje. Pokud by však o této větě diskutoval jako o symbolickém argumentu, byl by až příliš lidský. Původní propozice byla tvrzením, že vědomá zkušenost prostě existuje – nemůžeme ji popřít, protože popření je součástí vědomé zkušenosti. Vědomý stroj by dokonce mohl tvrdit, že protože je stroj, nemůže být vědomý stejným způsobem, jako by to mohl tvrdit člověk, který nepochopil rozdíl mezi symbolickým argumentem a zkušeností. Vědomí neznamená neochvějnou logickou schopnost. O bohatosti či úplnosti vědomí, stupních vědomí a mnoha dalších souvisejících tématech se vedou diskuse a ještě nějakou dobu (možná navždy) budou. To, že vědomí jedné entity je méně „vyspělé“ než vědomí jiné, nebrání tomu, aby každá z nich považovala své vlastní vědomí za bohaté a úplné.

Doporučujeme:  Dyspnoe

Dnešní počítače nejsou obecně považovány za vědomé. Reakce unixového počítače (nebo jeho derivátu) na příkaz wc -w, který hlásí počet slov v textovém souboru, není nijak zvlášť přesvědčivým projevem vědomí. Avšak reakce na příkaz top, při níž počítač průběžně v reálném čase hlásí jednotlivé úlohy, kterými je nebo není zaneprázdněn, kolik volného výkonu procesoru je k dispozici atd., je zvláštním, i když velmi omezeným projevem sebeuvědomění, a pokud definujeme vědomí jako behaviorální důkaz sebeuvědomění, lze jej skutečně nazvat vědomím.

Umělé vědomí jako obor

Umělé vědomí zahrnuje výzkum zaměřený na vytváření a studium systémů s umělým vědomím za účelem pochopení odpovídajících přirozených mechanismů.

Termín „umělé vědomí“ použilo několik vědců včetně profesora Igora Alexandera, člena fakulty Imperial College v Londýně v Anglii, který ve své knize Impossible Minds uvedl, že principy pro vytvoření vědomého stroje již existují, ale že by trvalo čtyřicet let, než by se takový stroj naučil rozumět jazyku. Rozumět jazyku neznamená rozumět jazyku, který používáte. Psi mohou rozumět až dvěma stům slov, ale nemusí být schopni to každému předvést.

Digitální vnímání je zatím neuchopitelným cílem, navíc nejasným a špatně pochopitelným. Od padesátých let 20. století diskutují počítačoví vědci, matematici, filozofové a autoři sci-fi o významu, možnostech a otázce, co by mělo být digitálním cítěním.

V současné době je pravděpodobnější, že analogová holografická inteligence po vzoru člověka bude úspěšná.

Výzkum střídavého proudu přesáhl oblast filozofie; probíhá několik seriózních pokusů vštípit strojům vědomí. Dva z nich jsou popsány níže; existují i další a další budou nepochybně následovat.

Inteligentní distribuční agent společnosti Franklin

Kognitivní architektura CLARION Rona Suna

CLARION předpokládá dvouúrovňovou reprezentaci, která vysvětluje rozdíl mezi vědomými a nevědomými mentálními procesy.

Systém CLARION úspěšně zohledňuje různé psychologické údaje. Pomocí systému CLARION byla simulována řada známých úloh učení se dovednostem, které pokrývají spektrum od jednoduchých reaktivních dovedností až po složité kognitivní dovednosti. Mezi tyto úlohy patří úlohy na sériovou reakční dobu (SRT), úlohy na artifikační učení gramatiky (AGL), úlohy na řízení procesů (PC), úloha na kategoriální inferenci (CI), úloha na abecední aritmetiku (AA) a úloha na Hanojskou věž (TOH) (viz Sun, 2002). Z nich SRT, AGL a PC jsou typické úlohy implicitního učení, velmi relevantní pro problematiku vědomí, protože operacionalizovaly pojem vědomí v kontextu psychologických experimentů.

Simulace pomocí systému CLARION poskytují podrobné, na procesech založené interpretace experimentálních dat týkajících se vědomí v kontextu široce pojaté kognitivní architektury a jednotné teorie poznání. Takové interpretace jsou důležité pro přesné, na procesech založené pochopení vědomí a dalších aspektů poznávání, což vede k lepšímu pochopení úlohy vědomí v lidském poznávání (Sun, 1999). CLARION také vytváří kvantitativní a kvalitativní předpovědi týkající se poznávání v oblastech paměti, učení, motivace, metakognice atd. Tyto předpovědi již byly experimentálně ověřeny nebo se právě ověřují.

Haikonenova kognitivní architektura

Pentti Haikonen (2003) považuje klasickou výpočetní techniku založenou na pravidlech za nevhodnou pro dosažení AC: „mozek rozhodně není počítač. Myšlení není prováděním naprogramovaných řetězců příkazů. Mozek není ani numerická kalkulačka. Nemyslíme pomocí čísel.“ Namísto snahy dosáhnout mysli a vědomí identifikací a implementací jejich základních výpočetních pravidel navrhuje Haikonen „speciální kognitivní architekturu, která by reprodukovala procesy vnímání, vnitřních představ, vnitřní řeči, bolesti, slasti, emocí a kognitivních funkcí, které za nimi stojí. Tato architektura zdola nahoru by vytvářela funkce vyšší úrovně pomocí výkonu elementárních výpočetních jednotek, umělých neuronů, bez algoritmů nebo programů“. Haikonen věří, že při implementaci s dostatečnou komplexností tato architektura vyvine vědomí, které považuje za „styl a způsob fungování, charakterizovaný distribuovanou reprezentací signálů, procesem vnímání, cross-modalitním hlášením a dostupností pro retrospektivu“. Haikonen není s tímto procesním pohledem na vědomí nebo s názorem, že AC se spontánně objeví u autonomních agentů, kteří mají vhodnou neuroinspirovanou architekturu komplexity, osamocen; tyto názory sdílejí mnozí, např. Freeman (1999) a Cotterill (2003). Implementace architektury s nízkou složitostí navržená Haikonenem (2004) údajně nebyla schopna AC, ale projevovala emoce, jak se očekávalo.

Testování umělého vědomí

Pokud se nepodaří umělé vědomí formálně prokázat, bude posouzení úspěšnosti jakékoli implementace záviset na pozorování.

Turingův test je návrh na identifikaci inteligence stroje, která se určuje podle schopnosti stroje komunikovat s člověkem. V Turingově testu musí člověk bez jakýchkoli vizuálních vodítek odhadnout, zda je subjekt, se kterým komunikuje, stroj nebo člověk – konverzace obvykle probíhá přes terminál. Uměle uvědomělá entita by mohla projít ekvivalentním testem pouze tehdy, pokud by sama překročila představy pozorovatelů a vstoupila s nimi do smysluplného vztahu a možná i s ostatními instancemi sebe sama.

Doporučujeme:  Steven A. Carter

Kočka nebo pes by tímto testem neprošli. Je velmi pravděpodobné, že vědomí není výlučnou vlastností člověka. Proto je možné, že stroj by mohl mít vědomí a nebyl by schopen projít Turingovým testem. Byla by to však pravděpodobně náhodná událost, protože většina úsilí v oblasti umělé inteligence se zaměřuje spíše na inteligenci a poznávání než na vědomí.

Jak bylo uvedeno výše, argument čínského pokoje se snaží vyvrátit platnost Turingova testu tím, že ukazuje, že stroj může testem projít, a přesto nemá sémantiku lidského typu.

Vzhledem k tomu, že existuje obrovská škála lidských chování, z nichž všechna jsou považována za vědomá, je obtížné stanovit všechna kritéria, podle nichž lze určit, zda stroj projevuje vědomí.

Mnozí navíc tvrdí, že žádný test chování nemůže prokázat ani vyvrátit existenci vědomí, protože vědomá entita může mít sny, qualia a další rysy vnitřního života. Na tento bod důrazně upozorňují ti, kdo zdůrazňují subjektivní povahu vědomé zkušenosti, jako například Thomas Nagel, který ve svém eseji Jaké je to být netopýrem tvrdí, že subjektivní zkušenost nelze redukovat, protože ji nelze objektivně pozorovat, ale subjektivní zkušenost není v rozporu s fyzikalismem.

Přestože se jako předpoklady pro testování vědomí stroje navrhují objektivní kritéria, neúspěch v konkrétním testu by vědomí nevyvrátil. Nakonec bude možné posoudit, zda je stroj vědomý, až bude k dispozici všeobecně přijímané chápání vědomí.

Dalším testem AC by podle některých názorů mělo být prokázání, že se stroj dokáže naučit schopnost filtrovat určité podněty ve svém prostředí, zaměřit se na určité podněty a projevit pozornost vůči svému okolí obecně. Mechanismy, které řídí způsob, jakým je řízena lidská pozornost, vědci dosud plně nechápou. Této absence znalostí by mohli využít inženýři střídavých proudů; protože nerozumíme pozornosti u lidí, nemáme ani konkrétní a známá kritéria pro její měření u strojů. Protože nevědomost u lidí se rovná úplné nepozornosti, měl by AC mít výstupy, které ukazují, kam je jeho pozornost v daném okamžiku zaměřena, alespoň během výše zmíněného testu. Antonio Chella z Univerzity v Palermu „Mapování mezi pojmovou a jazykovou oblastí dává možnost interpretovat jazykové symboly z hlediska pojmových struktur. Dosahuje se toho prostřednictvím mechanismu zaměření pozornosti realizovaného pomocí vhodných rekurentních neuronových sítí s vnitřními stavy. Předpokládá se sekvenční mechanismus pozornosti, který vhodně skenuje konceptuální reprezentaci a podle hypotéz vytvořených na základě předchozích znalostí předpovídá a detekuje zajímavé události vyskytující se ve scéně. Vycházeje z příchozích informací tedy takový mechanismus generuje očekávání a vytváří souvislosti, v nichž lze hypotézy ověřovat a případně upravovat.“

Dalším testem vědomí, který běžně navrhují někteří futuristé, například transhumanisté, je integrální připojení lidského mozku ke stroji. V současné době jsou rozhraní mozek-počítač poměrně primitivní a umožňují pouze přivádět informace do lidského mozku nebo z něj, ale ne oběma směry kvůli obrovské výpočetní složitosti, kterou by to vyžadovalo od počítače, a omezením šířky pásma. Nicméně s tím, jak se bude složitost a funkčnost BCI dále rozvíjet spolu s pokračujícím studiem střídavého proudu, může být zcela rozumné navrhnout propojení dvou lidských mozků takovým způsobem, že oba jedinci budou moci sdílet své vědomé zážitky. Tuto techniku by bylo možné označit za konečný test subjektivního vědomí, protože na rozdíl od vývoje objektivní definice vědomí by tento druh integrálního poznávání umožnil jednomu subjektivně vědomému člověku informovat o existenci či neexistenci vědomé mysli v počítači.

Etika umělého vědomí

Pokud by bylo jisté, že konkrétní stroj je vědomý, jeho práva by byla etickou otázkou, kterou by bylo třeba posoudit (např. jaká práva by měl podle zákona). Například vědomý počítač, který by byl vlastněn a používán jako nástroj nebo centrální počítač budovy či velkého stroje, představuje určitou nejasnost. Pokud by pro takový případ byly vytvořeny zákony, vědomí by vyžadovalo i právní definici (například schopnost stroje pociťovat slast nebo bolest). Vzhledem k tomu, že umělé vědomí je stále převážně teoretickým tématem, nebyla taková etika dosud ve větší míře diskutována ani rozpracována, ačkoli je často námětem v beletrii (viz níže).

Pravidla soutěže o Loebnerovu cenu za rok 2003 se výslovně zabývala otázkou „práv robotů“.

Umělé vědomí v literatuře a filmech

Fiktivní příklady umělého vědomí v budoucnosti: