John R. Searle: Minds, Brains, and Programs (1980)

 

Autor by si dozajista zasloužil komplexnější pohled na své dílo. (Pro takový účel a k výchozí orientaci je k dispozici autorské Searleovo heslo z r. 1994. Viz S. Guttenplan, ed., A Companion to the Philosophy of Mind, Blackwell, Oxford 1984, str. 544-550.)

Rozhodně by teď byl účelný podrobný výklad o The Rediscovery of the Mind (MIT, Cambridge/Mass. 1992); je to jedna z klíčových publikací k tématu, napsaná jasnou a srozumitelnou dikcí (a přístupná i v českém překladu, takže suplovat zde obsah je asi nepřiměřené).

A pak tu je dnes už klasická stať (proslulá experimentem "Čínský pokoj"), uvozující tuto kapitolu. Tou se teď budeme zabývat. (Původně vyšlo v čas. The Behavioral and Brain Sciences, 3/1980, str. 417-24.) Takto lze nabídnout jak úvod ke stylu, jakým uvažuje John Searle, tak zcela lapidární úvod do problematiky tzv. umělé inteligence. (Pro "umělou inteligenci" zde dále bude užívána zavedená anglická zkratka "AI"—za "artificial intelligence", vyslov [átyfišl intelidžns].)

Koncepce AI bývá obecně uváděna v dichotomickém rozčlenění; na verzi "silnou" ("strong") a "slabou" ("weak").

Ve smyslu "slabé AI" komputer při studiu mysli skýtá pouze užitečný nástroj, byť "velmi mocný" ("very powerful"). Komputer se nestává přímo předpokládaným modelem aktivit mozku nebo jeho struktury.

Ve smyslu "silné AI" komputer není pouhým nástrojem, ale je přímo myslí, tím, že dostane-li náležitý program, ten údajně chápe (a disponuje dalšími kognitivními stavy).

John R. Searle (dále "JRS") odmítá "silnou" alternativu AI. Ve svém shora citovaném článku vyjde z programu Rogera Schanka (z univerzity v Yale, 1977) na simulaci lidské způsobilosti chápat příběhy, i když tyto příběhy některé informace explicitně neuvádějí. Ten program uvádí dva situační scénáře; v obou není výslovně v textu uvedena situace, na kterou pak je zaměřen dotaz. (Zde je znění mírně zjednodušeno. Dále zde v textu viz mj. též 2. repliku.)

SITUACE (A):

X si objedná v restauraci hamburger. Ten ale dostane spálený na škvarek. Hněvivě vyběhne ven, bez placení či zpropitného.

Otázka zní: "Snědl X ten hamburger?"

SITUACE (B):

Y si objedná v rest. hamburger. Nad jeho kvalitou je nadšen. Při placení ještě dá štědře zpropitné.

Otázka zni: "Snědl Y ten hamburger?"

Schankovy stroje jsou schopny dát odpovědi na takové otázky. Disponují takovou reprezentativní informací o restauracích, aby mohly—přímo v textu necitovanou—odpověď dát (tj. jako kdyby "odvodit" přímo ze situace, samozřejmě že dík oněm reprezentativním informacím, týkajícím se restaurací a chování jejich hostů).

Stoupenci "silné AI" koncepce pak tvrdí, že nejenže tu stroj SIMULOVAL lidskou způsobilost, nýbrž:

1) o stroji lze říci, že chápe příběh a zajišťuje odpovědi na otázky;

2) to, co stroj a jeho program dělají, vysvětluje adresně lidskou způsobilost chápat příběh a odpovídat na otázky o něm.

Na tento podnět navázal JRS svým Gedankenexperiment-em (tento německý termín takto přímo uvádí ve svém textu sám JRS):

JRS je uzavřen v místnosti, bez znalosti, ba i způsobilosti rozpoznat čínské písmo; přitom se spoustou čínsky psaných sdělení (jako 1. souborem); dále je tu druhý soubor, tentokrát s pravidly v angličtině pro korelaci v něm přidružených čínských symbolů s původním souborem (včetně formální identifikace symbolů); třetí soubor obdobný druhému umožní jeho korelaci se zbývajícími dvěma soubory díky anglickým instrukcím týkajícím se možnosti operovat se vstupními údaji a reagovat na ně "odpověďmi". Ty tři soubory JRS terminologicky specifikuje taak, že: 1. soubor = "script" (tj. "scénář"), 2. = "story" (tj. "příběh"), 3. "questions" (tj. "otázky"). Ty symboly, jež JRS produkuje vzhledem k 3. souboru = "answers to the questions" (tj. "odpovědi na otázky"). Ten doprovodný anglický souubor pravidel = "program".

 

POZNÁMKA (podle JRS 1994):

JRS výslovně uvádí, že svým "čínským" experimentem se podrobuje Turingovu testu. Popsanou situaci problematiky "čínského pokoje" (dále "ČP", resp. "PČP") JRS v textu o 25 let mladším zjednodušil a učinil názornější. Ta "omlazená" verze je popsána—zhruba—následovně:

V ČP jsou v krabicích čínské symboly ("databáze"), dále se tam nachází v čínštině nekvalifikovaný JRS, a instrukční knížka v angličtině (pro spojování čínských symbolů s čínskými symboly a pro čínské odpovědi na čínské otázky; tj. "program"). ČP je vybaven vstupní zdířkou na "otázky", jež dodávají "programátoři".

JRS je jakoby v roli "komputeru". Je schopný rozmanitě (smysluplně podle instrukcí) "přehazovat" ["shuffle"] čínské symboly, a takto psát, realizovat—konkrét-ní—"program", tj. odpovědi na otázky. Odpovědi by měly být nerozlišitelné od těch, jaké by dal rodilý Číňan.

Už pro právě uvedenou situaci JRS namítá, že jeho případné odpovědi na anglické otázky by ale byly právě tak adekvátní (mezi uživateli anglického jazyka) jako jeho "čínské" odpovědi. Takže? Je tu někde rozdíl?

Pokud by šlo o čínské znaky, ty by byly—z hlediska JRS—produktem manipulace s neinterpretovanými (a z hlediska podmínek ČP současně neinterpretovatelnými) formálními symboly (jako instancemi komputerového programu).

 

A opět poznámka (z 1994): JRS považuje za nezbytné hned po expozici PČP zdůraznit, že experiment je prostým odmítnutím pozice "silného AI". Nato naváže doprovodnou logickou strukturou, v níž zdůrazní, že:

premisa 1: programy jsou formální (syntaktické),

premisa 2: mysli mají obsahy (sémantiku),

premisa 3: syntax je k sémantice nepostačující;

z čehož plyne závěr: programy nejsou totéž, co lidské mysli ("programs are not minds"; cit. d., pp. 546-7).

Tohle JRS komentuje s ohledem na stěžejní význam vzájemného vztahu syntaxe a sémantiky. Uvádí (v textu z r. 1980) dva body svých výhrad ke koncepci silné AI:

1) Píše, že jako JRS nechápe ani zbla z těch čínských příhod (ani případně nemůže chápat z nich cokoli jakýkoli komputer, jehož takto zastupoval).

2) Komputer a program plní jisté funkce (formální manipulace se symboly, přičemž bylo odlišeno, kde JRS chápe [prostř. angl. jaz.], a kde ne [u čínštiny]);

vše, co bylo dáno k dispozici v čínské variantě, bylo zcela irelevantní pro pochopení příběhu v rámci podmínek stanovených experimentem ČP.

Program vymezený čistě formálně neumožňuje propojení s pochopením.

Aby nebylo mýlky. Pokud jde o "chápání", lze sice tvrdit, že jsou přece různé stupně chápání a že mnohdy je to věc rozhodnutí, a ne faktu, zda

"x chápe y".

Ovšemže, uvádí k tomu JRS; já (JRS) chápu příběhy v angličtině, hůř ve francouzštině, ještě hůř v němčině, ale v čínštině nic... (pokud jde o tu čínštinu, je na tom stejně JRS-ovo auto nebo kalkulačka). Takže argumentace se silnou AI (tj. že by komputery chápaly sémantiku toho, čím se zabývají, co provádějí) podle JRS neobstojí.

Přitom nezapomínejme, že nejednou v řeči se dopouštíme antropomorfizace, když např. řekneme, že "Dveře vědí, kdy se mají otevřít, díky své fotoelektrické buňce" ("The door knows when to open because of its photoelectric cell."). To je případ intencionální atribuce, který ovšem nemá nic společného s tím, jak je chápán živý jazyk jeho adresátem jako médium informace.

JRS říká závěrem té expozice PČP, že to, co by mělo být považováno za chápání komputeru, není ani trochu aspoň částečné (jako je tomu u JRS-ovy němčiny), ale zcela nulové.

V dalším textu (z roku 1980) komentuje rozmanité námitky, s nimiž se vůči sobě setkal. Takových námitek a svých replik k nim uvedl JRS šest.

 

1. Systémová replika ("THE SYSTEMS REPLY"):

Člověk uzavřený v místnosti sice příběh nechápe, ale systém ČP jako celek ano.

I kdyby člověk namemoroval pravidla a konal všechny operace v hlavě, pak při neznalosti čínštiny nechápe vůbec nic z těch pro output připravených čínských textů. Copak pouhé spojení osoby ("subsystem") s listy papíru (jako dalším subsystémem) může navodit chápání zmíněného textu?

Samotná manipulace se symboly (tj. syntaktická práce) nenavodí pochopení (tj. sémantickou dešifraci).

Tento Turingův test umožní oklamat čínského příjemce na outputu, pokud jde o hodnocení projevu systému ČP. Kdybychom měli respektovat názorovou pozici 1. námitky, pak také jistá úroveň deskripce, na níž koná např. můj žaludek "information-processing" a je příkladem možná celé řady "computer-programs", by zároveň musela být pojata jako nějaký zárodečně chápavý—významově interpretující—subsystém! Jako by byla už nějaká výchozí sémantická "informace" v potravě nebo—v případě PČP—v čínských znacích přímo pro JRS (ne až pro interprety na výstupu ze systému).

J.McCarthy, když se zabýval perspektivami AI (1979), dokonce tvrdil, že "o strojích tak jednoduchých jako jsou termostaty lze říci, že mají svá přesvědčení, a zdá se, že mít přesvědčení je charakteristické o většině strojů způsobilých pro výkony s řešením problémů". (Kdo si to chce porovnat přímo s originální verzí McCarthyho, nechť čte dál v závorce: "Machines as simple as thermostats can be said to have beliefs, and having beliefs seems to be a characteristic of most machines capable of problem solving performances.")

 

2. Robotická replika ("THE ROBOT REPLY"):

Komputer vložený do robota svými vstupy a výstupy zajišťuje vnímání, chůzi, přibíjení hřebíků, tedy aktivity obdobné takovým, jaké vnímáme jako lidské. (Takový systém má pro vidění pouze alternativně televizní aparaturu. Komputer slouží jako "mozek".)

JRS: Toto řešení pouze přidává k formálně-symbolické manipulaci--kauzálně napojené--vnější její projevy (tak jak to hlásá např. J. Fodor). Tyto další, "perceptuálně" a "motoricky" projevené způsobilosti ovšem nejsou ničím navíc, co by dokládalo specificky chápavost, a obecně intencionalitu. Robotický systém zůstává vším na úrovni realizace pouhých instrukcí založených na syntaktických pravidlech (bez sémantiky).

 

3. Replika založená na simulaci mozku ("THE BRAIN SIMULATION REPLY"):

Což takhle představit si program, který (místo kopírování informací, jež má člověk o světě) by přímo simuloval aktuální sekvenci impulsů na synapsích v mozku?

JRS: Komputerové programy lze samozřejmě realizovat prostřednictvím rozdílných hardware.

Když ale má být mysl vůči mozku v obdobném vztahu jako program k hardware, pak bychom mohli—podle týchž zásad—pochopit mysl, aniž bychom se museli utíkat k neurofyziologii! (Programy mohou být realizovány alternativními systémy; pak ovšem sebedetailnější popis syntaxe takového systému automaticky ještě nesvědčí vůbec o ničem, co se týká sémantiky programů, jež by měly být zvolenou soustavou realizovány.)

JRS raději znovu připomíná, že je-li na inputu čínština, na outputu čínština, a nezná-li operátor/AI čínsky, nelze z takové situace vykřesat vůbec nic mentálně zajímavého.

Pokud by měla být simulována pouze struktura neuronových impulsů na synapsích (formální stránka věci), nedojde k simulaci toho, na čem vskutku záleží, tj. k simulaci projevu kauzálních vlastností těchto struktur, produkujících intencionální stavy! (Ta struktura by dokonce mohla být nebiologická, pokud jde o samotnou simulaci formální stránky věci: neboť ty rozmanité stimulace/útlumy lze přece modelovat—možná ne tak prakticky, ale věcně obdobně—např. pomocí sítě vodovodního potrubí opatřeného ventily apod.)

 

4. Replika založená na kombinaci všech tří výchozích námitek ("THE COMBINATION REPLY"):

Pokud by se zdálo, že každá z uvedených již námitek sama o sobě není dost pádná jako vyvracející protipříklad PČP, představme si všechny tři repliky argumentačně propojeny. Pak bychom měli před sebou robot(a) s uloženým komputerem-mozkem, s propojením na chování odpovídající člověku, přitom jako unifikovaný, navenek jednotně působící systém, jemuž bychom pak zřejmě měli připsat intencionalitu.

JRS: Vypadá to vskutku neotřesitelně (pokud bychom nevěděli o takovém systému jinak vůbec nic); ale kromě toho, co by souviselo se zevnějškem a jeho chováním, vše ostatní je pro hypotézu AI k ničemu. Přece nelze říci, že pouhé vstupy a výstupy stačí jako doklad intencionality (?).

Musel by tu být vnitřní mechanismus tvorby intencionálních stavů (jako u člověka), a zatím tu máme podle této námitky k dispozici jen nějaký--formální--"program" (žádné mentální stavy, jak o tom byla řeč už ve 2. odpovědi). Pokud bychom takovému robotu chtěli připsat navíc nějakou intencionalitu (reflektující mysl), byla by čímsi funkčně postradatelným navíc; vždyť přece ten mechanický blbeček koná, co se po něm chce, na základě--formální--symboliky, která přímo pro něho zůstává zcela bez uvědomování možného doprovodného významu, zřejmého programátorovi (a předjímaného konstruktérem).

Ledaže bychom ten problém zkusili znovu nějak zvážit (že by ve stínu Descartesových představ o živočiších-automatech?) na primátech nebo psech? (Cožpak jim nepřipisujeme běžně při kontaktech s nimi intencionalitu?)

Polidšťujeme si jejich chování, a často je přirovnáváme k sobě. Nadto mají orgány, jež rovněž vykazují jistou obdobu s člověkem; takže by aspoň tito, v našich očích privilegovaní živočichové měli analogicky disponovat "mentálními stavy", zrcadlícími se v jejich chování. Do takového schématu by nám mohl zapadat i robot; ovšemže jen do té doby, dokud bychom nevěděli, že jeho chování bylo výsledkem formálního programu. Samotné kauzální vlastnosti uvažovaných fyzikálních organismů/struktur, považované za výsledek formálního programu, vnímá JRS ve sledovaném textu za nepostačující k uznání jejich intencionality. (Pro případnou konfrontaci s tímto hlediskem zvažme např. Dennettovo mnohem širší a sugestivně podané vnímání "intencionality", jak je tlumočil ve své knize Kinds of Minds: Toward an Understanding of Consciousness [1996], český překlad Druhy myslí: K pochopení vědomí, Archa, Bratislava 1997.)

 

(Před další dvě repliky JRS předsadil poznámku, že se sice často vyskytují, takže si jistou pozornost zaslouží, ale že jdou mimo věc.)

 

5. Replika odvolávající se na chování jiných myslí ("THE OTHER MINDS REPLY"):

Jak víš, že jiní lidé chápou čínštinu? Jen podle chování takových lidí. Takže co připisuješ jiným lidem, připiš také komputerům!

JRS: Problémem tu není, jak vím, že jiní lidé disponují kognitivními stavy, ale co jim v takovém případě vlastně připisuji! A jako předpokládáme realitu a poznatelnost fyzikálních objektů, zrovna tak předpokládáme realitu a poznatelnost mentálna.

 

6. Replika odvolávající se na zatím nečekané příležitosti ("THE MANY MANSIONS REPLY"):

Zatím je taková situace, že se mysl srovnává s digitálními komputery; ale ještě přijde čas, kdy budeme schopni postavit složitější aparatury s požadovanými kauzálními procesy, jež tuto AI navodí!

JRS: Tato pozice ale trivializuje původní projekt AI. Přece se zatím tvrdilo, že už stávající komputerové procesy nad formálně definovanými prvky jsou rovnocenné mentálním procesům! (Odkaz na to, co teprve--snad--přijde, obchází původní sebejisté stanovisko, že už stávající komputery splňují ty podmínky, jež vymezil projekt AI.)

***

 

Teprve po výčtu právě uvedených šesti replik se JRS vrací znovu k PČP. Stroj nezná ani čínsky, ani anglicky, i když může zpracovávat výrazy z obou jazyků (JRS zná aspoň anglicky). O jaký rozdíl tu v takto prezentované situaci vlastně běží?

Živý člověk může být doložitelným příkladem nesčetných komputerových programů, sám zároveň jako zdroj četných projevů intencionality, spolu se schopností chápat anglický jazyk, ale i vnímat, konat, učit se, atd. Možná že i jiné fyzikální a chemické procesy umožňují přesně stejné efekty (že by "Marťané" na základě odlišného materiálu takového systému, který nazýváme mozkem?).

Hlavní problém ale spočívá v něčem jiném:

Žádný čistě formální model nepostačí sám o sobě k expozici intencionality; vždyť formální vlastnosti samy o sobě nekonstituují intencionalitu. Schankův program, kdyby na to přišlo, by mohl být realizován nejen mluvčími angličtiny, ale třeba i vodovodním potrubím, anebo komputery (které ovšem čínštinu nechápou).

 

Na čem tudíž záleží:

Mozkové operace nejsou tak zajímavé jako formální stín (the "formal shadow") vrhaný jistou sekvencí synapsí, ale spíše jako konkrétní vlastnosti oněch sekvencí.

Nato se JRS zeptá, zda by mohl stroj myslit? A bez rozpaků šokuje: Ovšemže ano (vždyť my sami jsme prý takové stroje).

Ale jak to je s takovým člověkem utvořeným strojem? Pokud by byl člověk schopen uměle vytvořit to, co by bylo nervovým systémem, s neurony majícími axony a dendrity, atd., obdobně jako je tomu u lidského nervového systému, pak by samozřejmě takový stroj myslel právě tak, jako myslí člověk. (JRS bez rozpaků napsal: "Obviously, yes.") Pakliže lze přesně duplikovat příčiny, můžete právě tak přesně duplikovat i účinky.

Další položenou otázkou je ta, jež se vztahuje k problematizované způsobilosti (digitálního) komputeru myslet. A opět bez rozpaků JRS možná šokuje svou přímou odpovědí: Pokud bychom tím mínili příkladné doložení komputerového programu, pak opět ano, neboť i člověk je takovým příkladným doložením libovolného počtu takových komputerových programů; a my lidé díky nim přece myslíme.

Teprve pak přijde ta otázka do pranice. Mohlo by něco myslet, chápat, atd., pouze na tom základě, že by šlo o komputer s adekvátním programem? Aneb totéž v jiné formulaci: Mohl by náležitě příkladný—a adekvátní—program [the "right program of course"] být jako takový postačující podmínkou chápavosti? To je—podle JRS—konečně ta správná otázka. A odpověď na ni je—záporná.

Proč by to nemělo být možné? Proč by takový "program" neměl být postačující podmínkou chápavosti?

Proto, že formálně-symbolické manipulace samy o sobě nedisponují intencionalitou, jsou bez významu ("quite meaningless"); nejsou přímo v odpovídajícím smyslu ani symbolickými manipulacemi, neboť jim chybí sémantika.

Příklad s "čínským pokojem" měl ukázat na to, že pokud je do systému vloženo něco, co intencionalitou disponuje, pak lze okamžitě vidět, že sám formální program žádnou dodatečnou intencionalitu nepřináší (aby se jí např. zvýšila operátorova způsobilost chápat čínštinu).

Onen shora již citovaný příměr, podle něhož se mysl má k mozku obdobně, jako se má program k hardware (v originále: "mind is to brain as program is to hardware") má tři důsledky:

1) Rozlišení mezi programem a realizací má ten důsledek, že týž program by mohl mít rozmanité pošetilé realizace bez sebemenší intencionality.

JRS se v tomto bodě odvolává na provokativně interpretovatelný příklad uvedený J. Weizenbaumem (v jeho Computer Power and Human Reason, W. H. Freeeman, San Francisco 1976, kap. 2): jak konstruovat komputer jen s použitím svitku toaletního papíru a hromádky drobných oblázků. (To v tomto ohledu Turingův "stroj" byl vůči specifice mysli mnohem šetrnější.)

Takhle ovšem lze programovat i ČP, třeba jako sled vodovodních trubek, větrníků, nebo uplatnit pro manipulaci s čínskými znaky monolingválního Angličana. Kameny, toaletní papír, vítr, vodovodní trubky nejsou zrovna materiálem disponujícím intencionalitou. Jde tu jen o kauzální síly obdobné těm, jaké ale v mozku naopak působí intencionalitu. Přitom intencionalitou vybavený mozek Angličana v rámci PČP během své aktivity mezi inputem a outputem nezíská žádnou intencionalitu navíc, ani pokud namemoruje požadovaný program v rámci PČP (neboť pouhé memorování ho přece nenaučí čínsky!).

2) Ten program, o němž je řeč, je čistě formální (bez ohledu na to, že sugeruje jakousi variantu behaviorismu). Skutečné intencionální stavy však jsou definovány svými obsahy, nikoli pouhou formou. Nemělo by se zapomínat, že tzv. Turingův test zůstává na úrovni operační a behaviorální; nedostává se do přesahu směrem k implikacím umožňujícím předpokládat intencionalitu.

Připomeňme si, že jisté nějaké přesvědčení, i když má nějaký symbolický tvar (v syntaktickém a formálním smyslu), může vykazovat v odlišných jazykových systémech vzájemně rozmanitou sémantiku! Takže přímo od formy/programu nelze přijatelně usuzovat o samotném věcném obsahu, případně o tom, jak vypadá hardware, na němž bude program aplikován (tj. též, jakými charakteristickými vlastnostmi disponuje, aby se projevila jeho údajná "intencionalita").

3) Mentální stavy a události jsou produkty operací mozku, ale sám program není týmž způsobem produktem komputeru.

Lze se pochopitelně ptát, proč si ale pak tolik lidí myslí opak? JRS na to nezná odpověď.

Komputer přece není tady k tomu, aby simuloval mentální operace; právě tak jako si nikdo nemyslí, že komputerová simulace požárního poplachu způsobí požár v sousedství, anebo že kvůli simulaci bouřky všichni promokneme na kůži, zrovna tak je problematické, aby komputerová simulace chápavosti měla přímo sama něco věcně chápat. Při simulaci přece vše, co potřebujeme brát v úvahu, jsou příslušné vstupy a výstupy, a program mezi nimi, který transformuje prvé v druhé, a dost.

Plést simulaci s duplikací je stejná chyba, ať už jde o utrpení, lásku, poznávací proces, ohně nebo bouřky.

 

Jsou tu ovšem další iluze v souvislosti s AI, jež by měly být vyvráceny (jsou opět tři):

1. Je tu zmatek s používáním výrazu "information-processing" ("zpracovávání informace"). Mnozí lidé si myslí, že náš mozek realizuje ono zmíněné zpracovávání informací, takže pak analogicky i na komputer s jeho programem se přenáší stejná představa: že—obdobně jako člověk—uskutečňuje také komputer zpracovávání informací. Tato argumentace je založena na nejednoznačnosti výrazu "informace".

Komputer přímo manipuluje pouze s formálními symboly. Pokud by zpracovával např. "2 a 2 se rovná?", vyťuká "4", ale nemá tušení, co "4" má za význam nebo že "4" vůbec něco znamená. Nejde jen o to, že nemá žádnou informaci druhého řádu o symbolech prvního řádu, nýbrž symboly prvního řádu nemají žádnou intepretaci vzhledem ke komputeru. Pokud bychom tedy měli hovořit o "zpracovávání informací" u komputerů, pak jen v takovém smyslu, v němž kalkulačky, psací stroje, žaludky, termostaty, bouřky a hurikány konají "zpracovávání informací"; tj. že je můžeme interpretovat jako na jednom konci příjemce informace, již příhodně transformují, aby posléze vydaly jistou informaci na výstupu.

2. Pokud se hovoří o "AI", je v tom hodně nánosu behaviorismu nebo operacionismu.

Vzhledem k možnosti, že by se vstupy/výstupy komputerů podobaly obdobně pojatým schématům u lidských bytostí, máme pokušení postulovat pro komputer mentálno. Tato tradice začala projektem Tugingova stroje. Způsobilost vykonávat početní operace ještě sama o sobě nevykazuje intencionalitu.

3. Reziduální operacionalismus bývá spojován s reziduální podobou dualismu.

U "silné varianty AI" (a v rámci funkcionalismu) samozřejmě všechno stojí a padá s programem. (Přitom programy nejsou závislé se svou případnou realizací na strojích; a mohly by být realizovány také přímo prostřednictvím současných fyzikálně-chemických struktur nynějších lidských mozků.)

Pokud člověk neuzná nějakou variantu dualismu, nějaké nebezpečí, že by spěchal s uznáním silné varianty AI, není. Projekt AI počítá s reprodukcí (a explanací) mentálna na základě tvorby programů, ale pokud mysl není ani konceptuálně, ani empiricky nezávislá na mozku, takový projekt je neuskutečnitelný (neboť program je nezávislý na nositeli realizace). Jen v tom případě, že bychom věřili ve vzájemnou neodvislost mysli a mozku (což je zároveň silná forma dualismu!), lze se spokojit nějakým psaním programů a jejich případným proběhnutím v počítači jako případným příkladem "mentální činnosti". Platí-li předpoklad, že mentální aktivity spočívají v pouhých počítačových operacích nad formálními symboly, pak by z toho plynulo, že nějakým případným jejich spojováním s mozkem by nic specifického nebylo navozeno (neboť mozek by byl jen jednou z možných struktur—mezi rozmanitými dalšími stroji—pro realizaci počítačových programů).

Nelze okamžitě nevzpomenout v této souvislosti na karteziánskou tradici (protože i tam, co je specificky mentální, nemá niterné propojení s aktuálními vlastnostmi mozku).

***

 

Takže se konečně dostáváme k závěru.

Mohl by tedy stroj myslet? JRS říká, že právě stroj, ale specifický, jako mozek (nebo stroj s jeho kauzálními dispozicemi).

Přitom ale "silná varianta AI" nám o myšlení málo řekne. Program AI je o programech, a programy nejsou stroji. Přitom intencionalita je biologický fenomén (kauzálně závislý na řadě dalších, ve vazbě na specifickou biochemii svého původu).

Zde ovšem stoupencům AI valně nepomůže odkaz na představu, že mozek je vlastně digitálním komputerem ("elektronický mozek"). Neboť: jedno je dokládat příklady nějaké programy, a něco zcela jiného jsou mentální stavy.

Ať už tedy mozek jakkoli produkuje intencionalitu, ta nespočívá v samotném doložení nějakého programu, neboť žádný program vzatý o sobě nepostačí k navození intencionality.

 

(Asi by tu mělo být poznamenáno, že autor tohoto přehledu se v tomto kontextu snažil spíše jen referovat o významném myšlenkovém experimentu, než aby jej hned podroboval případné vlastní či další kritice. Je ovšem žádoucí, aby čtenář věděl, že termín intencionalita—zde zatím spojovaný s vlastností "hardware"/mozku—může být vnímán bez oné, zde mlčky navozené vazby na "vědomí", "sebe-vědomí", a ovšem i "uvědomovaného zaměření na cíl, vnímaný jako účel".)