Џон Серл: Умови, мозоци и програми

existenz_by_binaryriot

Апстракт

Оваа статија може да се смета  за обид да се испитаат последиците од два става. (1) Интенционалноста кај човечките суштества (и животните) е резултат на причинско-последични функции во мозокот. Сметаме дека ова е емпириски факт за вистинските причинско – последични односи меѓу умствените процеси и мозоците. Тој тврди просто дека одредени мозочни процеси се доволни за интенционалност. (2) Извршувањето на  компјутерска програма никогаш не е само по себе доволен услов за интенционалност. Главниот аргумент на овој труд е насочен кон втемелување ова тврдење. Формата  на аргументот е да се покаже како човечки чинител би можел да извршува програма и сеуште да нема релевантна интенционалност. Овие два тврдења ги имаат следниве последици (3) објаснување за тоа како мозокот создава интенционалност не може да биде тоа што извршува компјутерска програма. Ова е строга логичка последица на 1 и 2. (4), секој механизам способен за производство на интенционалност мора да има каузална моќ еднаква на онаа од мозокот. Ова е споредна последица од 1 и  (5) Секој обид буквално да се создаде вештачки интенционалност (силна АI) не може да успее само со дизајнирање на програми, туку  треба да се дуплираат и каузалните моќи на човечкиот мозок. Ова следи од 2 и 4.

“Може машина да мисли?” Според аргументот тука само машините може да мислат, и тоа само еден посебен вид машини, имено мозокот и машините со внатрешни каузални моќи  еквивалентни на оние на мозокот.Баш затоа една силна   AI малку ни кажува за мислењето, бидејќи таа не се однесува на машини туку на програми, а програмите сами по себе се недоволни за мислење.

Кое психолошко и филозофско значење да му го дадеме на последните напори за компјутерска симулација на човечките когнитивни способности? Како одговор на ова прашање, сметам дека е корисно да се прави разлика меѓу она што јас ќе го нарекувам “силна”   AI од “слаба” или “условна”   AI (вештачка интелигенција). Според слабата  AI, главна вредност на компјутерот во проучувањето на умот е дека ни дава многу моќна алатка. На пример, ни овозможува да се формулираат и проверуваат хипотези на поригорозен и попрецизен начин. Но, според силната  AI, компјутерот не е само алатка во проучувањето на умот,туку соодветно програмиран компјутер навистина е ум, во смисла дека за компјутерите со дадени вистински програми може буквално да се каже дека разбираат и дека имаат други когнитивни состојби. Во силнатаAI, бидејќи програмираниот  компјутер има когнитивни состојби, програмите не се само алатки кои ќе ни овозможат да ги проверуваме психолошките објаснувања туку самите програми се тие објаснувања.

Немам приговор на барањата на слабатаAI, барем не во оваа статија.Мојата дискусија тука ќе се насочи кон тврдењата кои ги дефинирав како силна AI, посебно на тврдењето дека соодветно програмиран компјутер буквално има когнитивни состојби и дека програмите на тој начин го објаснуваат  човечкото познание. Кога во понатамошниот текст  ќе спомнам AI, ја имам на ум силната верзија, како што е определена  од овие две тврдења.

Ќе ја разгледам работата на Роџер Шенк и неговите колеги од Универзитетот Јеил (Шенк & Абелсон 1977), бидејќи сум повеќе запознаен со него отколку со било кои други слични тврдења, и поради тоа што дава многу јасен пример за типот на дела кои сакам да ги разгледам. Но ништо од тоа што следува не зависи од деталите на програмата на Шенк . Истите аргументи се однесуваат ина SHRDLU од Виноград(Виноград 1973), ELIZA  на Вејзенбаум (Вејзенбаум 1965), и или било која Тјурингова машинска симулација на човечките ментални феномени.

Во кратки црти, и изоставајќи ги деталите, програмата на  Шенк може да се опише вака: целта на програмата е да се симулира човечката способност да разбира приказни. Карактеристика на способноста за разбирање приказни на човечките суштества е дека тие може да одговараат на прашања во врска со приказната и за информации кои не се експлицитно наведени во приказната. На пример, да претпоставиме дека е дадена следнава приказна:

Некој човек бил во сендвичарница и порачал хамбургер. Хамбургерот стигнал изгорен и човекот налутено заминал од  ресторанот без да плати за хамбургерот и без да остави бакшиш. Е сега, ако ве прашаат-„Дали човекот го изел хамбургерот?” најверојатно ќе одговорите: “Не, не го изел.” Слично на тоа, ако ја земеме следнава приказна: „Некој човек бил во сендвичарница и порачал хамбургер; кога хамбургерот стигнал тој бил многу задоволен и на заминување на келнерката ѝ дал голем бакшиш пред да ја плати сметката ” и ако ве прашаат:„Дали човекот го изел хамбургерот” веројатно ќе одговорите „ Да, го изел.”. Машините на  Шенк слично можат да одговараат на прашања за сендвичарници во овој стил. За да го сторат тоа, тие ги имаат сите оние информациии кои човечките суштества ги имаат за сендвичарниците, кои им овозможуваат да одговараат на прашања како овие погоре за вакви приказни. Кога на машината ѝ се дава  приказна и потоа поставува прашање, машината печати одговори кои би очекувале да ги дадат човечките суштества за слични приказни. Поборниците за силна AI велат дека во оваа„прашање и одговор“ секвенца машината не само што симулира една човечка способност, туку исто така:

1. дека машината буквално ја разбира приказната и наоѓа одговори на прашањата, и

2. дека она што машината и нејзината програма го прават ја објаснува човечката способност да се разбере приказна и да се одговараат прашања во врска со неа.

И двете тврдења ми се се чини дека се целосно непоткрепени од работата на Шенк, како што ќе се обидам да покажам во она што следува.

Еден начин да се провери која било теорија за умот е да се прашаш како би било ако мојот ум всушност функционира според принципите за кои теоријата вели дека важат за сите умови. Ајде да го примениме овој тест врз Шенковата теорија преку следниов мисловен експеримент.  Замислете дека сум  заклучен во една соба и ми е дадена цела серија на кинески написи. Да претпоставиме дека освен што не  знам кинески (како што навистина не знам), ниту пишан ниту говорен, јас не сум дури ни сигурен дека би можел да препознам еден кинески напис како кинески кој се разликува од, да речеме, јапонски или од бесмислени чкртаници. За мене, кинескиот напис е само збир од бесмислени чкртаници.

Сега да претпоставиме понатаму дека по оваа прва серија на кинески написи ми е дадена втора серија заедно со комплет на правила за поврзување на  втората серија со првата. Правилата се на англиски, и јас нив ги разбирам како и секој друг роден англиски говорител. Тие ми овозможуваат да поврзувам една група на формални симболи со друга група на формални симболи, и тоа “формални” значи дека јас можам да ги идентификувам симболите единствено според нивнита форма. Сега исто да претпоставиме дека ми даваат трета серија на кинески симболи заедно со комплет упатства, повторно на англиски, кои ми овозможуваат да ги поврзувам елементите од оваа трета серија со првите две серии, и овие правила ми кажуваат како да враќам одредени кинески симболи со одредена форма во одговор на одредени форми дадени во третата серија. Без да знам, луѓето кои ми ги даваат сите овие симболи првата серија ја нарекува „сценарио“,  втората серија „приказна“, а третата серија „прашања“. Исто така, симболите кои ги враќам на третата серија „одговори на прашања“ а комплетот на правила на англиски кои ми ги даваат, тие го нарекуваат „програма“.

Сега само колку да се искомпиралицира работата малку, замислете дека овие луѓе, исто така, ми даваат приказни на англиски, што ги разбирам, и тогаш тие ми поставуваат прашања на англиски за овие приказни, и јас им одговарам на англиски. Исто така, да претпоставиме дека по некое време сум станал толку добар во следење на инструкциите за манипулирање со кинеските симболи и програмерите толку се извештиле во пишување на програми што, гледано однадвор,што ќе рече од гледна точка на некој надвор од собата во која сум заклучен – моите одговори на прашањата воопшто не се  разликуваат од оние на родените кинески говорители. Никој само гледајќи во моите одговори не би можел да се сети дека јас не знам  ни збор на кинески.

Дозволете, исто така, да претпоставиме дека моите одговори на англиските прашања, несомнено ќе биде тешко се разликуваат од оние на другите родени англиски говорители, од проста причина што јас сум роден англиски говорител. Од надворешна гледна точка – од гледна точка на некој кој ги чита моите “одговори” – одговорите на кинеските прашања и англиските прашања се подеднакво добри. Но, во кинескиот случај, за разлика од англискиот, јас создавам одговори преку манипулирање со неинтерпретирани формални симболи. Во однос на  кинескиот, јас едноставно се однесувам како компјутер; јас изведувам пресметковни операции врз формално специфицирани елементи. За кинескиот јазик, јас сум, едноставно,извршување на компјутерска програма.

Сега тврдењата од страна на силната AI се дека програмираниот  компјутер ги разбира приказните и дека програмата, во извесна смисла, го објаснува човечкото разбирање. Но сега можеме да ги разгледаме овие тврдења во светлото на нашиот мисловен експеримент.

1 Што се однесува до првото тврдење, ми се чини сосема очигледно од примерот дека јас ништо не разбирам од кинеските приказни. Имам инпути и аутпути кои не се разликуваат од оние на роден кинески говорител, и дајте ми каква што сакате формална програма, јас пак нема да разбирам ништо. Од истите причини, компјутерот на Шенк не сфаќа ништо од приказните, без разлика дали на кинески, англиски или каков било друг јазик.Во кинескиот случај јас сум компјутерот, а во случаите каде јас не сум компјутерот , тој нема ништо повеќе од мене во случаите во кои не разбирам ништо.

2. Што се однесува до второто тврдење, дека програмата го објаснува човечкото разбирање, можеме да видиме дека компјутерот и неговата програма не даваат доволни услови за разбирање бидејќи компјутерот и програмата функционираат, а притоа нема разбирање. Но, дали даваат нужен услов или значаен придонес кон разбирањето? Едно од тврдењата од страна на поддржувачите на силната AI е дека кога ќе ја разберам приказната на англиски, она што го правам е исто– или горе – долу исто – како она што го правев при манипулирањето со кинески симболи. Поголемата формалност на симболите со кои се манипулира е тоа што го разликува англискиот случај, каде што јас разбирам, од кинескиот, каде што не разбирам. Јас не докажав дека ова тврдење е неточно, но тоа сигурно изгледа неверојатно во примеров. Уверливоста на целото тврдење се темели врз претпоставката дека може да се изгради една програма која ќе ги има истите инпути  и аутпути како еден мајчин јазик, и освен тоа сметаме дека говорителите,од одреден аспект се, исто така, извршувања на програма.

Врз основа на овие две претпоставки помисливме дека дури и ако програмата на Шенк не ја дава целосната слика за разбирањето, таа може да биде дел од таа слика. Па, претпоставувам дека тоа е емпириска можност, но немаме ни најмала причина да веруваме дека тоа е така, бидејќи она што овој пример го покажа (секако не и докажа) – е дека компјутерската програма е едноставно ирелевантна за моето разбирање на приказната. Во кинескиот случај го имам сето она што вештачката интелигенција може да го стави во мене преку програмирање, и јас не разбирам ништо; во англискиот случај јас разбирам сè, и нема причина да се претпостави дека моето разбирање има било што заедничко со компјутерска програма, или со други зборови, со пресметковни операции врз чисто формално специфицирани елементи. Се додека програмите се дефинираат како пресметковни операции врз чисто формално дефинирани елементи, она што го покажува овој пример е дека тие сами по себе немаат никаква внатрешна поврзаност со разбирањето. Тие секако не се доволни услови, а нема никаква причина да се претпостави дека тие се нужни услови, па дури ни дека имаат некој значаен придонес за разбирањето.

Обрнете внимание на тоа дека силата на аргументот не е едноставно во тоа дека различни машини може да имаат исти инпути и аутпути, додека оперираат според различни формални принципи –поентата не е во тоа. Напротив, формалните принципи ставени во компјутерот нема да бидат доволни за разбирање, бидејќи човек ќе може да ги следи формалните принципи а ништо да не разбере. Не се покажа ниедна причина која би поткрепила  дека таквите принципи се потребни, или дури дека било што придонесуваат, бидејќи нема зошто да се претпостави дека кога разбирам англиски јас оперирам со било каква формална програма.

Па, тогаш, што е тоа што го имам кај англиските реченици а што го немам кај кинеските? Очигледниот одговор е дека јас знам што значат првите, а немам поим што значат вторите. Но, што подразбира тоа и зошто тоа, што и да е, не би можеле да ѝ го дадеме на машината? Јас ќе се вратам на ова прашање подоцна, но прво да продолжиме со примерот.

Имав можност да го претставам овој пример на неколкумина кои работат со вештачка интелигенција, и, интересно, се чини дека не се согласуваат околу тоа што е соодветен одговор на него. Добив изненадувачки многу различни одговори, и во она што следува ќе ги разгледам најчестите меѓу нив (наведени заедно со нивното географско потекло).

Но, прво сакам да расчистам некои недоразбирања околу “разбирањето”. Во многу од овие дискусии може да се сретнат триста марифетлуци околу  зборот „разбирање“. Моите критичари посочуваат дека постојат многу различни степени на разбирање; дека “разбирање” не е прост двомесен предикат; дека постојат дури и различни видови и нивоа на разбирање, а често и дека законот за исклучување трет не се применува на непосреден начин врз исказите со форма “х разбира y“; дека во многу случаи се работи за одлучување а не едноставно за тоа дали х разбира у итн. За сите овие поенти сакам да кажам: секако, секако. Но, тие немаат ништо со темата за која расправаме. Има јасни случаи каде буквално се појавува „рабирањето“ и јасни случаи во кои не се појавува; и овие два вида на случаи се сè што ми треба за овој аргумент . Јас разбирам приказни на англиски; во помал степен разбирам приказни на француски; во уште помал степен приказни на германски; и воопшто не разбирам на кинески. Мојот автомобил и кеш  – машината, од друга страна, не разбираат ништо: тие не се од иста катара. Ние често им припишуваме „разбирање“ и други когнитивни предикати според метафора и аналогија на автомобили, кеш- машини и други артефакти, но тие предицирања ништо не докажуваат. Велиме „Вратата знае кога да се отвори заради својот фотоелектричен сензор“, кеш – машината знае како (разбира како,може) да собира и одзема, но не и да дели” и „термостатот ги воочува промените во температурата“.

Доста интересна е причината заради која се прават вакви предикации, и тоа е поврзано со фактот дека преку артефактите ние ја прошируваме нашата сопствена интенционалност како што нашите алатки ги прошируваат  нашите цели, и така ни дојдоа природно овие метафорични предицирања интенционалност ; но овие примери не држат вода меѓу филозофите. Смислата во која автоматската врата „разбира инструкции” со фотоелектричниот сензор воопшто не е смислата во која јас разбирам англиски. Ако смислата во која програмираните компјутери на Шенк разбераат приказни би требало да биде онаа метафорична смисла во која вратата разбира, а не онаа смисла во која јас разбирам англиски, прашањето не ни вреди да се дискутира. Но Њуел и Сајмон (1963) пишуваат дека видот на познание кој им го припишуваат на  компјутерите е ист како и оној на човечките суштества. Ми се допаѓа директноста на ова тврдење, а токму во тој облик ќе го разгледувам овој став. Тврдам дека во буквална смисла програмираниот компјутер го разбира она што колата и кеш – машината го разбираат, имено ништо.Разбирањето на компјутерот не е делумно или непотполно (како моето разбирање германски) туку е рамно на нула.

Chinese+Room

Сега, приговорите:

I. „Систем“ приговор (Беркли). “Иако е вистина дека индивидуалната личност која е заклучена во собата не ја разбира приказната, всушност таа е само дел од целиот систем, а системот е оној кој ја разбира приказната. Личноста има голема книга пред  себе во која се напишани правилата, има хартија и моливи за правење пресметки, тој има „база на податоци“за групите кинески симболи. Така, разбирање не му се припишува на самиот поединец, туку  на целиот овој систем чиј дел е тој“. Мојот одговор на „систем“ теоријата е сосема едноставен: нека поединецот ги интернализира сите овие елементи на системот. Нека ги запомни правилата во главната книга и базите на податоци со кинески симболи, и нека ги прави сите пресметки во главата. Така, поединецот го инкорпорира целиот систем. Нема ништо во системот што тој не го опфаќа. Можеме дури и да се ослободиме од собата и да претпоставиме дека тој е на отворено. Сеедно, тој не разбира ништо на кинески, и а fortiori не разбира ниту системот, бидејќи нема ништо во системот што не е во него. Ако тој не го разбира, тогаш не постои начин системот да може да разбере, бидејќи системот е само дел од него.

Всушност, некако и ми е и срам за овој одговор на „систем“ теоријата бидејќи од почеток  изгледа многу неверодостојно. Идејата е дека иако човек не  разбира кинески, конјукцијата на таа личност со табаци хартија може некако да разбира. Тешко ми е да сфатам  како некој што не е идеолошки заслепен може да смета ваква идеја за  веродостојна. Сепак, мислам дека многу луѓе кои се верни на идеологијата на силната  AI на крајот ќе бидат склони да тврдат нешто многу слично со ова; па затоа да продолжиме чекор понатаму. Според една верзија на ова гледиште, додека на човекот во примерот со интернализираниот  систем не разбира кинески во иста смисла како еден роден кинески говорител (затоа што, на пример, тој не знае дека приказната се однесува на сендвичарници и хамбургери, итн), сепак „човекот како систем на манипулација со формални  симболи“ навистина разбира  кинески. Потсистемот во човекот, кој е систем  за манипулација со формални системи за кинески не треба да се меша со потсистемот за англиски.

Значи, имаме  два потсистема во човекот; еден разбира англиски, а другиот кинески, и „овие два система  имаат малку врска еден со друг“. Но, на тоа сакам да одговорам дека не само што тие имаат малку врска еден со друг, туку тие не се ни една и иста работа. Потсистемот кој разбира англиски (да кажеме дека го прифаќаме овој жаргон на „потсистеми“) знае дека приказните се за ресторани и јадење хамбургери, тој знае дека му поставуваат прашања за ресторани и дека тој им одговара на прашањата најдобро што може со правење на различни заклучоци од содржината на приказната  итн. Но, кинескиот систем не знае ништо од ова. Со оглед на тоа, англискиот подсистем знае дека „хамбургери“ се однесува на хамбургери, додека кинескиот подсистем знае само дека „тантара пантара“ е проследено со „тинтири минтири“. Сѐ што  знае е дека разни формални симболи се воведуваат на едниот крај и се обработуваат во согласност со правила напишани на англиски, и други симболи излегуваат надвор на другиот крај.

Целата поента на оригиналниот пример е дека таква таква манипулација со формални симболи сама по себе не може да биде доволна за разбирање на кинески во било која буквална смисла на зборот, бидејќи човек може да напише „тинтири минтири“ по „тантара пантара“ без да разбира нешто на кинески. И воопшто не му помага на тој аргумент постулирањето потсистеми во човекот, бидејќи потсистемите не се во ништо подобра позиција отколку човекот претходно; тие сеуште ни оддалеку го немаат она што го има човекот (или потсистемот) кој зборува англиски. Навистина, во претходниов случај, кинескиот потсистем е едноставно дел од англискиот потсистем, делот кој се ангажира во манипулација со бесмислени симболи според правила на англиски.

Да се ​​запрашаме што првично го мотивира систем – приговорот. Со други зборови, кои независни разлози ги има  за да се тврди дека агентот мора да има потсистем во него, кој буквално разбира приказни на кинески? Што се однесува до мене, во примерот единствен таков разлог е дека јас го имам истиот инпут и аутпут како и роден кинески говорител и програма која води од едниот до другиот. Но, целата поента на примерот е да се обидам да покажам дека тоа не може да биде доволно за разбирање, во смислата во која јас разбирам приказни на англиски, затоа што една личност, а со тоа и комплетот системи кои би сочинувале човек, може да ја има вистинската комбинација на инпут, аутпут и програма и пак да не разбира ништо во релевантната, буквална смисла според која јас разбирам англиски.

Единствен мотив да се тврди дека во мене мора да има потсистем кој разбира кинески е дека имам програма и можам да го положам Тјуринговот тест; можам да ги измамам родените кинески говорители. Но, адекватноста на Тјуринг тестот е баш едно од нештата кои се доведуваат во прашање. Примерот покажува дека може да има два „системи“, од кои и двата го положуваат Тјуринговиот тест, но само едниот од нив разбира; и не е аргумент против овој заклучок да се каже дека бидејќи двата го положуваат Тјуринг тестот мора и  двата да разбираат, бидејќи овој став не е во согласност со аргументот дека системот во мене кој разбира англиски разбира во многу поголема мера  отколку системот кој само процесира кинески. Накратко, систем-приговорите просто го заобиколуваат прашањето, инсистирајќи без разлози дека системот мора да разбира кинески.

Понатаму, испаѓа дека систем – приговорите водат  до последици кои се, настрана од сѐ останато, апсурдни. Ако заклучуваме дека мора да има познание во мене со образложение дека имам одредени инпути, аутпути и програма меѓу нив, тогаш сите видови на некогнитивни потсистеми ќе испаднат когнитивни. На пример, има ниво на опис во кое мојот стомак обработува информации и извршува одреден број на компјутерски програми, но јас подразбирам дека не сметаме дека има било какво разбирање [Пилишин: „Калкулација и когниција“ BBS 3 (1) 1980]. Но, ако го прифаќаме систем- приговорот, тогаш тешко е да се види како да се избегне да се тврди дека стомакот, срцето, црниот дроб итн. се потсистеми кои разбираат, бидејќи во принцип нема начин да се направи разлика меѓуразлогот да се тврди дека кинескиот потсистем разбира и разлогот да се тврди дека стомакот разбира. Патем речено, ништо не менува ако се каже дека кинескиот систем има информации како инпут и аутпути,а стомакот храна и обработки на храна, бидејќи од гледна точка на агентот, од моја гледна точка, нема информации ни во храната ни во кинескиот – кинескиот е само еден куп бесмислени чкртаници. Информации во кинескиот случај има само за програмерите и интерпретаторите, аако гледаме така, нема зошто за информации да не се сметаат инпутите и аутпутите на органите за варење.

Оваа последна точка укажува на други проблеми во силната AI, па заслужува една кратка дигресија за да ја објаснам. Ако силната AI сака да биде гранка на психологијата, тогаш таа мора да биде во можност да ги разликува оние системи кои се изворно умствени од оние кои не се. Таа мора да може да ги разликува принципите според кои работи умот од оние според кои работат нементалните системи; во спротивно нема да има објаснување за тоа што е специјално умствено во умственото. И разликата умствено – неумствено не може да се наоѓа само во окото на посматрачот туку мора да биде внатрешна за системите; инаку било кој посматрач ако му текне би можел луѓето да ги третира како неумствени а, на пример, ураганите како умствени. Но доста често во AI литературата разликата е заматенa нa начини кои долгорочно се погубни за тезата дека   AI е когнитивен концепт. На пример, Мек Карти пишува: „ За едноставните машини  како термостатот може да се каже дека имаат верувања, и имањето верувања се чини е карактеристика на повеќето машини способни за решавање на проблеми ” (Мек Карти 1979).

Секој кој ѝ дава шанса на AI како теорија на умот треба да размисли за импликациите од таа забелешка. Од нас се бара да се согласиме со откритието на силната  AI дека парчето метал на ѕидот кое го користиме за регулирање на температурата има верувања во сосема иста смисла како нас, нашите сопружници и деца, а освен тоа „повеќето“ од другите машини во собата – телефонот, магнетофонот, кеш- машината, електричниот прекинувач за светло, – исто така, имаат верувања во оваа буквална смисла. Не е целта на овој напис да аргументира против ова мислење  на  МекКарти, па ќе продолжам понатаму без дополнителни аргументации.Студиите на умот започнуваат со факти како тој дека луѓето имаат верувања, додека термостатите, телефоните и кеш- машините немаат. Ако имате теорија која тоа го негира, вие всушност сте добиле контрапример за таа теорија и со тоа теоријата е лажна.

Се добива впечаток дека луѓето од  AI кои пишуваат вакви работи мислат дека може да се извлечат со тоа, бидејќи тие навистина не го сфаќаат сериозно, и не мислат дека било кој друг ќе го сфати. Предлагам барем за момент да го земеме сериозно. Добро размислете една минута што сѐ ќе биде потребно да се заклучи ако она парче метал на ѕидон таму има вистински верувања: насочувања на желбите и верувањата, исказна содржина, услови за верификација; верувања кои можат да се силни или слаби; нервозни, вознемирени или сигурни верувања; догматски, рационални или суеверни верувања; слепа вера или колебливо промислување; значи било каков вид на верувања. Термостатот не е кандидат. Ниту желудникот, црниот дроб, кеш- машината или телефонот. Сепак, бидејќи ние идејата ја земаме сериозно, забележете дека нејзината вистинитост би била фатална за претензијата насилната AI да биде наука на умот. Зашто сега умот е насекаде. Она што сакавме да го знаеме е она што го разликува умот од термостатите и црниот дроб. И ако МекКарти е во право, нема надеж дека силната  AI тоа ќе ни го каже.

II.Робот -приговор (Јеил). „Да претпоставиме дека креираме еден поинаков вид на програма од онаа на Шенк. Да претпоставиме дека ставаме компјутер во внатрешноста на робот, и овој компјутер не само што ќе прима формални симболи како инпут и емитува формални симболи како аутпут, туку, всушност, ќе оперира со роботот така што тој ќе извршува нешта многу слични со восприемање, одење, движење наоколу, ковање шајки, јадење, пиење – сѐ што сакате. На пример, роботот би имал телевизиски камери што би му овозможило да „гледа“,  раце и нозе што би му  овозможило да „дејствува“, а сето ова ќе биде контролирано од неговиот компјутерски „мозок“. Еден таков робот, за разлика од компјутерот на  Шенк, би имал вистинско разбирање и други умствени состојби. ”

Прво што треба да се забележи кај робот – приговорот  е дека премолчено признава дека познанието не е само прашање на манипулација со формални симболи, бидејќи овој приговор додава комплет на причинско – последични врски со надворешниот свет [спореди Фјодор: „Методолошки солипсизам“ BBS 3 (1) 1980]. Но одговорот на робот-приговорот е дека додавањето на такви „перцептивни“ и „моторни“ капацитети не му додава ништо повеќе на разбирањето поединечно или на интенционалноста генерално од оригиналната програма на Шенк. За ова да стане јасно, обратете внимание дека истиот мисловен експеримент се однесува на случајот со роботот. Да претпоставиме дека, наместо компјутерот во внатрешноста на роботот, ме ставаат во внатрешноста на собата и, како во оригиналниот кинески случај, ќе ми дадат повеќе кинески симболи со повеќе инструкции на англиски за спарување на кинески симболи со кинески симболи и враќање назад на кинески симболи кон надвор. Замислете дека, без да знам, некои кинески симболи кои доаѓаат до мене доаѓаат од телевизиски камери прикачени за робот и други кинески симболи кои јас сум ги пратил назад служат за моторите во внатрешноста на роботот да ги движат неговите нозе и раце. Важно е да се нагласи дека сѐ што правам е манипулирање со формални симболи: не знам ниеден од овие други факти. Јас добивам „информации“ од „перцептивниот“ апарат на роботот, и јас му давам „инструкции“ на неговиот моторен апарат, без да знам било кој од овие факти. Јас му сум хумункулус на роботот, но за разлика од традиционалниот хумункулус, јас немам поим што се случува.Тука сакам да истакнам дека роботот нема никакви интенционални состојби – просто се движи како резултат на своето електрично полнење и програма. Следствено, јас немам интенционални состојби од соодветен вид. Сѐ што правам е следење на формални правила за манипулирање со формални симболи.

III. Симулатор – на – мозок приговор (Берклии МИТ). „Претпоставете дека сме креирале пограма која не ги изразува информациите кои ги знаеме за светот (како информациите во приказните на Шенк) туку ги симулира секвенците на невронски празнења во синапсите на мозокот на роден кинески говорител кога разбира приказни на кинески и одговара на прашања за нив. Машината ги прима кинеските приказни и прашањата за нив како инпут, ја симулира формалната структура на реалните кинески мозоци за време на процесирањето на тие приказни и ги дава кинеските одговори како аутпут. Дури можеме да си замислиме и дека машината не оперира само со една сериска програма, туку со цел комплет од програми кои оперираат паралелно, исто како што човечките мозоци претпоставуваме дека оперираат додека процесираат природен јазик. Во ваков случај мора да признаеме дека машината ја разбира приказната; ако не признаеме, зар нема со тоа да порекнуваме дека родените кинески говорители ги разбираат истите приказни? На синаптичко ниво, што би можело да биде различно меѓу програмата на компјутерот и програмата на кинескиот мозок?“

Пред да се соочам со овој приговор, сакам така вон темата да забележам дека тоа е чуден приговор за било кој поборник на вештачката интелигенција (или функционлизмот итн.) – мислев дека целата поента на силната AI е дека не ни треба да знаеме како функционира мозокот за да знаеме како функционира умот. Основната хипотеза, барем според моето сфаќање, беше дека постои ниво на ментални операции кое се состои од од пресметковни процеси врз формални елементи и кое ја сочинува суштината на умственото и може да се реализира во сите видови на различни мозочни процеси, исто како што било која компјутеска програма може да се реализира во разните компјутерски хардвери; според претпоставките на силната AI, умот за мозокот е она што е програмата за хардверот, и затоа можеме да го разбереме умот без невропсихологија. Кога би моралe да знаеме како работи мозокот за да има AI, воопшто не би се замарале со   AI. Како и да е, дури и проникнувањето толку блиску до операциите на мозокот не би било доволно да создаде разбирање. За да го увидиме ова, наместо монолингвалниот човек коj разменува симболи, да замислиме човек кој оперира со сложен систем на водоводни цевки и вентили кои нив ги поврзуваат. Кога ги прима кинеските симболи тој гледа во програмата напишана на кинески кои вентили да ги пушти или затвори. Секоја водна врска одговара на синапса во кинескиот мозок, а целиот систем е монтиран така што после соодветното празнење, односно пуштањето на сите соодветни славини, кинеските одговори излегуваат на крајот од системот од цевки.

Каде е разбирањето во овој систем? Зема кинески како инпут, ја симулира формалната структура на кинескиот мозок и дава кинески како аутпут. Но, секако дека човекот не разбира кинески, ниту пак цевките, а ако сме склони кон гледиштето за кое сметам дека е апсурдно дека некако спојот на човекот и цевките разбира, сетете се дека во принцип човекот може да ја интернализира формалната структура на цевките  и да ги изврши сите „невронски полнења“ во мислите. Проблемот со симулаторот на мозокот е дека ги симулира погрешните нешта за мозокот.  Се додека ја симулира само формалната структура на секвенците на невронските празнења во синапсите, не го симулира она што е важно за мозокот, имено неговата каузална моќ, неговата способност да создава интенционални состојби. Примерот со водоводните цевки покажува дека имањето формални можности не значи да се има и каузална моќ; може да ги имаме сите формални  услови лишени од соодветните невробиолошки каузални моќи.

IV. Комбиниран приговор (БерклииСтенфорд). „Иако секој од претходниве приговори можеби не е доволно убедлив за да се побие контрапримерот со кинеската соба, ако се земат сите три заедно тие делуваат доста поубедливо па дури и одлучувачки. Замислете робот со компјутер во форма на мозок ставен во кранијалната шуплина, замислете компјутер програмиран со сите синапси во човековиот мозок, замислете однесување на роботот сосема истоветно со човечкото. И сега сето тоа замислете го како соединет систем, а не само како компјутер со инпути и аутпути. Секако, во ваков случај би морале да му припишеме интенционалност на тој систем“.

Целосно се согласувам дека во ваков случај е рационално и обврзно да се прифати тезата дека роботот има интенционалност, се додека не знаеме ништо повеќе. Сепак, покрај изгледот и однесувањето, сите останати елементи на комбинацијата се сосема ирелевантни. Ако можевме да направиме робот со однесување истоветно со човечкото во низа аспекти, ние би му припишале интенцналност и не би имале причини да не му припишеме. Не би ни требало да знаеме однапред дека неговиот компјутерски мозок формално е налик човечкиот.

Но, не гледам како ова би можело да им помогне на тврдењата на силната AI, и еве зошто. Според силната AI, извршувањето на формална програма со соодветен инпут и аутпут е доволен , па дури и конститутивен услов за интенционалност. Како што тоа го формулира Њуел (1979), суштина на умственото е оперирањето на физички симболички систем. Но, припишувањето на интенционалност на роботот во овој пример нема никаква врска со некакви си формални програми. Тоа просто се темели врз претпоставката дека ако роботот во голема мера изгледа и се однесува како нас, тогаш сметаме дека, сè додека не се докаже спротивното, мора да има умствени состојби како нашите кои се изразуваат преку неговото однесување и дека мора да има некој внатрешен механизам способен да создава такви умствени состојби. Ако знаевме поинаку да го објасниме неговото однесување без таа претпоставка, ние не би му припишале интенционалност, особено ако би знаеле дека има формална програма. Токму тоа е поентата на мојот претходен одговор на приговорот II.

Да замислиме дека однесувањето на роботот се должи на фактот дека внатре некој човек прима неитерпретирани формални симболи од сензорните рецептори на роботот и враќа неинтерпретирани формални симболи на неговите моторни механизми и дека човекот ги врши овие симболички манипулации според група правила. Понатаму, да замислиме дека човекот не знае ниеден од овие факти за роботот, туку сѐ што знае е која операција да ја изведе после кој бессмислен симбол. Во овој случај, ние роботот би го сметале за досетливо смислена и направена  механичка кукла. Хипотезата дека куклата има ум сега би била излишна и ненужна зашто сега нема потреба да му се припишува интенционалност на роботот или на системот чиј дел е тој (освен, се разбира, интенционалноста на човекот со која тој манипулира со симболите). Манипулациите со формални симболи се тука, инпутот и аутпутот коректно се спарени, но стварна интенционалност единствено може да се најде кај човекот, и тој не знае ниедна од релевантните интенционални состојби; не знае, на пример, што гледаат роботските очи, нема намера кога ја придвижува роботската рака, не разбира ништо што роботот кажува или му кажуваат. Ниту пак, како што погоре покажавме, системот кој го сочинуваат човекот и роботот.

За да го увидиме ова, да го споредиме овој случај со случаите во кои ни доаѓа сосема природно да им припишеме интеционалност на членовите на некои видови примати или домашни животни како кучињата. Причината зошто тоа ни доаѓа природно, главно, се две: не можеме да си го објасниме однесувањето на животните без да постулираме интенционалност и гледаме дека животиките имаат слична градба како и нас- очи, нос, уста итн. Го оглед на кохерентноста на однесувањето на животните како и претпоставката дека во неговата основа лежи истата градба како причина, претпоставуваме дека животните имаат умствени состојби и дека тие се резултат на механизми сочинети од градбата која е слична со нашата градба. Ние слично би претпоставиле и за роботите освен ако немаме посебна причина за спротивното, но штом ќе дознаеме дека неговото однесување произлегува од формална програма и дека каузалните моќи на самата физичка супстанција се ирелевантни за тоа однесување, ние се откажуваме од претпоставката за интенционалност [види "Cognition and Consciousness in Nonhuman Species BBS 1(4) 1978.]

Има други два приговора кон мојот пример кои често се наведуваат (и вреди да се разгледаат) но всушност ја промашуваат поентата.

V. Други умови приговор (Јеил). „Како знаеш дека другите луѓе разбираат кинески или било што друго? Само според однесувањето. А компјутерот го поминува тестот на однесувањето исто како и тие (во принцип), па ако им припишуваш познание на другите луѓе мора во принцип да им припишеш и на компјутерите.“

Оваа забелешка заслужува само краток одговор. Проблемот во целава дискусија не е како знам дека другите луѓе имаат когнитивни состојби, туку што е она што нив им го припишуавам кога им припишувам когнитивни состојби.На овој аргумент не може да му се противставите со глумење бессетилност. Во когнитивните науки ги претпоставуваме реалноста и познавливоста на умственото на истиот начин на кој во физичките науки ја претпоставуваме реалноста и познавливоста на физичките објекти.

VI. The many mansions приговор (Беркли). „Целиот твој аргумент претпоставува дека AI се само аналогните и дигиталните компјутери. Но тоа е само сегашно ниво на техниката. Кои и да се каузалните процеси за кои тврдиш дека се суштински (претпоставувајќи дека си во право), во иднина би можеле да создадеме направи кои би ги правеле овие причинско – последични  процеси, и тие би биле вештачка интелигенција. Така, твојот аргумент не ја погодува можноста на вештачката интелигенција да создаде и да го објасни когнитивното.“

Medindo-Ondas-Cerebrais

Јас немам што да забележам на овој приговор освен тоа што тој го омаловажува проектот  на силната AI со тоа што го редефинира како било што што вештачки создава и го објаснува познанието. Фокусот на оригиналното тврдење на силната AI беше една прецизна, добро дефинирана теза: умствените процеси се пресметковни процеси врз формално дефинирани елементи. Мојата цел беше да се спротивставам на таа теза. Ако тврдењето е редефинирано така што повеќе не е истата теза, моите приговори повеќе не важат бидејќи повеќе нема проверлива хипотеза врз која би се примениле.

Сега да се вратиме на прашањето кое ветив дека ќе се обидам да го одговорам. Имајќи во предвид дека јас разбирам англиски и не разбирам кинески, и исто така земајќи во предвид дека машината не разбира ни англиски ни кинески, мора кај мене да има нешто што прави да разбирам англиски и соодветно нешто што го немам во случајот кога не разбирам кинески. Зошто тоа нешто, што и да е тоа, не би можеле да ѝ го дадеме на машината?

Во принцип не гледам причина зошто не би ѝ дале на машината способност да разбира англиски или кинески бидејќи во суштинска смисла нашите тела со нашите мозоци се токму такви машини.  Но, сметам дека има силни разлози да се тврди дека тоа не може да ѝ се даде на машина чии операции се дефинирани строго како пресметковни процеси врз формално дефинирани елементи или, со други зборови, каде што операциите на машината се дефинирани како извршување на компјутерска програма. Јас не сум во можност да разбирам англиски и да имам други видови на интенционалност затоа што сум извршување на некои компјутески програми ( ако земеме дека навистина сум извршување на компјутерски програми), туку затоа што сум вид на организам со одредена биолошка (т.е. хемиска и физичка) структура, кој во одредени услови има каузална моќ да перцепира, дејствува, разбира, учи и сите останати интенционални феномени. Поентата на овој аргумент делумно се состои и во тоа дека  само нешто што ги има тие каузални моќи може да ја има таа интенционалност.  Можеби други физички и хемиски процеси би можеле да дадат ист ефект; можеби, на пример, Марсовците исто би имале интенционалност но нивните мозоци би биле изградени од нешто друго. Тоа е емпириско прашање, како на пример, прашањето дали фотосинтеза може да врши нешто со поинакви хемиски својства од хлорофилот.

Но, главната поента на овој аргумент е дека ниеден чисто формален модел некогаш сам по себе би бил доволен за интенционалност бидејќи формалните својства сами по себе не се конститутивни за интенционалноста, и сами по себе немаат каузална моќ освен моќта, при извршувањето, да ги продуцираат следните стадиуми на формализмот кога машината работи. Исто така, било кои каузални својства  на определени реализации на формалниот модел се ирелевантни за формалниот модел како таков затоа што ние секогаш можеме истиот формален модел да го ставиме во друга реализација каде што тие каузални својства очигледно ги нема. Дури и ако, по некое чудо, кинеските говорители ја реализираат Шенковата програма, ние може да ја ставиме истата програма  во англиски говорители, цевки со вода или компјутери, од кои никој не разбира кинески, а покрај нив ни програмата.

Она што е битно за мозочните операции не се формалните игри со сенки туку реалните својства на самите секвенци. Сите аргументи за силната верзија на вештачката интелигенција кои ги знам настојуваат да нацртаат контура околу таа игра со сенки околу познанието и потоа тврдат дека  тие сенки се вистински. Со еден синџир од заклучоци сакам да ги утврдам некои од филозофските поенти содржани во овој аргумент.  Поради јасност тоа ќе го сторам во прашање – одговор стил и ќе почнам со старото, прастаро прашање:

„Дали може машина да мисли?“

Очигледно, одговорот е да. Ние сме баш такви машини.

„Да, ама дали би можел артефакт, машина создадена од човек, да мисли?“

Претпоставувајќи дека е возможно вештачки да се направи машина со нервен систем, неврони со аксони и дендрити и сѐ останато во доволна мерка налик нашите, повторно одговорот на прашањето би бил, очигледно, да. Ако можеш точно да ги  дуплицираш причините, можеш да ги дуплицираш и ефектите. И навистина, можеби е возможно да се создадат свесност, интенционалност и се останато со помош на други хемиски принципи од оние што ги користат човечките мозоци. Тоа е, како што веќе реков, емпириско прашање.

„Добро, но дали би можеле дигиталните компјутери да мислат?“

Ако под „дигитален компјутер“ подразбираме било што кое на одреено ниво на опис би можело да се опише како извршување на компјутеска програма, одговорот пак, се рабира, би бил да, со оглед на тоа што ние самите сме извршувања на одреден број компјутерски програми и на тој начин и мислиме.

„Но дали нешто би можело да мисли, разбира итн. единствено преку својството да биде компјутер со адекватен вид на програма? Дали извршувањето на програма, секако на вистинска програма, само по себе е доволен услов за разбирање?“

Според мене, ова е вистинското прашање кое треба да си го поставиме, иако често се меша со едно или повеќе од претходните прашања, а одговорот на него е не.

„Зошто не?“

Бидејќи манипулациите со формални симболи сами по себе немаат интенционалност; тие се бессмислени; тие не се дури ни манипулации со симболи, бидејќи кај нив симболите не симболизираат ништо. Со лингвистички жаргон кажано, тие имаат синтакса, но немаат семантика. Таква интенционалност која демек ја имаат  компјутерите постои само во умовите на оние кои ги програмираат и кои ги користат, оние кои го праќаат инпутот и кои го интерпретираат аутпутот.

Намерата на примерот со кинеската соба беше да покаже дека штом нешто ќе ставиме во систем кој има интенционалност (човек) и ќе го програмираме со формална програма, може да се увиди дека програмата не носи додатна интенционалност. Таа не додава ништо, на пример, на способноста да разбира кинески.

Точно оној аспект од AI кој се чинеше толку задоволителен – дистинкцијата меѓу програма и реализација на програма – се покажува фатална за ставот дека симулацијата може да биде дупликација.  Дистинкцијата меѓу програма и нејзина реализација во хардверот изгледа паралелна со дистинкцијата меѓу нивото на умствени операции и нивото на мозочни операции. Ако можеме да го определиме нивото на умствени операции како формална програма, тогаш изгледа дека може да утврдиме што е суштина на умот без помош на интроспективната психологија или неврофизиологијата на мозокот. Но поистоветувањето „умот е за мозокот она што програмата е за хардверот“ се побива во неколку точки помеѓу кои се следниве три.

Прво, дистинкцијата помеѓу програма и реализација за последица го има тоа што истата програма може да ги има сите можни луди реализации кои немаат интенционален облик. Вајзенбаум (1976, дел 2), на пример, детално покажува како се конструира компјутер со ролна тоалетна хартија и купче малечки камења. Слично, програмата за разбирање кинески приказни може да биде испрограмирана во водоводни цевки, група на ветерници или монолингвален англиски говорител, и ниедно од овие нешта не постигнува разбирање на кинескиот јазик. Камењата, тоалетната хартија, ветрот и цевките  и онака не се содветни за интенционалност – само нешто што има иста каузална моќ со мозокот може да има интенционалност – и иако англискиот говорител е соодветен за интенционалност лесно може да се види тој не добива екстра интенционалност со меморизирањето на програмата, со оглед на тоа што меморизирањето не го научува кинески.

Второ, програмата е чисто формална, а интенционалните состојби не се формални на тој начин. Тие се дефинирани според нивната содржина, а не според нивната форма. Верувањето дека врне, на пример, не е дефинирано според некој формален облик, туку како определена менална содржина со услови во кои важи и насоченост на желбите и верувањата (види Серл 1979) и сл. Во суштина, верување како ова нема дури ни формален облик во оваа синтаксичка смисла, со оглед на тоа што истото верување може да биде изразено во неопределен број различни синтаксички изрази во различни лингвистички системи.

Трето, како што споменав претходно, умствените состојби и промени буквално се продукти на операциите на мозокот, но програмата не е на истиот начин продукт на компјутерот.

„Па, ако програмите не се на ниеден начин конститутивни за менталните процеси, зошто има толку многу луѓе кои веруваат во спротивното? За тоа треба некакво објаснување.“

Не го знам одговорот на ова. Идејата дека компјутерските симулации можат да бидат стварни од почеток ми се чинеше сомнителна бидејќи компјутерот никако не е наменет за симулирање на умствени операции. Никој не очекува дека компјутерската симулација на пожар од трет степен ќе го изгори целото соседство или дека компјутерска симулација на невреме сите ќе не направи жива вода. Зошто, добога, некој би мислел дека компјутерска симулација на разбирање навистина било што разбира? Често се вели дека би било ужасно тешко да се постигне компјутерите да чувствуваат болка или да се заљубуваат, но љубовта и болката не се ни потешки ни полесни од познанието или било што друго. За симулација, сѐ што ви треба е вистински инпут и аутпут и насредина програма која  првото го претвора во второто. Тоа е сѐ со што располага компјутерот при сѐ што работи. Да се поистовети симулацијата со дуплицирањето е истата грешка, без разлика дали се однесува на болка, љубов, познание, пожар или невреме.

Сепак, има неколку причини зошто AI изгледала и на многу луѓе сѐуште им изгледа како на некој начин да ги репродуцира и оттаму и објаснува менталните феномени, а верувам дека нема да успееме во разбивањето на тие илузии се додека сосема не  им се откријат причините.

Прва и можеби најважна е конфузијата околу концептот процесирање информации. Многу луѓе во когнитивните науки веруваат дека човечкиот мозок врши нешто што се нарекува процесирање информации и аналогно и компјутерот и неговата програма вршат процесирање информации; но од друга страна пожарите и невремињата воопшто не процесираат информации. Така, иако компјутерот може да ги симулира формалните карактеристики на било кој процес,тој стои во специјална релација со умот и мозокот бидејќи кога компјутерот е програмиран како што треба, во идеален случај со истата програма како мозокот, процесирањето на информациите е идентично во двата случаи, а процесирањето инфомации е суштинско за умственото.

Но, мааната кај овој аргумент е тоа што тој се темели на двосмисленоста на концептот „информација“. Во смислата во која луѓето го користат кога, да речеме, размислуваат за аритметички проблеми или кога читаат и одговараат прашања за приказни, програмираниот компјутер не процесира информации. Она што тој го прави е манипулирање со формални симболи. Фактот дека програмерот и интерпретаторот на компјутерскиот аутпут ги користат симболите да важат за објектите во светот е сосема надвор од доменот на компјутерот. Компјутерот, да повторам, има синтакса но нема семантика. Така, ако на компјутерот внесете „2+2 еднакво“ тој ќе ви врати „4“. Но тој нема поим што значи тоа „4“ или дали воопшто нешто значи. Не е трикот во тоа што нему му фалат некои информации од втор ред за интерпретација на симболите од прв ред, туку во тоа што неговите симболи од прв ред немаат никакви интерпретации што се однесува до самиот компјутер. Се што компјутерот има е само повеќе симболи.

Следствено, воведувањето на концептот „процесирање информации“повлекува дилема: или ќе го конструираме концептот „процесирање информации“ на начин кој по себе би имплицирал интенционалност како дел од процесот или на начин кој не би имплицирал интенционалност, Доколку првото е точно, тогаш програмираниот компјутер не процесира информации, туку само манипулира со формални симболи. Доколку е второто, тогаш иако компјутерот процесира информации, тој го прави тоа на истиот начин на кој кеш –машините, машините за пишување, стомаците, термостатите, невремињата и ураганите процесираат информации – имено, на одредено ниво на опис ние можеме сите нив да ги опишеме како да земаат информации од еден крај, ги трансформираат и создаваат информација како аутпут. Но, во овој случај надворешните набљудувачи се оние кои ги интерпретираат инпутот и аутпутот како информации во вообичаената смисла на зборот. Нема никаква сличност меѓу компјутерот и мозокот според некаква си сличност во процесирањето информации.

Второ, во голем дел од AI има остатоци од бихејвиоризам или операционализам. Со оглед на тоа што соодветни програми во компјутери можат да имаат инпут – аутпут обрасци слични со оние на човечките суштества, во искушение сме да постулираме умствени состојби во компјутерот слични со човечките ментални состојби. Но штом еднаш ќе увидиме дека и поимно и емпириски е возможно еден систем да има човечки способности од одредена област без воопшто да има интенционалност, ние би требало да можеме да го совладаме  тој импулс. Оваа кеш – машина има способност за сметање, но нема интенционалност, и во овој труд се обидов да покажам дека еден систем може да има способност за инпут и аутпут кои би биле дупликати на оние од роден кинески говорител и пак да не разбира кинески, без оглед како и да е програмиран. Тјуринговиот тест е типичен за целата традиција според тоа што е безочно бихејвиористички и операционалистички, и верувам дека ако оние кои работат на AI се одречат од бихејвиоризмот и операционализмот во голема мера забуната помеѓу симулација и дупликација би се отстранила.

Трето, остатокот од операционализам е здружен со остаток од еден облик на дуализам; навистина силната AI единствено има логика со дуалистичката претпоставка дека, што се однесува до умот, не е битен мозокот. За силната AI (и исто така за функционализмот), она што е битно се програмите, а програмите се независни од нивното реализирање во машините; навистина, што се однесува до AI, истата програма може да биде реализирана во електронска машина, картезијанска ментална супстанција или Светскиот дух на Хегел.  За мене беше едно навистина изненадувачко откритие за време на целата оваа дискусија дека многу од оние кои работат на AI беа шокирани од мојата идеја дека реалните човечки ментални феномени зависат од реалните физички и хемиски својства на реалните човечки мозоци.

Сепак, ако кратко размислите, ќе видите дека не би  требало да сум изненаден, бидејќи проектот за силна AI нема шанси ако не се прифати некој облик на дуализам. Проектот се состои во тоа да се репродуцира и разбере умственото преку дизајнирање програми, а проектот не би можел да се води ако умот не е не само принципиелно туку и емпириски независен од мозокот затоа што програмата  е целосно независна од својата реализација. Не би можеле да се надевате да го репродуцирате умственото преку пишување и работење програми освен ако не верувате дека умот е одделив од мозокот и принципиелно и емпириски (што е вид на строг дуализам) затоа што програмите мора да се независни од мозоците или која било друга посебна форма на извршување. Ако умствените операции се состојат од пресметковни операции врз формални симболи, тогаш следи дека тие немаат некоја внатрешна врска со мозокот; единствената врска би била таа што ете, се погодило мозокот да биде една од бескрајно многуте видови машини способни за извршување на програмата.

Оваа форма на дуализам не е традиционалната картезијанска варијанта која тврди дека има два вида на супстанции, но е картезијанска во смисла дека инсистира дека специфично умственото во умот нема никаква внатрешна врска со реалните својства на мозокот. Овој базичен дуазлиам е маскиран со фактот дека AI литературата содржи чести пизми за „дуализмот“ и се чини дека авторите не се ни свесни дека нивното гледиште подразбира една силна верзија на дуализам.

„Можат ли машините да мислат?“. Моето мислење е дека единствено машините можат да мислат и тоа само специјални видови машини , имено мозоците и машините кои имаат иста каузална моќ како мозоците. И тоа е главната причина зошто силната AI има малку нешта да ни каже за мислењето имајќи предвид дека нема што да каже за машините. По дефиниција, таа е за програмите, а програмите не се машини. Што друго и да е интенционалноста, таа е биолошки феномен, и како таков е причинско – последично зависен од специчната биохемија од која потекнува како исто како што се лактацијата, фотосинтезата или било кој биолошки феномен. Никој не мисли дека би можеле да создаваме млеко или шеќер само преку користење компјутерска симулација на формалните секвенци на лактацијата и фотосинтезата, но кога се работи за умот многу луѓе веруваат во такво чудо поради длабокиот и исконски дуализам: сметаат дека умот се состои од формални процеси и е независен од специфичните материјални услови за разлика од млекото и шеќерот, на пример.

Во одбрана на овој дуализам често се изразува надежта дека мозокот е дигитален компјутер ( патем кажано, раните компјутери често ги нарекуваа „електронски мозоци“). Но тоа не е никаква помош. Се разбира дека мозокот е дигитален компјутер. Со оглед на фактот дека сѐ е дигитален компјуер, и мозоците се исто така. Поентата е во тоа што мозочната каузална моќ да продуцира интенционалност не може да се состои во извршувањето на компјутеска програма, бидејќи која што сакате програма може нешто да ја изврши и пак да нема ментална состојба. Што и да прави мозокот за да создаде интенционалност, тоа не е извршување на компјутерска програма бидејќи ниедна програма сама по себе не дава интенционалност.

Библиографија

Anderson, J. (1980) Cognitive units. Paper presented at the Society for Philosophy and Psychology, Ann Arbor, Mich. [RCS]

Block, N. J. (1978) Troubles with functionalism. In: Minnesota studies in the philosophy of science, vol. 9, ed. C. W. Savage, Minneapolis: University of Minnesota Press. [NB, WGL]

(forthcoming) Psychologism and behaviorism. Philosophical Review. [NB, WGL]

Bower, G. H.; Black, J. B., & Turner, T. J. (1979) Scripts in text comprehension and memory. Cognition Psychology 11:177-220. [RCS]

Carroll, C. W. (1975) The great chess automaton. New York: Dover. [RP]

Cummins, R. (1977) Programs in the explanation of behavior. Philosophy of Science 44: 269-87. UCM]

Dennett, D. C. (1969) Content and consciousness. London: Routledge & Kegan Paul. [DD,TN]

______. (1971) Intentional systems Journal of Philosophy 68: 87-106. [TN]

______. (1972) Reply to Arbib and Gunderson. Paper presented at the Eastern Division meeting of the American Philosophical Association. Boston, Mass. [TN]

______. (1975) Why the law of effect won’t go away. Journal for the Theory of Social Behavior 5:169-87. [NB]

______. (1978) Brainstorms. Montgomery, Vt,: Bradford Books. [DD, AS]

Eccles, J. C. (1978) A critical appraisal of brain-mind theories. In: Cerebral correlates of conscious experiences, ed. P. A. Buser and A. Rougeul-Buser, pp. 347 55. Amsterdam: North Holland. [JCE]

______. (1979) The human mystery. Heidelberg: Springer Verlag. UCE]

Fodor, J. A. (1968) The appeal to tacit knowledge in psychological explanation. Journal of Philoso phy 65: 627-40. [NB]

______. (1980) Methodological solipsism considered as a research strategy in cognitive psychology. The Behavioral and Brain S^ciences 3:1. [NB, WGL, WES]

Freud, S. (1895) Project for a scientific psychology. In: The standard edition of the complete psychological works of Sigmund Freud, vol. 1, ed. J. Strachey. London: Hogarth Press, 1966. UCM]

7/14/03 6:14 PMMinds, Brains, and Programs

Page 15 of 19http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html

Frey, P. W. (1977) An introduction to computer chess. In: Chess skill in man and machine, ed. P. W. Frey. New York, Heidelberg, Berlin: Springer Verlag. [RP]

Fryer, D. M. & Marshall, J. C. (1979) The motives of Jacques de Vaucanson. Technology and Culture 20: 257-69. [JCM]

Gibson, J. J. (1976) The senses considered as perceptual systems. Boston: Houghton Mifflin. [TN]

______. (1967) New reasons for realism. Synthese 17: 162-72. [TN]

______. (1972) A theory of direct visual perception. In: The psychology of knowing ed. S. R. Royce & W. W. Rozeboom. New York: Gordon & Breach. [TN]

Graesser, A. C.; Gordon, S. E.; & Sawyer, J. D. (1979) Recognition memory for typical and atypical actions in scripted activities: tests for a script pointer and tag hypotheses. Journal of Verbal Learning and Verbal Behavior 1: 319-32. [RCS]

Cruendel, J. (1980).Scripts and stories: a study of children’s event narratives. Доктор философииdissertation, Yale University.[RCS]

Hanson, N. R. (1969) Perception and discovery. San Francisco: Freeman, Cooper. [DOW]

Hayes, P. J. (1977) In defence of logic. In: Proceedings of the 5th international joint conference on artificial intelligence, ed. R. Reddy. Cambridge, Mass.: M.l.T. Press. [WES]

Hobbes, T. (1651) Leviathan. London: Willis. UCM]

Hofstadter, D. R. (1979) Goedel, Escher, Bach. New York: Basic Books. [DOW]

Householder, F. W. (1962) On the uniqueness of semantic mapping. Word 18: 173-85. UCM]

Huxley, T. H. (1874) On the hypothesis that animals are automata and its history. In: Collected Essays, vol. 1. London: Macmillan, 1893. UCM]

Kolers, P. A. & Smythe, W. E. (1979) Images, symbols, and skills. Canadian Journal of Psychology 33: 158 84. [WES]

Kosslyn, S. M. & Shwartz, S. P. (1977) A simulation of visual imagery. Cognitive Science 1: 265-95. [WES]

Lenneberg, E. H. (1975) A neuropsychological comparison between man, chimpanzee

and monkey. Neuropsychologia 13: 125. [JCE]

Libet, B. (1973) Electrical stimulation of cortex in human subjects and conscious sensory aspects. In: Handbook of sensory physiology, vol. 11, ed. A. Iggo, pp. 74S 90. New York: Springer-Verlag. [BL]

Libet, B., Wright, E. W., Jr., Feinstein, B., and Pearl, D. K. (1979) Subjective referral of the timing for a

7/14/03 6:14 PMMinds, Brains, and Programs

Page 16 of 19http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html

conscious sensory experience: a functional role for the somatosensory specific projection system in man. Brain 102:191222. [BL]

Longuet-Higgins, H. C. (1979) The perception of music. Proceedings of the Royal Society of London B 205:307-22. [JCM]

Lucas, J. R. (1961) Minds, machines, and Godel. Philosophy 36:112127. [DRH]

Lycan, W. G. (forthcoming) Form, function, and feel. Journal of Philosophy [NB, WGL]

McCarthy, J. (1979) Ascribing mental qualities to machines. In: Philosophical perspectives in artificial intelligence, ed. M. Ringle. Atlantic Highlands, N.J.: Humanities Press. UM, JRS]

Marr, D. & Poggio, T. (1979) A computational theory of human stereo vision. Proceedings of the Royal Society of London B 204:301-28. UCM]

Marshall, J. C. (1971) Can humans talk? In: Biological and social factors in psycholinguistics, ed. J. Morton. London: Logos Press. [JCM]

______. (1977) Minds, machines and metaphors. Social Studies of Science 7:47588. [JCM]

Maxwell, G. (1976) Scientific results and the mind-brain issue. In: Consciousness and the brain, ed. G. G. Globus, G. Maxwell, & 1. Savodnik. New York: Plenum Press. [GM]

______. (1978) Rigid designators and mind-brain identity. In: Perception and cognition: Issues in the foundations of psychology, Minnesota Studies in the Philosophy of Science, vol. 9, ed. C. W. Savage. Minneapolis: University of Minnesota Press. [GM]

Mersenne, M. (1636) Harmonie universelle Paris: Le Gras. UCM]

Moor, J. H. (1978) Three myths of computer science. British Journal of the Philosophy of Science 29:213-22. UCM]

Nagel, T. (1974) What is it like to be a bat? Philosophical Review 83:43550. [GM]

Natsoulas, T. (1974) The subjective, experiential element in perception. Psychological Bulletin 81:611-31. [TN]

______. (1977) On perceptual aboutness. Behaviorism 5:75-97. [TN]

______. (1978a) Haugeland’s first hurdle. Behavioral and Brain Sciences 1:243. [TN]

______. (1979b) Residual subjectivity. American Psychologist 33:269-83. [TN]

______. (1980) Dimensions of perceptual awareness. Psychology Department, University of California, Davis. Unpublished manuscript. [TN]

7/14/03 6:14 PMMinds, Brains, and Programs

Page 17 of 19http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html

Nelson, K. & Gruendel, J. (1978) From person episode to social script: two dimensions in the development of event knowledge. Paper presented at the biennial meeting of the Society for Research in Child Development, San Francisco. [RCS]

Newell, A. (1973) Production systems: models of control structures. In: Visual information processing, ed. W. C. Chase. New York: Academic Press. [WES]

( 1979) Physical symbol systems. Lecture t the La Jolla Conference on Cognitive Science. URS]

______. (1980) Harpy, production systems, and human cognition. In: Perception and production of fluent speech, ed. R. Cole. Hillsdale, N.J.: Erlbaum Press. [WES]

Newell, A. & Simon, H. A. (1963) GPS, a program that simulates human thought. In: Computers and thought, ed. A. Feigenbaum & V. Feldman, pp. 279-93. New York: McGraw Hill. JRS]

Panofsky, E. (1954) Galileo as a critic of the arts. The Hague: Martinus Nijhoff. UCM]

Popper, K. R. & Eccles, J. C. (1977) The self and its brain. Heidelberg: Springer-Verlag. UCE, GM]

Putnam, H. (1960) Minds and machines. In Dimensions of mind, ed. S. Hook, pp. 138 64. New York: Collier. [MR, RR]

______. (1975a) The meaning of ”meaning.” In: Mind, language and reality Cambridge University Press. [NB, WGL]

______. (1975b) The nature of mental states. In: Mind, language and reality Cambridge: Cambridge University Press. [NB]

______. (1975c) Philosophy and our mental life In: Mind, language and reality Cambridge: Cambridge University Press. [MM]

Pylyshyn, Z. W. (1980a) Computation and cognition: issues in the foundations of cognitive science. Behavioral and Brain Sciences 3. [JRS, WES]

______. (1980b) Cognitive representation and the process-architecture distinction. Behavioral and Brain Sciences [ZWP]

Russell, B. (1948) Human knowledge: its scope and limits New York: Simon and Schuster. [GM]

Schank, R. C. & Abelson, R. P. (1977) Scripts, plans, goals, and understanding Hillsdale, N.J.: Lawrence Erlbaum Press. [RCS, JRS]

Searle, J. R. (1979a) Intentionality and the use of language. In: Meaning and use, ed. A. Margalit. Dordrecht: Reidel. [TN, JRS]

______. (1979b) The intentionality of intention and action. Inquiry 22:25380. [TN, JRS]

______. (1979c) What is an intentional state? Mind 88:74-92. UH, GM, TN, JRS]

7/14/03 6:14 PMMinds, Brains, and Programs

Page 18 of 19http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html

Sherrington, C. S. (1950) Introductory. In: The physical basis of mind, ed. P. Laslett, Oxford: Basil Blackwell. [JCE]

Slate, J. S. & Atkin, L. R. (1977) CHESS 4.5 – the Northwestern University chess program. In: Chess skill in man and machine, ed. P. W. Frey. New York, Heidelberg, Berlin: Springer Verlag. Sloman, A. (1978) The computer resolution in phylosophy Harvester Press and Humanities Press. [AS]

______. (1979) The primacy of non-communicative language. In: The analysis of meaning (informatics s)> ed. M. McCafferty & K. Gray. London: ASLIB and British Computer Society. [AS]

Smith, E. E.; Adams, N.; & Schorr, D. (1978) Fact retrieval and the paradox of interference. Cognition Psychology 10:438-64. [RCS]

Smythe, W. E. (1979) The analogical/propositional debate about mental rep representation: a Goodmanian analysis Paper presented at the 5th annual meeting of the Society for Philosophy and Psychology, New York City. [WES]

Sperry, R. W. (1969) A modified concept of consciousness. Psychological Review 76:532-36. [TN]

______. (1970) An objective approach to subjective experience: further explanation of a hypothesis. Psychological Review 77:585-90. [TN]

______. (1976) Mental phenomena as causal determinants in brain function. In: Consciousness and the brain, ed. G. G. Globus, G. Maxwell, & 1. Savodnik. New York: Plenum Press. [TN]

Stich, S. P. (in preparation) On the ascription of content. In: Entertaining thoughts, ed. A. Woodfield. [WGL]

Thorne, J. P. (1968) A computer model for the perception of syntactic structure. Proceedings of the Royal Society of London B 171:37786. UCM]

Turing, A. M. (1964) Computing machinery and intelligence. In: Minds and machines, ed. A. R. Anderson, pp.4-30. Englewood Cliffs, N.J.: Prentice Hall. [MR]

Weizenbaum, J. (1965) Eliza – a computer program for the study of natural language communication between man and machine. Communication of the Association for Computing Machinery 9:36 45. [JRS]

( 1976) Computer power and human reason San Francisco: W. H. Freeman. URS]

Winograd, T. (1973) A procedural model of language understanding. In: Computer models of thought and language, ed. R. Schank & K. Colby. San Francisco: W. H. Freeman. [JRS]

Winston, P. H. (1977) Artificial intelligence Reading, Mass. Addison- Wesley; JRS]

Woodruff, G. & Premack, D. (1979) Intentional communication in the chimpanzee: the development of deception. Cognition 7:333-62. [JCM]

Превод: Кирил Бисероски

1,058 total views, 1 views today