Кинеска соба
Кинеска соба — мисловен опит осмислен од филозофот Џон Серл. Кинеската соба има за цел да покаже дека човечките суштества поседуваат свест што може да дојде само од човечкиот ум, а не од машина што извршува програма. Целта на опитот е да ја оспори филозофската позиција што Серл ја нарекол „силна ВИ (вештачка интелигенција)“ и ја дефинирал како:
- Соодветно програмираната програма со соодветни влезови и излези со самото тоа би имала ум на ист начин како што луѓето имаат ум.[1]
За да ја оспори оваа позиција, Серл го опишува аргументот: „Замислете дека сум заклучен во соба... и дека не го разбирам кинескиот ракопис или говор“.[2] Понатаму тој замислува дека постојат правила на англиски јазик (што тој ги разбира) „кои ми овозможуваат да направам корелација помеѓу една група формални симболи со друга група формални симболи... каде што формални значи дека тие симболи можам да ги препознаам само по нивниот облик“.[2] Со помош на овие правила тој е во можност на прашања напишани на кинески да даде одговори исто напишани на кинески, така што оние што му ги поставуваат овие прашања и кои разбираат кинески се убедени дека и тој разбира кинески. Серл тврди дека иако тоа е доволно за да го помине Туринговиот тест, тоа не значи дека разбира кинески или е свесен за својата ситуација.[3] Серл тврди дека сè што прави во овој пример е исто како и процесорот во компјутерот (т.е. збир на операции на синтаксички елементи).[3] Серл тврди дека централната особина што го разликува од машината е Свеста. Според Серл: „[на набљудувачки релативен начин] сè, вклучително и луѓето, може да се нарече компјутер, но да се биде компјутер во опсервациска релативна смисла не е особина на објектот, туку особина на нашето толкување на физиката на појавата.“[4] Додека позматрачки независен режим луѓето поседуваат свест за разлика од компјутерите.
Аргументот на Серл првпат се појавил во јавноста во 1980 година во трудот Умови, мозоци и програми објавен во научното списание Науки на однесувањето и мозокот.[2]
На прашањето дали е можно луѓето да створат машина која има не само интелигенција, туку и свест, Серл смета дека тоа не е можно сè додека не се разбере како функционира човечкиот мозок.[2]
Историја
[уреди | уреди извор]Лајбниц користел мисловен опит за ширење на мозокот додека не станал со големина на мелница[5] во текстот Монадологија напишан во 1714 година[6]. Неговиот заклучок бил дека „ум“ способен за перцепција не може да се направи само со помош на механички процеси.
Филозофија
[уреди | уреди извор]Иако аргументот на кинеската соба првично бил претставен како реакција на тврдењата на истражувачите на вештачката интелигенција, филозофите го сфатиле како важен дел од филозофијата на умот. Тоа е предизвик за функционализмот (филозофијата на умот) и компјутационата теорија на умот, а се однесува на проблемите: проблем ум-тело, проблем на другите умови и тежок проблем на свеста .
Серловиот биолошки натурализам и силната ВИ (вештачка интелигенција) се спротивставуваат на Картезијанскиот дуализам. Идејата за дуализмот е дека мозокот и умот се направени од различни супстанции. Со други зборови, физичката структура и материјалот што го сочинува мозокот ја сочинуваат интелигенцијата. Додека „душата“ е неопходен втор аспект за појавата на свеста.
Серл го отфрла детерминизмот, тврдејќи дека нема смисла еволутивната биологија да создаде свест за рационално носење одлуки ако свеста не е неопходна за опстанок.[7] Детерминизмот е филозофска насока која верува дека сè што постои е поврзано со причинско-последични односи.
Серл, исто така, го отфрла компатибилизмот.[8] Според компатибилизмот, слободната волја и детерминизмот не се противречни, бидејќи да се каже дека личноста има слободна волја значи само дека тежнеењата на таа личност произлегуваат од самите нив, а не од некој надворешен фактор.
Тјурингов тест
[уреди | уреди извор]Тјуринговиот тест го осмислил Алан Тјуринг во 1950 година. Првпат бил објавен во трудот „Компјутерска машинерија и интелигенција“.[9] Тјуринг го започнува трудот со реченицата „Предлагам да го разгледаме прашањето 'Дали машините можат да размислуваат'“...
Серл тврди дека Тјуринговиот тест не може да утврди дали компјутерот е свесен. Односно, два системи може да го поминат Тјуринговиот тест иако еден од нив не е свесен.
Серл: „Ако заклучите дека во мене постои свест врз основа на влезови и излези и тоа дека постои програма помеѓу, тогаш излегува дека голем број несвесни системи ќе се покажат како свесни“.[2]
Серл, исто така, истакнува дека резултатите од Тјуринговиот тест зависат од тоа кој го спроведува тестот. Серл тврди дека ако обработката на информации е доволна за свеста, тогаш „постои ниво на кое мојот стомак може да се опише дека врши обработка на информации“... бидејќи не постои принципиелен начин да се разликува мотивацијата за изјавата 'Кинеската соба разбира' од мотивацијата за изјавата 'желудникот разбира'.“[10]
Серл тврди дека кога изведува математичка операција (на пример 1+1=2) смислата во која ја направил е „независна од набљудувачот“, додека кога калкулатор ја извршува истата математичка операција сè што се случува е „збир на електронски промени на состојбата кои се дизајнирани да бидат толкувани од нас“.[11] Сепак, тоа не значи дека функцијата на тој калкулатор е епистемски субјективна. Серл тврди дека иако може да се каже дека има поголема интелигенција од неговото куче, неговата интелигенција не може да се спореди со онаа што ја прикажува компјутерот бидејќи „агентот што го создава опсервациски релативен феномен сам по себе не е набљудувачки релативен“.[11] Кинеската соба се разликува од Тјуринговиот тест по тоа што Тјуринговиот тест е единствено заинтересиран за надворешното однесување на испитаникот, додека кинеската соба сугерира дека е неопходно подлабоко разбирање за „вистинската“ свест.
Целосен аргумент
[уреди | уреди извор]Формална дефиниција на аргумент издадена во 1990 година во Scientific American[12]. Најконтроверзниот дел е А3 кој се обидува да го докаже аргументот:
- (А1) Програмите се формални (синтаксички).
- Програмата користи синтакса за манипулирање со симболи и не обрнува внимание на семантиката на симболите. Програмата знае каде да ги стави симболите и како да ги преместува, но не знае за што се залагаат или што значат. За една програма, симболите се само физички објекти како и сите други.
- (А2) Умовите имаат ментална содржина (семантика).
- За разлика од симболите што се користат во програмата, нашите мисли имаат значење: тие претставуваат нешта и знаеме што претставуваат тие работи.
- (А3) Самата синтакса не е ниту конститутивен дел ниту доволна за семантиката.
- Ова е она што мисловниот експеримент „Кинеска соба“ има за цел да го докаже: „Кинеската соба“ има синтакса (бидејќи човек ги движи неговите симболи). Кинеската соба нема семантика (затоа што, според Серл, во собата нема никој или ништо за да разбере што значат симболите). Затоа, да се има синтакса не е доволно за да се создаде семантика.
- (C1) Програмите не се ниту конститутивни ниту доволни за умовите.
- Ова треба да следи без контроверзноста на првите три: Програмите немаат семантика. Програмите имаат само синтакса, а синтаксата е недоволна за семантика. Секој ум има семантика. Затоа, програмите не се умови.
Одговори
[уреди | уреди извор]Системски одговор
[уреди | уреди извор]Можеби најчестиот напад е она што се нарекува системски одговор. Тврдењето на системскиот одговор е дека, иако човекот во собата не разбира кинески, тој не е целиот систем, тој е едноставно алка во системот, како еден неврон во човечкиот мозок (примерот на еден единствен неврон бил употребен од Херберт Сајмон во неговиот напад на аргументот на кинеската соба на јавно предавање на Универзитетот во Калифорнија, Беркли). Тоа е централна процесорска единица на компјутерскиот систем и иако самиот процесор не може да разбере, целиот систем е тој што разбира.
Контрааргумент може да се наведе на следниов начин:
Како што е одговор на прашањето:
- Зошто човекот не разбира кинески?
- Затоа што човекот нема начин од синтакса да стигне до семантика.
Исто и на прашањето:
- Зошто целиот систем, целата просторија каде што е човекот, не разбира кинески?
- Затоа што целиот систем во кој се наоѓа човекот нема начин од синтаксата на спроведената програма да создаде семантика (или намерна содржина или значење) од кинески симболи.
Човек нема начин да го разбере значењето на тие кинески симболи од работата на системот, но нема ни целиот систем.
Повеќе центри на умот
[уреди | уреди извор]Еден од аргументите против кинеската соба е погледот на умот (мозокот) составен од неколку помали центри така што секој од нив е одговорен за одредена функција на секојдневното однесување (говор, паметење, следење на промените во светот,...). Според ова тврдење, истражувачот на вештачката интелигенција Марвин Мински тврди дека умот (мозокот) не е свесен за повеќето негови процеси. Така, за да се заштити од размислување за себе, тој создава илузија на свест[13].
Марвин Мински: „Не постои ништо што е свест, има многу работи... различни делови од мозокот прават различни приказни и ги „ткаат“ заедно и таму се водат различни преговори. Свеста ... е корисен збор ... затоа што му дава име на сè што прави мозокот за што не сте свесни.“[14]
Во својата книга Општество на умот, Марвин Мински тврди дека бидејќи умот е составен од многу делови кои немаат централна контрола, можно е да се програмира компјутер кој би ја поседувал истата илузија за себе како и луѓето.[15]
Аргумент на симулација и/или дуплирање
[уреди | уреди извор]Тезејевиот брод е мисловен опит кој го поставува прашањето дали објектот чии компоненти постепено се менуваат останува истиот објект. Овој опит прв го документирал античкиот грчки историчар Плутарх во неговото дело Споредбени живописи. Ова прашање пред Плутарх го разгледувале Хераклит и Платон.
Серл како спротивност на силна ВИ нуди слаба ВИ. Според слабата ВИ, компјутерите само симулираат мисла, така што нивното привидно разбирање не е вистинско разбирање. Во разгледувањето на аргументот Кинеска соба, Серл тврди дека постои важна разлика помеѓу симулацијата и дуплирањето. Серл: „Никој не би ги помешал компјутерските симулации на времето за време, или компјутерските симулации на варење со вистинското варење. Исто така, сериозна грешка е да се мешаат компјутерските симулации на разбирање со разбирањето." На прв поглед, ова изгледа точно. Но, се појавуваат и нови прашања, бидејќи не е јасно дека секогаш може да се направи разлика помеѓу симулација и вистинска работа. Срцата се биолошки органи, но дали вештачките срца се симулации на срца? Или тие се функционални дупликати на срцето (т.е. срца од различни материјали)? Исто така, ако свеста е сложен концепт, својствата на повисоко ниво се доволни за да се создаде свест, така што е можно да се занемарат детали како што се невроните.
Поврзано
[уреди | уреди извор]- Материјализам
- Објаснета свест (книга од Даниел Денет)
- Когнитивна наука
- Етика
- Критика на чистиот ум (книга од Имануел Кант)
Наводи
[уреди | уреди извор]- ↑ Searle, John R. (1998). Mind, language, and society : philosophy in the real world [Ум, језик и друштво: филозофија у стварном свету] (1st ed. изд.). New York, NY: Basic Books. ISBN 0-465-04519-7. OCLC 40678642.CS1-одржување: излишен текст (link)
- ↑ 2,0 2,1 2,2 2,3 2,4 Грешка во Lua: bad argument #1 to 'match' (string expected, got nil)
- ↑ 3,0 3,1 „Серлов закључак из аргумента Кинеске собе“.
- ↑ „компјутер у посматрачки релативном погледу“.
- ↑ „Лајбницов мисони експеримент“. Архивирано од изворникот на 3 јули 2011. Посетено на 30 април 2016.
- ↑ Monadology (англиски), 2022-08-25, Посетено на 2023-01-23
- ↑ „Серл о детерминизму“.
- ↑ „Серл о компатибилизму“.
- ↑ „туринг тест“. Архивирано од изворникот на 2 јули 2008. Посетено на 30 април 2016.
- ↑ „субјективност туринговог теста“.
- ↑ 11,0 11,1 „свест релативна од посматрача“.
- ↑ Грешка во Lua: bad argument #1 to 'match' (string expected, got nil)
- ↑ Marvin Minsky on Consciousness (српски), Посетено на 2023-01-23
- ↑ „Марвин Мински и Даниел Денет“.
- ↑ „Марвин Минскијева књига друштво ума“.
Надворешни врски
[уреди | уреди извор]- General presentations of the argument :
- Кинеска соба — Семрежна енциклопедија на филозофијата (англиски)
- The Chinese Room Argument. Stanford Encyclopedia of Philosophy
- Understanding the Chinese Room, Mark Rosenfelder
- Sources involving John Searle :
- Chinese room argument by John Searle on Scholarpedia
- The Chinese Room Argument Архивирано на 7 мај 2021 г., part 4 of the September 2, 1999 interview with Searle Philosophy and the Habits of Critical Thinking Архивирано на 13 јуни 2010 г. in the Conversations With History series
- John R. Searle, “What Your Computer Can’t Know” (review of Luciano Floridi, The Fourth Revolution: How the Infosphere Is Reshaping Human Reality, Oxford University Press, 2014; and Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014), The New York Review of Books, vol. LXI, no. 15 (October 9, 2014), pp. 52–55.
- Criticism of the argument :
- A Refutation of John Searle's "Chinese Room Argument" Архивирано на 3 февруари 2010 г., by Bob Murphy
- Грешка во Lua: bad argument #1 to 'match' (string expected, got nil), PDF at author's homepage Архивирано на 19 јули 2011 г., critical paper based on the assumption that the CR cannot use its inputs (which are in Chinese) to change its program (which is in English).
- Wolfram Schmied (2004). „Demolishing Searle's Chinese Room“. arXiv:cs.AI/0403009.
- John Preston and Mark Bishop, "Views into the Chinese Room", Oxford University Press, 2002. Includes chapters by John Searle, Roger Penrose, Stevan Harnad and Kevin Warwick.
- Margaret Boden, "Escaping from the Chinese room", Cognitive Science Research Papers No. CSRP 092, University of Sussex, School of Cognitive Sciences, 1987, OCLC 19297071, online PDF, "an excerpt from a chapter" in the then unpublished "Computer Models of Mind: : Computational Approaches in Theoretical Psychology", ISBN 0-521-24868-X (1988); reprinted in Boden (ed.) "The Philosophy of Artificial Intelligence" ISBN 0-19-824854-7 (1989) and ISBN 0-19-824855-5 (1990); Boden "Artificial Intelligence in Psychology: Interdisciplinary Essays" ISBN 0-262-02285-0, MIT Press, 1989, chapter 6; reprinted in Heil, pp. 253–266 (1988) (possibly abridged); J. Heil (ed.) "Philosophy of Mind: A Guide and Anthology", Oxford University Press, 2004, pages 253–266 (same version as in "Artificial Intelligence in Psychology")
|