CO Roboti mohou a nemohou být

23 Aug 2:52 pm


Original: http://homepages.rpi.edu/~brings/precis.wrccb.2.html

Kluwer Academic Publishers, 1992
10 kapitol, 380 stran
Selmer Bringsjord
Katedra filozofie, psychologie a kognitivní věda
Ústav výpočetní techniky
Rensselaer polytechnický institut
Troy, NY 12180
selmer@rpi.edu * http://www.rpi.edu/ ~ přináší
Abstrakt: Tato kniha tvrdí, že (1) AI bude pokračovat ve výrobě strojů s kapacitou projít silnější a silnější verzí Turingova testu, ale že (2) “Osoba Building Project” (pokus AI a kognitivní vědy stavět stroj, který je osobou) bude nevyhnutelně selhat. Obrana (2) spočívá z velké části na vyvrácení tvrzení, že lidé jsou automaty – argument zahrnující celou řadu otázek, od svobodné vůle Gödel k introspekci na Searle i mimo ni. Obrana (1) přivádí čtenáře tváří v tvář s Sherlocka Holmese a Dr. Watsona se zabývají snad svůj nejtěžší případ (Silver Blaze) Výsledkem této návštěvy se duo Conana Doylea je algoritmus, skica k řešení záhadné vraždy. Autorova mechanický přístup k psaní beletrie a filozofické straně počítačového příběhu generace jsou také diskutovány.

KLÍČOVÁ SLOVA: behaviorismus, čínského pokoje Argument, poznání, vědomí, konečný automat, svobodná vůle, funkcionalismus, introspekce, mysl, příběh generace, Turingovy stroje, Turingův test.

I. Kapitola 1: Úvod
I.1 obecné poloze
1.. Moje kniha (Bringsjord 1992a) tvrdí, že umělá inteligence bude nakonec vyrábět roboty (nebo androidi), jejichž chování je oslňující, ale nebude vyrábět robotické osob. Roboti budou dělat hodně, ale nebude mnoho. Čtenář požádáni, aby ohodnotili tento nárok na základě mou obranu této pozici (a další argumenty v literatuře), spíše než na základě kluzkých metadisputes o tom, zda své pozice a argumenty pro to jsou prima facie přijatelné.

2.. Můj postoj dobře koreluje s poklesem behaviorismu, a konkrétně zřejmé úpadku behavioristic Turingův test (viz Rey, 1986) a libovolný počet Turing-jako testů navržených v literatuře [Poznámka # 1]. Čtenáři znají pouze původní zkoušky Turing (Turing, 1964), a to s rozdíly, které byly získány z ní, si představit, nyní stále přísnější sekvenci Turing-jako testy T1, T2, T3, …, první člen, který je původní imitace hra. Jak se sekvence vznikají? V T2 můžeme dovolit soudce sledovat fyzický vzhled soutěžících, T3 můžeme dovolit soudce, aby žádosti týkající se chování sensorimotor ze soutěžících, v T4 můžeme dovolit soudce, aby se kůže vzorků, v T5 bychom mohli aby soudce spustit skenování mozku, pak chirurgické sondy, a tak dále. Jde o to, že můžeme skoro jisti, že AI bude postupně stoupat sekvenci, že brzy budeme mít T.75, případně T1 (i když asi ne 2000, jak Turing předpověděl), atd. Já si myslí, že roboti budou projít, ne-li všechny, tak alespoň velmi krásní počet zkoušek v pořadí Turingův test, ale vždy chybí některé z vlastností prohlašoval, v části “Co roboti a nemůže být” (dále jen, roboty), se nezbytné pro osobnosti. I bránit tuto pozici s přesnými deduktivní argumenty, které (podle mého názoru), někdy hraničí s důkazy.

I.2 TARGET
3.. Která skupina lidí, co pole nebo disciplína, si klade za cíl přinášet nám tyto mocné roboty? Kandidátské podmínky přetékají: “silné” AI (Searle, 1980), GOFAI nebo starou dobrou umělou inteligenci (Haugeland, 1986), “mazák” Ai (Doyle, 1988), “Osoba Building” Ai (Charniak & McDermott, 1985 , Pollock, 1989), atd. Všechny tyto AI vědci představit stavbu “inteligentní robot,” ten, kdo vyniká v pořadí Turingův test, který je schopen nejen mat vás, ale debatovat vás. Pokud se tato vize bude dříve či později stane se, když jsem si docela jistý, že to bude, pak znovu položit otázku, požádovat teď: Bude roboty, v příštím věku, v němž vynikají v pořadí Turingův test, bude osoby?

4. Nazvěme AI / Sci-Cog projekt stavět osobě “Person stavebního projektu.” PBP označíme tvrzení, že osoba stavební projekt uspěje. Tento projekt je z masa a krve, zastánce optimistický ty. Například podle Charniak a McDermott (1985, s. 7)., “Konečným cílem výzkumu AI (což jsme velmi daleko od dosažení) je vybudovat osoby nebo více pokorně zvířat.” Některé argumenty v roboty, pokud zvuk, může s drobnými změnami, vyvrátit Charniak a McDermott teze, že AI mohou uspět v budování sofistikované zvíře. Ale to, co chci zaútočit přímo je srdcem projektu Osoba budovy: tvrzení, že osoby jsou automaty.

5. Tady, ve zkratce, je důvod, proč si myslím, že osoba stavebního projektu se nezdaří. (Symbol -> znamená implikace materiálu, ~ je zkratka pro pravdu-funkční negace):

(1) PBP -> osoby jsou automaty.

(2) ~ osoby jsou automaty.

Proto:

(3) ~ PBP.

6. To je formálně platný argument: jednoduché modus TOLLENS. Předpoklad (2) je opakovaně založena v ROBOTŮ prostřednictvím konkretizace z jednoduchého schématu, viz,

(4) Osoby, které mají F.

(5) Automaty nemůže mít F.

Proto:

(6) Osoby, které nemohou být automaty.

V knize, F je zkratka pro takové věci jako svobodnou vůli, schopnost neomylně pozorovat se (přes úzký rozsah vlastností), vnitřní “, jaké to je být” zážitek, atd.

7. Proč je (1) pravdivé? Kteří se podílejí na projektu Osoba budovy jsou odhodlány některých přesně vymezených algoritmických technik, které, i když těžko vyčíslit přesně, se používají při konstrukci a programování vysokorychlostní počítač s senzorů a efektorů. Pokud někdo podařilo vybudovat osobu, za stálého míchání do nějaké plodné biologické polévku správným způsobem, nebo nějak kompresi všech evoluce do druhého vývoje, které by mohly být magicky aplikována na jednobuněčné stvoření, nebude to znamenat úspěch osoba stavitelé mám na mysli. To tvrdí PBP je myslet si, že některé výpočetní technika bude vyrábět lidi. Stejně tak je myšlenka, že pomocí těchto technik budete mít štěstí a přivést člověka do existence přes vedlejší účinek toho, co jsi udělal. Tam jsou ty, jejichž konečným cílem je tento nežádoucí efekt – myslitelů, kteří doufají, že vybudování zařízení pro zpracování dat, jejichž struktura je vhodná pro “ensoulment”, zařízení, spolu s kterým osoba, subjekt nepodstatné, pop do existence a spojit se s zařízení nějakým způsobem (viz např. Turkle, 1984). Tito myslitelé nejsou moje starost zde. Obávám se s těmi, kteří si myslí, AI techniky jsou v blízkosti podstaty osobnosti nebo jiným názorům (nebo mentalita mentace, poznání) sám.

8.. Pro takové kognitivní techniky, bude úspěch jejich postupy, které nejsou ukazují, že lidé jsou v zásadě a obecně platí, že jednotlivé počítače, které pracují na. Pokud tým kognitivních inženýrů se podařilo za jejich nejdivočejší sny, a stalo se to naprogramováním Cray 4, nebudou mít nárok za to, že osoby jsou Cray 4s. Není žádný důvod se domnívat, že konkrétní fyzická materiál (konkrétní počítač a periferní komponenty) tvoří roboti vyrobené v rámci projektu Building osoba bude mít zásadní význam. Lidské osoby stalo, že se z masa, nikoliv křemíku, AI (na rozdíl od, řekněme, neurofyziologie) nepracuje s tělem. Takže za PBP je “AI-funkcionalismus”, podle které jsou lidé idealizovaný počítačů. Tato intuice je, jak Haugeland (1986) navrhl, zachytil elegantně slovy “osoby jsou automaty”, nebo alespoň něco, co je velmi blízko.

II. KAPITOLA 2: NAŠE STROJE
9.. Kapitola 2 obsahuje nemocný-a-ready ontologii předpokládalo v celé knize, a podat zprávu o logicko-matematické použitého jazyka. To také charakterizuje personhood na základě některých klíčových prephilosophical dat a obsahuje definice konečných automatů, Turingovy stroje, a buněčné automaty. Pomocí těchto definic jsem objasnit “Lidé jsou automaty”, a rozlišovat mezi různými verzemi tohoto tvrzení, které vznikají, když jeden určuje automat v pochybnost. Já také říci něco o práci církve a přes “Busy Beaver” funkce a váhavý problém, o uncomputability (viz také Bringsjord 1993a, b; Bringsjord & zenzen, v tisku).

III. KAPITOLA 3: ARGUMENTY PRO, zničil
10.. Kapitola 3 představuje vyvrácení pěti argumentů pro to, že osoby jsou automaty: Argument z analogie (Nelson, 1982), argument z Co by měla zůstat Nevysvětlitelné (Dennett, 1976), argument z přirozených funkcí (Burks, 1973), Jak se staví osoba argument (Pollock, 1989), a přesně to, co všichni věří, že argument (Cole, osobní sdělení).

11.. Cole se jeho argument shrnuje takto:

Myslím, že mnozí, jako jsem já, kteří věří, že lidé jsou
automaty Předpokládám, že to, protože vidíme, že neurony se zdají být
konečný pravděpodobnostní automaty, to znamená, že mají vyčíslitelné
přenesou své úkoly. Odtud jsme na vědomí, že mozek je složen
pouze neuronů (neuronové sítě), spolu s některými podpory
struktury, gliové buňky, atd., a že mozky produkovat mentalitu.
(Robots, S. 126)

12.. Ukážu, že tento argument, když je lákavé, je nakonec neudržitelné. Za předpokladu, agenta materialismus a skáče rámec toho, co víme, že tomu tak (že mozek se nosných konstrukcí, výrobu mentality), na to, co mnozí podezřelý případ (tj. mozek, s nosných konstrukcí, jsou osoby), pak argument, Cole se práce – ale taková strategie by byla potřeba nezávislé obranu (Pollock 1989).

13. Celkově Cole Zdá se, že hlasovat “ano” na všech šesti složek soudobé kognitivní Sextet:

(C1) Token Physicalism,
(C2) Agent materialismus,
(C3) funkcionalismus,
(C4) Osoby, které jsou automaty,
(C5) Osoba Stavební uspěje,
(C6) Robot Stavební uspěje.

Můj vlastní hlas na každém, podporuje argumenty v knize, bude:

(C1) Možná
(C2) Možná
(C3) No
(C4) No
(C5) č.
(C6) Ano

IV. KAPITOLA 4: CO MŮŽE BÝT roboty
14.. 4. kapitola obsahuje nějaký důkaz, že roboti budou vystoupit Turingův test sekvence. Dvě otázky jsou řešeny: (1) Jsou záhady druhu řešené Sherlocka Holmese řešitelné expertního systému v budoucnosti? (2) Je možné, aby si počítač psát sofistikované fikce? Tvrdím, že obě tyto otázky by měly být zodpovězeny kladně, můj argument poskytuje důvod k optimismu o pravomoci budoucí robotů. Proč adresa tajemství řešení? Je to jedna z mála konkrétních lidských schopností, které filozof (Manning, 1987) argumentoval, nemůže být uzavřeno stroje. A počítačem generované fikce je můj vlastní oblast výzkumu v kognitivní inženýrství (Bringsjord 1992b). Zbytek robotů se skládá z řady deduktivní argumenty proti projektu Osoba Building.

V. KAPITOLA 5: SEARLE
16.. Můj Searlean (čínského pokoje) útok na osobu domě je založen na Jonáše, imaginární mono savant. Jonah je obdařen těmito pravomocemi. Nemůže – automaticky, rychle, bez vědomého uvažování – snížení vysoké úrovni počítačové programy (v, řekněme, PROLOG a LISP) na super-strohý jazyk, který pohání Registrovat stroj (nebo Turingův stroj). Jakmile se provádí toto snížení může použít své neuvěřitelné síly mentální si představit Registrovat stroj, a vizualizovat tento stroj běžící program, který vyplývá z jeho snížení. Takže pokud dáte Jonáš program LISP, překládá ji do programu rejstříku, a to bez udání myšlenky na cokoliv smyslu programu LISP. Jonáš v určitém smyslu oslabené, zná syntaxi jazyka LISP, ale nemá žádné sémantiku jazyka. On neví, že například (defun …) je řetězec, který definuje funkci, on ani neví, že (+ …) je vestavěný funkce pro sčítání. On to ale víte, jak na to “run” jeho vizualizované Registrovat stroj daného Registrace programu a dat vložte do prvního registru R0. Jonáš je také schopen mít vstup přes jeho smysly a převést jej do vstupu na jeho vizualizované stroje [Poznámka č. 2].

17. To by mělo být zřejmé, jak Jonáš dává vzniknout čínské pokoj podobné situaci jako. Předpokládejme, že je to 2040, a že osoba-stavitelé vyrábí roboty, které Herald osoby. Protože jedním z charakteristických znaků osob, je to, že mohou hovořit a rozumět v přirozené jazyky, bude dotyčná osoba stavitelé tvrdí, že jejich roboti mohou dělat totéž. Pokud tyto roboty konverzovat a pochopit některé přirozeného jazyka L, mělo by to být triviální záležitost, aby si je mluvit a rozumět čínštině. Takže, tady jsme v roce 2040: někteří nepochybně super-dlouhé počítačový program P umožňuje roboty mluvit a rozumět čínštině. A tady je, jak Jonáš vstupuje na scénu. Prostě jsme mu P, zeptejte se ho snížit na program P Registrovat P ‘, a pak požádejte ho běžet P’ na jeho vizualizované rejstříku stroje takovým způsobem, že vstup dáváme jej na kartičkách (řetězce v čínštině) přejde do registr R0 a výstup po zpracování vrátí do R0, načež Jonah plive zpět tento výstup, napíše to za nás na index karty. Jonáš není sám mluví slovo čínštině.

18.. Argument pak probíhá dle následujícího schématu. Zdá se, že osoba, Stavební AI / Sci Cog se zavazuje

(7) Je-li osoba stavební projekt uspěje, pak je
Počítačový program P tak, že když P běží na počítači, že M
je člověk s spojené s M, který rozumí čínštině.

A

(8) Je-li, že je počítačový program P tak, že když P běží
Počítač M je člověk s spojené s M, který
chápe, čínština, pak v případě, Jonah sníží P na P ‘a běží P’
Jonah rozumí čínštině.

Ale

(9) Není to pravda, že když běží Jonáš Jonáš P ‘rozumí
Číňan.

19. Proto, podle hypotetického úsudku a modus TOLLENS vyplývá z těchto tří problémů, které osoba stavební projekt neuspěje. Proposition (9) není třeba pohlížet jako předpoklad, ale jako meziprodukt závěr následující (podle základní logiky) z těchto tří problémů.

(L *) Je-li látka s pochopí dvě přirozené jazyky L0 a L1, pak
vat (možná jen po značném úsilí, které produkuje
rozvláčný překlad) překládat mezi L0 a L1.

(10) Jonáš (podle předpokladu) rozumí anglicky.

(11) Jonáš NELZE překládat mezi angličtině a čínštině.

20. Tři námitky Searlean argumenty se zdají být nejvíce up-to-date a slibné, jeden z Churchland & Churchland (1990;. Viz Searle, 1990), a dva spíše jemnější ty, jeden z Colea, a jeden z Rapaport (osobní komunikace ). I vyvrátit všechny tři.

VI. KAPITOLA 6: libovolná REALIZACE
21.. Začneme s tím, co by mělo být podmíněno nekontroverzní, a to

Pokud osoba, stavební projekt uspěje, pak AI-
Funkcionalismus je pravda.

Nyní předpokládejme, že člověk stavitelé podaří vybudovat robotické osob. Tím, modus ponens, pak jsme samozřejmě mít AI-funkcionalismus, “vývojový diagram” verze (Dennett, 1978), z nichž je

(AI-F) pro každé dva “mozků” xay, případně tvořené
radikálně odlišné fyzikální věci, v případě, že celkový průtok
Informace v x a y, reprezentován jako dvojice diagramech
(Nebo dvojice Turingových strojů, nebo pár Turingova stroje
diagramy, …), je stejná, pak v případě “spojené” s x
je prostředek s v duševním stavu S, je prostředek s ”
spojené s nebo sestávající z y, která je také v S.

22. Nyní se “B” značí mozek nějaká osoba s a pojďme být v duševní stav se bát PURPLE jednorožci. Teď si představte, že Turingův stroj M, což představuje přesně stejný vývojový diagram jako ten, který se řídí B, je postaven z 4000000000 Norů všechny práce na železniční trati v vagóny s křídou a gumy na mazání (atd.), po celém státě Texas. Z této hypotézy a (AI-F), to znamená, že tam je nějaká látka tvořená m M, který se také obává, fialové jednorožce. Ale zdá intuitivně zřejmé, že

Neexistuje žádný agent m tvořený M, která se obává, fialová
jednorožci.

Dosáhli jsme rozpor. Proto náš původní předpoklad, že osoba stavební projekt uspěje, je špatné. Považuji a vyvrátit ty nejlepší námitky vím této úvahy.

VII. KAPITOLA 7: Gödel
23. 7. kapitola je argument, že Godelian neúplnost alespoň ohrožuje tezi, že lidé jsou automaty. Godelian útoky na těchto prací nejsou nové, ale v současné době si většina filozofů a AI výzkumníků bylo nevhodné, možná dokonce poněkud hloupé. Snažím se vzkřísit Godelian případ. Bez prohlašovat, že to je demonstrativní, já se snažím ukázat, že na rozdíl od běžného názoru, je třeba brát vážně. Nedostatek prostoru brání tomu zapouzdření relevantní argumenty zde.

24.. Kniha končí s dvěma argumenty bez precedentu v literatuře, který se týká svobodnou vůli a druhý o introspekci.

VIII. KAPITOLA 8: svobodná vůle
25. Kapitola 8 je přísný rekonstrukce velmi vágní tvrzení, že lidé nemohou být stroje, protože lidé samostatnost, zatímco chování strojů je kauzálně předurčena svými programy pracují ve spojení s přírodními zákony. Na rekonstrukci opírá o tvrzení, hájila v této kapitole, že lidé si to, co já říkám “iterativní agenta příčinu,” názor, že lidé mohou přinést přímo některé ze svých vlastních duševních událostí (např. rozhodnutí), a přinést dosažení z těchto událostí, ad infinitum. Úvaha je následující:

(12) V případě, determinismus, názor, že všechny události jsou kauzálně
vyžadovalo, je to pravda, pak nikdo nemá moc přes jakýkoli
stav věcí.

(13) Je-li indeterminismu, názor, že determinismus je falešný, je to pravda,
potom, pokud lidé mají opakující agenta příčinu, nikdo
kdy má příkon za jakýkoliv stavu.

(14) Buď determinismus nebo indeterminismus je pravda (tautologie).

Proto:

(15) Pokud iterativní agenta příčinné souvislosti je pravda, nikdo nemá sílu
než jakékoli situace. [Z (12) – (14)]

(16) Není-li nikdo nemá moc nad jakékoli situace, nikdo
je vždy morálně zodpovědný za vše, co se stane.

(17) Někdo je morálně zodpovědný za něco, co se stane.

Proto:

(18) To není pravda, že nikdo nemá moc nad každý stav
záležitosti. [Z (16), (17)]

Proto:

(19) Iterační prostředek kauzalita je pravda. [Z (18), (15)]

(20) Je-li iterační zástupce kauzalita je to pravda, pak lidé nejsou
automaty.

Proto:

(21) Lidé nejsou automaty. [Z (8), (9)]

Tato kapitola zahrnuje obranu všech prostorách v tomto argumentu.

IX. KAPITOLA 9: introspekce
26. Kapitola 9 se točí kolem toho, co říkám “hyper-slabý incorrigibilism,” názor, že lidé mají, vzhledem k OMEZENÝM CLASS duševních vlastností, schopnost zjistit neomylně prostřednictvím introspekce, zda mají tyto vlastnosti. Zde je, jak první verze argumentu, který je zaměřen na symbolicist verzi projektu Osoba Building běží. Předpokládejme, že tento projekt bude úspěšný, pak se zdá, že tři věci jsou pravdivé robotů, které budou korunovat úspěchem tohoto projektu:

(22) Je-li některá významná duševní majetek, který mají osoby,
tyto roboty musí mít tuto vlastnost;

(23) předměty z těchto robotů “víry” (naděje, obavy, atd.)
– Předměty jejich propoziční postoje – jsou
zastoupené vzorce nějakého systému, je, a ty
vzorce bude přítomen ve znalostních těchto robotů základen;

(24) Tito roboti budou fyzické konkretizace automatů
(Fyzický substrát, který bude něco jako
proud křemíku hardware, ale může to být něco tak extravagantní
jak opticky vychází paralelní hardware).

27. Z nauky o hyper-slabé incorrigibilism a (22), že silný robot (volat to “r”), nakonec se vyrábí Strong AI / Cog Sci budou moci pozorovat se neomylně s ohledem na určité privilegované sady duševní Vlastnosti C “. To znamená, že z toho vyplývá, že příslušné konkretizace hyper-slabé incorrigibilism je tomu v případě, viz,

(25) pro každou vlastnost F, je-li to člen C “, pak je
nutně pravda, že: pokud se domnívá, r r má F, r je vskutku
mají F.

Ale nyní s ohledem na (23), z toho vyplývá, že (25) vyplývá, že

(26) pro každou vlastnost F, pokud je členem C “, pak
nutně: v případě, že vzorec odpovídající víře R:
že R má F je prvek znalostní báze R, pak
r má skutečně F.

28. Předpokládejme tedy, že máme na obrázku, spolu s naším robotem r, určitá konkrétní vlastnost z C ‘, říkají, že majetek vypadat, že je v bolestech, vlastnost budeme jmenovat “F *”. Z toho vyplývá, že

(27), je logicky nutné, aby: v případě, že vzorec odpovídající
R: víra, že r je F * je znalostní báze R, pak r se
skutečně mají F *.

29. Teď, když dorazil na tomto místě, pojďme se obrátit na jednoduché a dobře známé skutečnosti o hardwaru (žádný hardware), a sice, že je to fyzicky možné (to znamená, že není v rozporu se zákony fyziky), že dojde k selhání hardwaru. V souladu s tím, že je fyzicky možné, že substrát r selže, a vzhledem k tomu, podle pořadí, je fyzicky možné, že tato chyba je příčinou toho, že vzorec se jedná (vzorec odpovídá přesvědčení, r je, že R má F *) je znalostní báze R je:

(28) Je logicky možné, že vzorec v pochybnost je v R:
znalostní báze, zatímco r, nemá F *.

30.. Ale (27) a (28), a to formou základní práva modální logiky (slovem: když je to třeba logicky, že pokud P pak Q, pak to není logicky možné, že i když není P-Q) tvoří protiklad. Proto v rámci nepřímého důkazu, náš původní předpoklad, že osoba symbolicist Stavební podaří, je špatné. Chodím, aby zvážila, a vyvrátit řadu námitek k této argumentaci, včetně jednoho, který pravděpodobně pochází z connectionists.

X. KAPITOLA 10: ZÁVĚR
31. Závěrečná kapitola nabízí retrospektivní pohled na barevné znaky myšlení-experimentálních navštívených podél cesty a dává stručné závěrečné poznámky o celkovém případě pro názoru, že roboti budou do značné míry to, co děláme, ale nebude jeden z nás.

XI. ERRATA
42.. Jsem sestavil seznam překlepů a tak dále (např. s. 19 v seznamu je chyba: první dva podmiňovací mají být předponou zákonitě subjekty a S5 odvoditelnosti tvrzení v souladu 9 by měl mít jeho schématická podmíněno vyžádal; Harnad. (1991) byl vynechán neúmyslně z literatury apod.), ale měl informovat své kritiky, že žádná z těchto závady Zdá se, že kouzlo skutečné problémy pro argumenty v srdci knihy. Pokud některý z mých argumentů selhat, obávám se, že to bude kvůli hlubších defektů.

POZNÁMKY
1.. Pro přehledným diskusi Turingova testu, Total Turingův test, a Celkem Celkem Turingův test, viz (Harnad, 1991). Pro tvrzení, že i přísnější testy, matematicky řečeno, než ty, které považuje Harnad nelze oddělit “myslitele” z nabídky “uchazeči”, viz Bringsjord (1994).

2. Pokud jde o fascinující účet v reálném životě idiot připomínající savant Jonáše, viz případ Christopher, v Blakelee (1991).

REFERENCE
Blakelee, S. (1991) “Brain Výnosy Nové indicie její organizace pro jazyk,” věda Times The New York Times, 10. září str. C1, C10.

Bringsjord, S. (1994) dokázal, jak bychom mohli zjistit, zda, a proč by – Androidi mají vnitřní životy. Kapitola nastávající v epistemologii Android, MIT Press, Cambridge, MA. Ken Ford & Clark Glymour, eds..

Bringsjord, S. (1993a) práce církve, Contra Mendelson, je unprovable … A co je horší: Může být False. Prezentovány na výročním zasedání divize východní části americké filozofické asociace 30. prosince 1993 v Atlantě, Georgia.

Bringsjord, S. (1993b) Směrem Non-Algoritmické AI. V Ryan, K.T. A Sutcliffe, R.F.E., eds. AI a Cog Sci T92, na workshopu v sérii Computing, (New York, NY: Springer-Verlag), s. 277-288.

Bringsjord, S. (1992a) Jaké roboty a nemůže být. Boston: Kluwer.

Bringsjord, S. (1992b) CINEWRITE: Algoritmus-Sketch pro psaní románů filmařsky a dvě záhady něm. Vzdělávací vědy 21: 155-168.

Bringsjord, S. & zenzen, M. (v tisku) V obraně Uncomputable Cognition (Nizozemsko: Kluwer).

Burks, A. (1973) Logic, Počítače a muži. Prezidentské Adresa, západní divize Americké filozofické asociace v Proceedings of the Americké filozofické asociace duben: 39-57.

Charniak, E. & McDermott, D. (1985) Úvod do umělé inteligence (Reading, MA: Addison-Wesley).

Churchland, p.m A Churchland, PS: (1990) Mohl stroj Myslíš? Scientific American 262,1: 32-37.

Dennett, D. (1978) skic (Cambridge, MA: Bradford Knihy, MIT Press).

Dennett, D. (1976) Proč Zákon efektu nezmizí. Věstník teorie sociálního chování 5: 169-187.

Doyle, J. (1988) Velké problémy pro umělou inteligenci. AI Magazine, Spring: 19-22.

Harnad, S. (1991) i jiných orgánů, jiných myslí: Stroj ztělesnění staré filosofický problém. Myšlenky a stroje 1,1: 43-55.

Haugeland, J. (1986): Umělá inteligence Velmi Idea (Cambridge, MA: Bradford Knihy, MIT Press).

Manning, R. (1987) Proč může Sherlock Holmes nelze nahradit expertního systému. Filosofické Studie 51: 19-28.

Nelson R.J. (1982) Logic of Mind (Dordrecht, Nizozemsko: D. Reidel).

Pollock, J. (1989) Jak se staví osoba: prolegomenon (Cambridge, MA: Bradford Knihy, MIT Press).

Rey, G. (1986) Co se skutečně děje v Searlova “čínského pokoje”. Filosofické Studie 50: 169-185.

Searle, J. (1990) je mozkem mysli počítačový program? Scientific American 262,1: 25-31.

Searle, J. (1980) Minds, Brains, a programy. Behavioral a vědy mozku 3: 417-424.

Turkle, S. (1984) Druhé Já (New York, NY: Simon & Shuster).

Turing, AM (1964) výpočetní technika a inteligence. In: Minds a stroje. A. Anderson (ed.), Engelwood Cliffs NJ: Prentice Hall.

Comments are closed