Кока-кола и секрет Китайской комнаты. Васильев В. В.

В.В. Васильев (Москва)

Многие согласны, что история философии – это история аргументации по традиционным фундаментальным вопросам. Плодотворность той или иной эпохи определяется масштабностью набора аргументов, придуманных в ее рамках. XX век в этом смысле оказался на очень высоком уровне. Одним из самых обсуждаемых философских доказательств, изобретенных в истекшем столетии, стал так называемый Аргумент китайской комнаты, предложенный знаменитым американским философом Джоном Сёрлом в 1980 году.

Популярность аргумента Сёрла, презентованного им в статье «Сознания, мозги и программы» и повествующего о человеке-компьютере, скрытом в особой комнате, которая позволяет создать впечатление его владения китайским языком для людей вовне, хотя он совершенно не понимает по-китайски, связана с тем, что ему удалось подорвать веру в создание искусственного аналога человеческого интеллекта. Эта идея вдохновляла множество когнитивных ученых1, и неудивительно, что они попытались ответить Сёрлу. Все эти многочисленные ответы2 и породили мощный резонанс, вызванный его Китайской комнатой. Некоторые, в частности П. Хэйс, в шутку даже предлагали переопределить когнитивную науку как «исследовательскую программу, направленную на доказательство ложности сёрловского Аргумента китайской комнаты»3. По прошествии четверти века можно, однако, констатировать, что сёрловская Комната хотя и расшаталась, но устояла. В этой статье я попытаюсь показать, что она устояла потому, что критические нападки на Сёрла исходили в основном от когнитивных ученых. Их ангажированность идеей компьютерного аналога человеческого интеллекта мешала акцентировать важный дефект Китайской комнаты4.

Начнем с небольшого экскурса в историю вопроса. Злые языки говорят, что Сёрл заимствовал свой аргумент у Нэда Блока5 , который в 1978 г. предложил мысленный эксперимент Китайская нация, направленный против функционализма (тесно связанного с компьютерной метафорой сознания, которая принята в когнитивной науке)6. Сам Сёрл, однако, рисует нам совершенно иную картину: «В первые дни когнитивной науки существовал некий фонд под названием "Слоан Фаундейшн”, который давал людям деньги, чтобы они ездили по стране с лекциями. Нас в шутку величали Слоанскими рейнджерами. Меня позвали в Йель прочитать лекцию в Лаборатории искусственного интеллекта. Я понятия не имел об искусственном интеллекте. Я купил книгу Роберта Шэнка и Роберта Эбелсона, из этой лаборатории, чтобы почитать в самолете. Я читал ее в самолете, и там шла речь о программах, понимающих рассказы. И я подумал: да это же смешно! Есть простое опровержение. Пусть это будет китайский рассказ и пусть я буду компьютером. Я все равно не буду понимать рассказ. Так появился Аргумент китайской комнаты»7

Суть аргумента Сёрла ясна уже из приведенной цитаты. Но, разумеется, нужно уточнить его позицию. Сёрл хочет сказать, что если удалось написать программу, симулирующую, или эмулирующую, деятельность человеческого интеллекта и успешно проходящую классический тест Тьюринга, т. е. продуцирующую вербальное поведение, внешне неотличимое от поведения разумного человека, то из этого не следует, что компьютер, исполняющий такую программу, действительно разумен. И не следует этого потому, что человек, который располагал бы такой программой, или даже инсталлировал ее в свой собственный мозг, т. е. на время стал компьютером, вовсе не обрел бы реального понимания тех вещей, понимание которых эмулируются данной программой. Если, к примеру, этот человек не изучал китайский и знает лишь программу, написанную на понятном ему языке и позволяющую выдавать «правильные» китайские ответы на китайские же вопросы, то усвоение такой программы ничуть не приближает его к пониманию китайской речи. Дело в том, что программы, напоминает Сёрл, имеют синтаксический характер, а человеческое понимание семантично. В программе, находящейся в Китайской комнате, прописано лишь то, что одна последовательность иероглифов, т. е. задаваемые вопросы, имплицирует другую последовательность иероглифов – ответы на них. Но знания этих импликаций явно не достаточно, чтобы испытуемый понял, о чем его спрашивают. Ведь значение китайских символов скрыто от него. При этом для внешних наблюдателей, общающихся с испытуемым в Китайской комнате через терминал, такой человек, как утверждает Сёрл, вел бы себя совершенно «по-китайски». Соответственно, неспособность внешних наблюдателей отличить ответы человека от ответов компьютера (или человека-компьютера) и в самом деле не означала бы, что последний что-то реально понимает.

Рассуждения Сёрла выглядят убедительно. Но их надо структурировать. Что, собственно, убедительного в его рассуждениях? Ответ состоит в том, что ему удается наглядно показать, что исполнение программы, эмулирующей один из аспектов человеческого интеллекта, лингвистическую компетентность, не сопровождается человеческим же осознанным пониманием. Вопрос, однако, в том, удается ли ему показать, что осознанным пониманием не сопровождается исполнение программы, не просто эмулирующей, а успешно эмулирующей лингвистическую компетентность, т. е. проходящей тест Тьюринга. Присмотревшись к рассуждениям Сёрла, мы увидим, что он просто допускает, что программа в Китайской комнате справляется с этим тестом. Заметим также, что это допущение является существенным моментом всей его аргументации. Ведь если программа не проходит тест Тьюринга, т. е. если ее ответы не выглядят разумными для внешних наблюдателей, то нет оснований приписывать исполяющей ее инстанции какое-либо реальное понимание.

В более поздних работах Сёрл действительно четко проговаривает, что, отрицая возможность «сильного искусственного интеллекта», т. е. тезис о принципиальной эквивалентности естественного и искусственного интеллекта, он в то же время отстаивает теорию «слабого искусственного интеллекта», говорящую о возможности компьютерной эмуляции любых интеллектуальных способностей и функций человека8. В частности, он не считает нереальным создание такой программы, которая будет продуцировать вербальное поведение, неотличимое от действий естественного интеллекта человека. 

Посмотрим теперь, как можно мыслить такую программу. Допустим, я знаю китайский и веду диалог с Сёрлом, запертым в его Комнате вместе с этой программой и целыми горами иероглифов. Допустим также, что перед экспериментом я зашел в комнату и поставил банку кока-колы на стол, за которым будет сидеть Сёрл9. И вот мы начинаем наш диалог. Я спрашиваю Сёрла по-китайски: «Скажите, что находится прямо перед Вами?» По идее, он должен обратиться к программе, в которой должен содержаться ответ: «банка кока-колы». Но как мог человек, составивший его программу, знать, что я принесу в Китайскую комнату именно этот предмет? Такую программу могло бы написать только всезнающее существо. Но даже в этом случае ее нельзя мыслить непротиворечиво, так как в нее должно быть включено абсурдное условие, что я не смогу ознакомиться с этой программой – в противном случае ничто не мешало бы мне принести в комнату что-то другое10. А если в программе не прописан ответ с кока-колой, то я сразу разгадаю, что диалог со мной ведет не носитель китайского языка, а компьютерная пустышка. 

Одним словом, простейший вопрос «что перед Вами?» сразу разрушает иллюзию возможности реализации «слабого искусственного интеллекта» исключительно синтаксическими средствами. Но шанс для отступления у Сёрла еще остается, и он пользуется им (хотя и не в связи с подобными вопросами, а при рассмотрении того, применима ли его модель в других ситуациях). В комнате, помимо Сёрла, должен был бы находиться робот (или, по оригинальной версии, сам Сёрл мог бы находиться внутри этого робота11). Получая вопрос «что Вы видите перед собой?», Сёрл обращается к программе, в которой указано, какие именно китайские команды надо дать роботу в подобном случае, причем испытуемый может даже и не знать, что это некие команды, а не что-либо еще. Дальше робот нацеливает свою телекамеру на нужное место, распознает предмет и переводит полученные им данные на китайский язык. После этого Сёрл передает окончательный ответ за пределы комнаты. В итоге кажется, что он справился со своей задачей, но по-прежнему абсолютно не понимает, о чем идет речь, так как общение с роботом (если Сёрл вообще знает о его существовании) ведется по-китайски. 

Нетрудно, однако, заметить, что модификация Китайской комнаты и размещение в ней Китайского робота – или, по большому счету, превращение Комнаты в Робота, в роли бездумного и не очень нужного помощника которого выступает Сёрл – в корне меняет условия мысленного эксперимента, в противоположность утверждениям автора Китайской комнаты12. Во-первых, робот наделен собственной программой, которая неизвестна Сёрлу, тогда как первоначально предполагалось, что Сёрл знает и исполняет всю программу, позволяющую эмулировать языковую компетентность. Во-вторых, программа, инсталлированная в робота, имеет весьма специфический, квази-семантический характер. Ведь в этой программе должны быть прописаны не только соотношения между иероглифами, но и отношения иероглифов к определенным неиероглифическим, физическим данным, получаемым его телекамерой, и эти данные, в отличие от иероглифов, были бы понятны Сёрлу, если бы он имел возможность ознакомиться с ними. Соответственно, если предположить, что, в согласии с изначальными допущениями, Сёрл знал бы всю программу или совокупность программ, позволяющих эмулировать осмысленную китайскую речь, он начал бы понимать по-китайски. В самом деле, представим, что Сёрл узнает программу робота. В таком случае он поймет, что такое-то движение его телекамеры соответствует такой-то китайской команде, что наличие перед телекамерой предметов определенного вида обозначается такими-то иероглифами, что другой тип предметов обозначается другими и т. п. Но подобное знание как раз и позволит ему насытить синтаксические аспекты китайского языка семантическим содержанием13

Одним словом, между Китайским роботом и Китайской комнатой нет отношения эквивалентности. То, что проходит для Комнаты, не проходит для Робота. В Китайской комнате человек действительно ничего не понимает, она исключительно синтаксична. Но и возможности этой комнаты крайне ограниченны. Она не может рассматриваться как реализация проекта «слабого искусственного интеллекта». А раз так, раз она не может пройти тест Тьюринга, то вывод Сёрла об отсутствии в такой комнате реального понимания утрачивает интерес: он интересен только если Комната проходит тест Тьюринга. Поэтому Сёрлу нужно, чтобы программа могла справиться с этим тестом. Пройти его, возможно, мог бы Робот (по крайней мере, противоположное утверждение далеко не очевидно). Но знание его программы и инсталляция ее в человека приводят к тому, что он усваивает не только синтаксис, но и семантику языка (хотя саму программу робота по-прежнему можно интерпретировать как синтаксическую, так как она работает с формальными характеристиками)14, не только связи означающего, но и его отношение к означаемому.

Таким образом, секрет и одновременно дефект Китайской комнаты, мысленного эксперимента, придуманного Сёрлом, состоит в некорректном отождествлении Китайской комнаты и Китайского робота. Оно некорректно, но именно оно позволяет достичь эффекта чуть ли не очевидности различий человеческого и искусственного интеллекта. Китайская комната используется для демонстрации различий между ними, а Китайский робот для убеждения, что человеческий интеллект в целом мог бы быть программно эмулирован. Но лишь при отождествлении Комнаты и Робота мог бы сделать решающий вывод: полное программное эмулирование человеческого интеллекта сохранит пропасть между ним и искусственным интеллектом. Поскольку, однако, как мы видели, это отождествление неправомерно, Аргумент китайской комнаты не достигает своей цели.

Возражения, подобные приведенным выше, высказывались и раньше – в частности, Д. Деннетом и особенно С. Харнадом (который, кстати, и дал жизнь той самой статье Сёрла, будучи редактором журнала, в котором она была первоначально опубликована). Однако эти и сходные возражения, как правило, делались в несколько смазанном контексте, а именно без акцентирования неэквивалентности Китайской комнаты и Китайского робота15, или же крайне ограниченных эмулятивных ресурсов Комнаты16. Отсутствие этих акцентуаций можно объяснить тем, что подобные возражения обычно исходили от когнитивных ученых, которым субъективно трудно признать неэффективность чисто синтаксических программ, задействованных в Китайской комнате17. Результатом же такой неопределенности стало то, что контраргументы, осмысленные в роботизированном контексте, применялись и к Китайской комнате, где они выглядят просто абсурдными. В частности, речь идет о так называемом «системном ответе» Сёрлу, суть которого состоит в том, что хотя Сёрл в Китайской комнате действительно не понимает по-китайски, Комната в целом может обладать лингвистической компетентностью. Что в этой комнате может понимать язык, остается загадкой. В случае с Китайским роботом, однако, «системный ответ» выглядит гораздо более убедительно. Ведь Сёрл лишь часть робота, и если бы он исполнял всю его программу, он понимал бы по-китайски – соответственно можно допустить, что в роботе есть нечто, обладающее действительным пониманием. Однако если мы ошибочно допустим эквивалентность Комнаты и Робота, нам придется совершенно безнадежно защищать системный ответ и в его «комнатном» варианте18

Итак, сёрловская Комната не работает. Это значит, что она не позволяет убедиться в невозможности «сильного искусственного интеллекта». Но, разумеется, из этого еще не следует, что он возможен, т. е. из этого не следует, что полная программная эмуляция вербального поведения человека необходимо сопровождается реальным, т. е. осознанным пониманием. В самом деле, Сёрл по-прежнему может настаивать на своем. Ведь даже у Китайского робота понимание языка не очевидно. Сёрл, сидящий в нем, не понимает по-китайски, а та часть робота, которая взаимодействует с внешним миром и транслирует свои данные Сёрлу, тоже не выглядит сознательным существом. Правда, как мы видели, Сёрл уже не может демонстративно доказать зомбиподобность этого робота как цельной системы, но, по крайней мере, такую зомбиподобность можно мыслить в качестве гипотезы. Но, на мой взгляд, эта гипотеза все же ложна.

Представим, что мы создаем робота-зомби, который должен будет успешно проходить «расширенный», или «тотальный», тест Тьюринга, т. е. робота, поведенчески неотличимого от обычного человека. Посмотрим, как он будет работать. Спросим его, к примеру, нравится ли ему кола. Удовольствие или страдание, получаемые от колы, это «квалиативные» состояния. Зомби лишен таких состояний. Поэтому он должен эмулировать свое удовольствие или неудовольствие, а также и другие квалиа – иначе он не пройдет указанный тест. Для возможности такой эмуляции надо допустить, что каждое квалиативное состояние заменено у него каким-то физическим состоянием, и эти состояния могут фиксироваться в его вербальных отчетах. Итак, если зомби в указанном смысле возможны, то все ментальные состояния можно заменить физическими состояниями, играющими равнозначные функциональные роли. Вопрос в том, можно ли найти точные физические субституты ментальных состояний.

Базовые ментальные состояния интенциональны, и их функционирование зависит от того, каким содержанием, контентом они наполнены. Контент ментальных состояний – не что иное, как ментальные образы, переносимые в настоящее из прошлого опыта, из памяти. Таким образом, робот, эмулирующий человеческое поведение, должен быть наделен физическими компонентами, позволяющими ему реагировать на наличную ситуацию сообразно его индивидуальной истории. Кажется, что конструирование такого робота не является невозможным. Но есть одна деталь. Все мы признаем, что в нашем детерминистическом мире одинаковые события имеют одинаковые последствия, но при этом допускаем, что одни и те же локальные события – простые или комплексные – могут вызываться разными причинами19. Условно говоря, предмет может оказаться в некой точке, двигаясь к ней с самых разных направлений. Я не вижу оснований не распространять этот вывод на нашего гипотетического робота. И если это правомерно, то получается, что такой робот должен реагировать на окружение независимо от того, каким образом он пришел к своей нынешней кондиции. Для его поведения значима не его индивидуальная история, а его наличное состояние. Конечно, это наличное состояние отражает события, происходившие с ним в прошлом. Но оно с тем же успехом могло бы отражать и совершенно другие прошлые события. Напротив, человеческая память, по крайней мере эпизодическая память, задействованная в рациональном поведении, имеет индивидуализированный характер. Индивидуальное прошлое не растворяется в нейтральных нейронных кодах, а продолжает существовать на уровне ментальных образов. И именно в таком качестве оно – это прошлое – оказывает влияние на наше поведение. Поскольку эта особенность, как мы видим, не может быть репродуцирована на механическом уровне, проект создания зомбиподобных роботов, похоже, не имеет серьезных перспектив. 

Если согласиться, что функциональные механические двойники человека – зомби – невозможны, или, иными словами, что не работает не только Китайская комната, но и Китайский робот, то это означает, что любой успешный бихевиориальный дубликат человека должен обладать субъективными ментальными состояниями, что, собственно, и требовалось доказать. Иными словами, если кому-то удастся сконструировать бихевиориальную копию человека, то эту конструкцию с полным правом можно будет наделять феноменальным опытом. Но чтобы понять, какими физическими параметрами должна обладать эта мыслящая и чувствующая машина, необходимо решить знаменитую «трудную проблему сознания»20 , понять, почему в мозге вообще порождаются ментальные состояния. А на этот вопрос, как мне кажется, можно ответить лишь когда мы уточним соотношение каузального вклада, вносимого в человеческое поведение ментальными состояниями, с одной стороны, и физическими процессами в мозге – с другой. И здесь прежде всего надо отвести вариант с эпифеноменализмом, согласно которому ментальные состояния вообще не вносят каузального вклада в поведение. Не говоря уже о противоречии этой позиции здравому смыслу, она может быть прямо опровергнута доводами, уже намеченными в данной статье. Если ментальные состояния скоррелированы с поведением (это не отрицают и эпифеноменалисты) и если один и тот же мозг может кодировать разные системы ментальных контентов, то знания о состоянии мозга недостаточно для предсказания поведения, и для подобного предсказания его надо дополнить знанием о ментальных состояниях. А это и означает, что последние каузально действенны21

Но раз ментальные состояния обладают реальной действенностью, мозг не может рассматриваться как каузально замкнутая физическая система, подчиняющаяся классическим законам механики22. Отсюда можно заключить, что прогресс в понимании особенностей процессов, порождающих сознание, может наметиться в тех областях нейронауки, где уделяется внимание «неклассическим» подходам к пониманию работы мозга. Некоторые из предложенных решений – в частности гипотеза Р. Пенроуза и С. Хамероффа о квантовых эффектах в так называемых микротрубочках (органеллах нейронов)23 – по сути уже провалились, но сама тема становится все актуальнее24

Вернемся, однако, к Китайской комнате Сёрла. Какой же вердикт можно вынести относительно этого знаменитого эксперимента? Если аргументы, приведенные в этой статье, верны, то вердикт оказывается весьма своеобразным: Китайская комната, при ее адекватном толковании, доказывает прямо противоположное тому, что хотел доказать с ее помощью Сёрл. Напомним, что он собирался продемонстрировать ошибочность концепции «сильного искусственного интеллекта», т. е. тезиса, что компьютер, эмулирующий человеческое поведение, с необходимостью обладает реальным пониманием и другими модусами сознания. При этом он не отрицал возможности механического эмулирования поведения, т. е. «слабого искусственного интеллекта». Продумывая обстановку его Китайской комнаты, мы, однако, приходим к выводу, что она скорее помогает уяснить нереальность проектов подобного эмулирования, – и соответственно заключить, что если программирование разумного поведения возможно, то реализующая такую программу система с необходимостью будет обладать сознательными состояниями. Одним словом, Китайская комната показывает безальтернативность «сильного ИИ».

___________________

1. И не только вдохновляла, но и кормила их. Сёрл считает, что шумиха вокруг его аргумента связана еще и с тем, что он поставил под угрозу большие гранты, выделявшиеся на исследования по искусственному интеллекту. См.: Blackmore S. Conversataions on Consciousness: What the Best Minds Think about the Brain, Free Will, and What It Means to be Human. N. Y. , 2006. P. 209. 

2. Только за первые двадцать лет после выхода статьи Сёрла было опубликовано не менее 250 работ, специально посвященных его аргументу. См.: Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, ed. by J. Preston and M. Bishop. N. Y., 2002. P. 393–403. Прекрасный обзор наиболее значимых возражений – Cole D. The Chinese Room Argument // Stanford Encyclopedia of Philosophy, 2004 (http://plato.stanford.edu/entries/chinese-room).

3. См.: Harnad S. Minds, Machines, and Searle 2: What’s Right and Wrong about the Chinese Room Argument // Views into the Chinese Room, P. 295.

4. Впрочем, среди критиков Аргумента китайской комнаты был и сам Сёрл. Речь идет не о том, что он отказался от этого аргумента, скорее он считает, что в нем он все еще шел на поводу у когнитивистов, допуская объективную реальность программ и компьютеров. В действительности, как доказывает он в ряде поздних работ, они существуют не сами по себе, а лишь при условии существования людей, интерпретирующих те или иные материальные объекты в качестве программ или компьютеров – см. напр.: Searle J. Mind: A Brief Introduction. N.Y., 2004. P. 91–92. Однако эти доводы были давно опровергнуты Д. Чалмерсом (Chalmers D. The Conscious Mind. Oxford, 1997 (1996), P. 315–320), и я не буду принимать их во внимание в данной статье.

5. См. напр.: Pinker S. How the Mind Works. L., 1999 (1997). P. 93. Так полагает и сам Блок. Но большинство справедливо считает, что структура аргумента Блока, подразумевающего симулирование населением Китая работы нейронов мозга, существенно иная, нежели у Сёрла.

6. Block N. Troubles with Functionalism // Minnesota Studies in the Philosophy of Science, 1978, 9. P. 261–325.

7. Faigenbaum G. Conversations with John Searle. LibrosEnRed (2003). P. 54.

8. Searle J. The Mystery of Consciousness. L., 1998 (1997). P. 17: «Я отрицаю Сильный ИИ, но принимаю Слабый ИИ». Еще более определенно Сёрл говорит об этом в 9 главе своей программной работы «Новое открытие сознания» - Searle J. The Rediscovery of the Mind. Cambridge MA, 1992. Эмуляция, поясняет он, не тождественна воспроизведению. Мы не промокнем, эмулируя грозу.

9. Подобное действие не противоречит условиям мысленного эксперимента Сёрла, предполагающего всего лишь отсутствие непосредственного перцептивного контакта с испытуемым.

10. Кстати, подобные программы неявно исключаются Тьюрингом, по образцу теста которого построена Китайская комната. См.: Turing A. Computing Machinery and Intelligence. Mind, 59 (1950). P. 433–460. Наиболее очевидно это из финала 6 параграфа данной статьи Тьюринга.

11. См. Searle J. Minds, Brains, and Programs // The Nature of Mind, ed. by D. Rosenthal. N.Y., 1991. P. 514. Первоначально опубликована в: The Behavioral and Brain Sciences, 3 (1980). P. 417–424.

12. «Тот же самый мысленный эксперимент, – пишет Сёрл, – применим и к случаю с роботом» (ibid.)

13. Все это, конечно, не означает, что это содержание будет тождественным тому, которое можно было бы зафиксировать, если бы Сёрл был обычным носителем китайского. Его иероглифы будут непосредственно соотнесены с физическими изменениями в разнообразных сенсорах робота (и косвенно с физическими причинами этих изменений), а не с человеческими квалиа, отчасти выступающими значениями обыденных слов. Но само по себе это еще не отменяет вывода о понимании Сёрлом китайского: мы не отрицаем, что китайскому в принципе могли бы научиться существа с совершенно разными сенсорными системами и квалиа. Однако если нельзя систематически интерпретировать одни через другие (т. е. значения иероглифов у робота и у обычного человека), то из этого следует лишь, что зомби-роботы не смогут справиться с тестом Тьюринга. Но не будем забегать вперед. Пока лишь констатируем, что, зная программу или устройство робота, Сёрл непременно обретет семантическую информацию о китайском языке.

14. «Программа цифрового компьютера по определению состоит из наборов чисто формальных операций с формально определенными символами» - Searle J. The Myth of the Computer // New York Review of Books, 29/7 (1982). P.4. Сёрл часто повторяет, что истинность Аргумента китайской комнаты зависит просто от «логической истины» о различии синтаксиса и семантики. Программы по определению синтаксичны, а человеческое понимание семантично. Очевидно, однако, что этого недостаточно, так как данное различение не может исключить возможность того, что при исполнении определенных программ с необходимостью генерируется семантика.

15. См. напр.: Blackmore S. Consciousness: An Introduction. N. Y., 2004 (2003). P. 205–206.

16. К примеру, Харнад признает, что Китайская комната может пройти тест Тьюринга безо всякого понимания китайского языка сидящим в ней человеком, но при этом утверждает, что Робот может пройти Тотальный тест Тьюринга (подразумевающий не только языковую, но сеносоро-моторную компетентность) только при условии, что человек в нем ощущает мир. См.: Harnad S. Grounding Symbols in the Analog World with Neural Nets: A Hybrid Model // Think, 1993, 2, 12–20. Однако чтобы опровергнуть этот вывод вовсе не обязательно прибегать к экзотическим мысленным экспериментам, как поступили С. Брингсджорд и Р. Ноэл (Real Robots and the Missing Thought-Experiment in the Chinese Room Dialectic // Views into the Chinese Room, P. 144 – 166). В самом деле, если Китайская комната проходит тест Тьюринга, т. е. если возможно написать такую программу, которая позволит давать внешне осмысленные ответы на любые вопросы, касающиеся в том числе и обстановки этой комнаты, то вполне можно написать и такую программу, которая будет давать внешне осмысленные команды роботу в зависимости от его окружения, заранее прописанного в программе. Человек, управляющий таким чудесным роботом, может и не смотреть в его телекамеры, т. е. «видеть» его окружение, вовсе и не видя его.

17. Хотя по сути эта ограниченность была признана самим фактом активного развития коннекционистских моделей искусственного интеллекта, пришедших на смену символьным подходам. Вопрос о том, насколько существенны эти изменения, остается, впрочем, крайне неясным.

18. См. напр.: Dennett D. Consciousness Explained. Boston, 1991. P. 435–440.

19. Иллюстрацией может послужить клеточный автомат Life британского математика Дж. Конвея, с высокой степенью правдоподобия имитирующий детерминистический универсум. О значении модели Конвея – см.: Dennett D. Freedom Evolves. L., 2004 (2003). P. 36–47.

20. Chalmers D. Facing up to the Problem of Consciousness // Journal of Consciousness Studies, 1995, 2. P. 200–219. Cм. также: Blackmore S. Conversataions on Consciousness, P. 41–47.

21. Подробнее см.: Vasilyev V. Why is it so difficult to find neural correlates of consciousness? // Toward a Science of Consciousness 2006. Tucson, 2006. P. 99–100.

22. Хотя из этого не следует, что, отвергая «локальный эпифеноменализм», т. е. тезис, что ментальные состояния не имеют значения для функционирования такой локальной системы, как мозг, мы автоматически отрицаем каузальную замкнутость физического в глобальном плане.

23. Hameroff S., Penrose R. Orchestrated Objective Reduction of Quantum Coherence in Brain Microtubules: The "Orch OR" Model for Consciousness // Toward a Science of Consciousness, ed. by Hameroff, S.R., Kaszniak, A.W. and Scott, A.C., Cambridge MA, 1996. P. 507–540.

24. См., напр.: The Emerging Physics of Consciousness, ed. by J. Tuszynski. B., 2006; Rosenblum B., Kuttner F. Quantum Enigma: Physics Encounters Consciousness. N. Y. 2006.

Источник: Философия сознания: классика и современность. - М.: издатель Савин С. А., 2007. - 86-94 с.

Рекомендуем прочитать