?

Log in

No account? Create an account

Previous Entry | Next Entry

Оригинал взят у i_ddragon в Что там насчёт китайской комнаты Серла?
Тест Тьюринга заключается в следующем. Допустим, некое существо сидит в закрытой комнате, и я имею возможность общатся с этим существом через окошко в комнате, передавая записки с вопросами - а существо будет передавать мне записки с ответами. И если я буду ощущать его ответы осмысленными - то значит, это существо обладает собственным разумом и собственным сознанием, причём связанным с разумом. Говоря об "обладает сознанием, связанным с разумом", я имею в виду, что во время общения оно будет ощущать квалиа понимания. Также например, будет возможен случай, когда я напишу ему что-то для него приятное - а оно не просто напишет в ответ "ура, класс", а действительно ощутит удовольствие. Или если я напишу для него что-то обидное - то оно не просто выдаст в ответ "фу", а действительно ощутит обиду.

Короче говоря, тест Тьюринга поднимает целый пласт философских проблем - существует ли возможность проверить - обладает ли робот некой "душой" - или просто мигает лампочками? Применимо ли к роботу понятие эмпатии (а также садизма) - или эмпатия к роботу это нечто вроде эмпатии к резиновой кукле?

Серл в качестве контраргумента к эффективности теста Тьюринга предлагает следующий мысленный эксперимент - китайская комната Сёрла. По условию эксперимента предлагается вести общение на китайском языке, авместо того существа в комнату садится сам Сёрл - причём вместе с горой инструкций в духе "если тебе подали иероглиф А, то достань таблички с иероглифами Б и В, и соединив их, отдай в виде ответа". Сёрл утверждает, что в этом случае ответы мною могут быть признаны правильными, но при этом сам отвечающий - Сёрл - понимать их не будет. В общем, "интеллект" комнаты оказывается разорван с находящемся в нём "сознанием". А небольшая доработка - то есть создание автомата, следующего горе инструкций, и замена Сёрла на него - вообще исключит из системы какое-то сознание. Итого, мы получим робота, который вроде бы и отвечает осмысленно, но сам при этом ничего не смыслит в ответах.

Принятие контраргумента Сёрла приводит к эпифеноменализму - мол, а откуда мы тогда знаем, что чего-то понимают другие люди - не являются ли они вдруг философскими зомби? Эта позициа не только очень неудобна - так, она убивает всякую возможность например узнать, является ли сознательным другой человек. Она по-своему очень шаткая - например, моё высказывание о моих ментальных состояниях вроде бы является внешним проявлением моих ментальных состояний. Причём именно мои ментальные состояния являются для меня достоверно существующими явлениями, а вот существование материальных нейронов, с которыми они связанны - суть не более чем рабочая гипотеза. В общем, с одной стороны, эпифеноменализма желательно избежать - с другой, надо это сделать так, чтобы не игнорировать контраргумент Сёрла.

Самым простым возражением является то, что мол сознанием и пониманием в случае китайской комнаты обладает вся система "Сёрл+набор инструкций", а не сам Сёрл. Вы же не будете требовать от отдельного нейрона понимания языка, на котором говорите - даже если этот нейрон сам обзаведётся своим собственным мини-мозгом и сознанием? Сёрл на это возражает, что мол он может заучить весь набор инструкций - пользоваться ими, но так ничего и не понять. Могу предложить в качестве возражения, что мол заучив все инструкции, Сёрл загрузил в себя вторую личность - и по сути, выполняемое им суть индуцированное раздвоение личности - а при раздвоении одна личность не обязана понимать то, что делает вторая - при это вторая всё понимать будет.

У кого ещё какие есть мысли насчёт аргумента Сёрла?

Comments

( 6 комментариев — Комментировать )
bsivko
1 дек, 2015 19:05 (UTC)
В тесте Тьюринга два собеседника. Не вводите в заблуждение других.

Не понятен вопрос. У вас перепечатаны базовые понятия Китайской Комнаты и Машины Тьюринга, являющимися по сути, протовоположностями. И вы спрашиваете мыслей. В Google Scholar этих мыслей про КК на ~6400 статей, а сама статья Серла цитируется 4776 раз: https://scholar.google.com/scholar?q=%22Chinese+room%22&btnG=&hl=ru&as_sdt=0%2C5
Нужны мысли - берете и читаете.


Edited at 2015-12-01 19:06 (UTC)
i_ddragon
1 дек, 2015 19:09 (UTC)
>>В тесте Тьюринга два собеседника
>>Допустим, некое существо сидит в закрытой комнате, и я имею возможность общатся с этим существом

Так и у меня два.
bsivko
1 дек, 2015 19:16 (UTC)
В тесте Тьюринга человек взаимодействует с одним компьютером и одним человеком. Т.е. участников мероприятия трое. Два диалога. Две пары из трех собеседников. У испытуемого два собеседника.
igara
1 дек, 2015 19:51 (UTC)
Тест Тьюринга отражает лишь уровень имитации человеческого поведения. Отличить с его помощью живое от мёртвого - невозможно. Сначала надо разобраться - что такое жизнь. И это не только поведение.
(Анонимно)
1 дек, 2015 19:51 (UTC)
Человек-машина. Просто сложнее алгоритмы, многопоточность-многофакторность, больше переменных и условий влияющих на результат и процесс (задействованных в нём) - настроение, эмоции, гормоны итд.

"узнать, является ли сознательным другой"-надо бы подробнее, зачем. Наверное для своей некой выгоды. Чтоб не терять время зря, не обмениваться инфой с машиной... но а вдруг у машины есть очень ценная инфа.

Предлагаю простой критерий, субьективный!
Пока "некто в комнате" выдаёт нужные ответы(подходящие нам, уместные в ситуации, и ценную-полезную инфу) - с ним можно работать. Чтоб там ни было, человек или машина нам должно быть без разницы, если оно работает хорошо!!!

Другое дело если мы вдруг распознали что ответы пошли тупые, бредовые, нам тоже не должно быть особенно важно кто там.
Просто делаем вывод что с этим больше иметь дел не следует, не задавать таких вопросов, либо (если в этом есть выгода!) продолжать общаться на более простые темы, если таковые есть, на которые оно отвечает лучше, выдаёт полезное нам. (Например статистикой установлено что хорошо и быстро решает некие определённого класса задачи, не ошибается. Это конечно не значит что ему можно всецело доверять. Вдруг всегда решал хорошо а однажды "откажет, обманет". Вот дрянь... Сознательно или робота поломка\ алгоритмы подведут - тоже самое.)


Надо в каждом случае разбираться. Решить-определить. Кто это может сделать, и кому это надо - нам, то есть самостоятельно самим разумным существам. О том что я разумен - дать гарант могу только себе, "А потому что потому", аксиома, константа в моей программе. Все прочие для меня неизвестны, вдруг я единственный сознательный а всюду философозомби - я решил не париться.

Короче мне хотелось донести идею что задачи распознания, ответственность только на том кто задаёт вопросы. Каждый раз это индивидуально-субьективно. Хочется обьективнее - надо стандартизировать темы, и вопросы-ответы, не очень общее(айкью) а тесты к конкретным применениям, конкретной работе. Подходит\не подходит, а не робот\не робот.


Дело ещё в уровне того, спрашивающего!
Бывает, я называю некоторых людей тупыми роботами. Почему!? Потому что они отвечают однообразно, зацикленно, интересы мне их не нравятся, "низкие фу противные".

Теперь представим на моём месте человека с их уровнем, с их кругозором.
Он - не назовёт их не быдло, ни роботами!
Он сразу "признает" в них приятных собеседников, друзей, человечища.

Так-то. Теоретически высокий уровень может успешно симулировать-эмулировать низкие, "мимикрировать". Но пока он это делает, я буду называть его "тупым роботом" и не собираюсь тратить энергию на усиленную проверку, на попытки "вывода его на чистую воду"
transhobbit
13 дек, 2015 16:21 (UTC)
>Могу предложить в качестве возражения, что мол заучив все инструкции, Сёрл загрузил в себя вторую личность

Всего-лишь чат-бота, имхо.
( 6 комментариев — Комментировать )

Теги

Разработано LiveJournal.com
Designed by Tiffany Chow