Драгон, воинствующий дилетант (i_ddragon) wrote in ru_transhuman,
Драгон, воинствующий дилетант
i_ddragon
ru_transhuman

Category:
  • Music:

Что там насчёт китайской комнаты Серла?

Оригинал взят у i_ddragon в Что там насчёт китайской комнаты Серла?
Тест Тьюринга заключается в следующем. Допустим, некое существо сидит в закрытой комнате, и я имею возможность общатся с этим существом через окошко в комнате, передавая записки с вопросами - а существо будет передавать мне записки с ответами. И если я буду ощущать его ответы осмысленными - то значит, это существо обладает собственным разумом и собственным сознанием, причём связанным с разумом. Говоря об "обладает сознанием, связанным с разумом", я имею в виду, что во время общения оно будет ощущать квалиа понимания. Также например, будет возможен случай, когда я напишу ему что-то для него приятное - а оно не просто напишет в ответ "ура, класс", а действительно ощутит удовольствие. Или если я напишу для него что-то обидное - то оно не просто выдаст в ответ "фу", а действительно ощутит обиду.

Короче говоря, тест Тьюринга поднимает целый пласт философских проблем - существует ли возможность проверить - обладает ли робот некой "душой" - или просто мигает лампочками? Применимо ли к роботу понятие эмпатии (а также садизма) - или эмпатия к роботу это нечто вроде эмпатии к резиновой кукле?

Серл в качестве контраргумента к эффективности теста Тьюринга предлагает следующий мысленный эксперимент - китайская комната Сёрла. По условию эксперимента предлагается вести общение на китайском языке, авместо того существа в комнату садится сам Сёрл - причём вместе с горой инструкций в духе "если тебе подали иероглиф А, то достань таблички с иероглифами Б и В, и соединив их, отдай в виде ответа". Сёрл утверждает, что в этом случае ответы мною могут быть признаны правильными, но при этом сам отвечающий - Сёрл - понимать их не будет. В общем, "интеллект" комнаты оказывается разорван с находящемся в нём "сознанием". А небольшая доработка - то есть создание автомата, следующего горе инструкций, и замена Сёрла на него - вообще исключит из системы какое-то сознание. Итого, мы получим робота, который вроде бы и отвечает осмысленно, но сам при этом ничего не смыслит в ответах.

Принятие контраргумента Сёрла приводит к эпифеноменализму - мол, а откуда мы тогда знаем, что чего-то понимают другие люди - не являются ли они вдруг философскими зомби? Эта позициа не только очень неудобна - так, она убивает всякую возможность например узнать, является ли сознательным другой человек. Она по-своему очень шаткая - например, моё высказывание о моих ментальных состояниях вроде бы является внешним проявлением моих ментальных состояний. Причём именно мои ментальные состояния являются для меня достоверно существующими явлениями, а вот существование материальных нейронов, с которыми они связанны - суть не более чем рабочая гипотеза. В общем, с одной стороны, эпифеноменализма желательно избежать - с другой, надо это сделать так, чтобы не игнорировать контраргумент Сёрла.

Самым простым возражением является то, что мол сознанием и пониманием в случае китайской комнаты обладает вся система "Сёрл+набор инструкций", а не сам Сёрл. Вы же не будете требовать от отдельного нейрона понимания языка, на котором говорите - даже если этот нейрон сам обзаведётся своим собственным мини-мозгом и сознанием? Сёрл на это возражает, что мол он может заучить весь набор инструкций - пользоваться ими, но так ничего и не понять. Могу предложить в качестве возражения, что мол заучив все инструкции, Сёрл загрузил в себя вторую личность - и по сути, выполняемое им суть индуцированное раздвоение личности - а при раздвоении одна личность не обязана понимать то, что делает вторая - при это вторая всё понимать будет.

У кого ещё какие есть мысли насчёт аргумента Сёрла?

Tags: ИИ, философия
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 6 comments