yes, therapy helps!
Эксперимент в китайской комнате: компьютеры с разумом?

Эксперимент в китайской комнате: компьютеры с разумом?

MARCH 30, 2024

Ментальный эксперимент китайской комнаты Это гипотетическая ситуация, предложенная американским философом Джоном Сирлом для демонстрации того, что способность упорядоченно манипулировать набором символов не обязательно означает, что существует понимание или лингвистическое понимание этих символов. То есть способность понимать не возникает из синтаксиса, с помощью которого ставится под сомнение вычислительная парадигма, разработанная когнитивными науками для понимания функционирования человеческого разума.

В этой статье мы увидим, в чем именно состоит этот мысленный эксперимент и какие философские дебаты он породил.

  • Статья по теме: «Как психология и философия похожи?»

Машина Тьюринга и вычислительная парадигма

Развитие искусственного интеллекта является одной из величайших попыток 20-го века понимать и даже копировать человеческий разум с помощью компьютерных программ , В этом контексте одной из самых популярных моделей была машина Тьюринга.


Алан Тьюринг (1912-1954) хотел показать, что запрограммированная машина может вести разговоры, как человек. Для этого он предложил гипотетическую ситуацию, основанную на имитации: если мы запрограммируем машину, чтобы имитировать лингвистические способности говорящих, то мы поставим ее перед набором судей и добьемся того, чтобы 30% этих судей думали, что разговаривают с для реального человека это было бы достаточным доказательством того, что машина может быть запрограммирована таким образом, чтобы воспроизводить психические состояния людей; и наоборот, это также будет объяснительной моделью того, как работают психические состояния человека.

Исходя из вычислительной парадигмы, часть когнитивного течения предполагает, что наиболее эффективный способ получения знаний о мире - через все более усовершенствованное воспроизведение правил обработки информации так, чтобы независимо от субъективности или истории каждого из нас, мы могли функционировать и реагировать в обществе. Таким образом, разум был бы точной копией реальности, он является местом знаний и инструментом для представления внешнего мира.


После машины Тьюринга даже были запрограммированы некоторые компьютерные системы, которые пытались пройти тест , Одним из первых был ELIZA, разработанный Джозефом Вейзенбаумом, который отвечал пользователям с помощью модели, ранее зарегистрированной в базе данных, что заставляло некоторых собеседников полагать, что они разговаривают с человеком.

Среди самых последних изобретений, похожих на машину Тьюринга, мы находим, например, CAPTCHA для обнаружения спама или SIRI операционной системы iOS. Но, как были те, кто пытался доказать, что Тьюринг был прав, так и были те, кто ставил это под сомнение.

  • Вы можете быть заинтересованы: «Проблема Молинье: любопытный мысленный эксперимент»

Китайская комната: разум работает как компьютер?

Из экспериментов, которые пытались утвердить тест Тьюринга, Джон Сирл различает слабый искусственный интеллект (тот, который имитирует понимание без состояний преднамеренности, то есть он описывает ум, но не равен ему); и Сильный Искусственный интеллект (когда машина имеет умственные состояния, подобные состоянию человека, например, если она может понимать истории, как человек).


Сирл не может создать сильный искусственный интеллект То, что он хотел доказать с помощью мысленного эксперимента, известного как китайская комната или китайская пьеса. Этот эксперимент состоит из постановки гипотетической ситуации, которая заключается в следующем: носитель английского языка, который не знает китайского языка, заперт в комнате и должен ответить на вопросы об истории, рассказанной на китайском языке.

Как вы отвечаете? через книга правил, написанная на английском языке, которая служит для синтаксического расположения китайских символов не объясняя его значения, только объясняя, как их следует использовать. Посредством этого упражнения человек в комнате правильно отвечает на вопросы, даже если этот человек не понял его содержания.

Теперь предположим, что есть внешний наблюдатель, что вы видите? То, что человек в комнате ведет себя точно так же, как человек, который понимает китайский.

Для Сирла это показывает, что компьютерная программа может имитировать человеческий разум, но это не значит, что компьютерная программа такая же, как человеческий разум, потому что У него нет семантической способности или интенциональности .

Влияние на понимание человеческого разума

С точки зрения людей, вышесказанное означает, что процесс, посредством которого мы развиваем способность понимать язык, выходит за рамки наличия набора символов; необходимы другие элементы, которые компьютерные программы не могут иметь.

Не только это, но из этого эксперимента были расширены исследования о том, как строится смысл и где это значение. Предложения очень разнообразны, начиная от когнитивистских взглядов, которые говорят, что оно находится в голове каждого человека, происходящих из набора психических состояний или которые даны врожденным образом, до более конструктивистских взглядов, которые спрашивают, как устроены социальные системы и практики, которые являются историческими и придают социальный смысл (что термин имеет значение не потому, что он находится в головах людей, а потому, что он входит в набор практических языковых правил).

Критика к ментальному эксперименту китайской комнаты

Некоторые исследователи, которые не согласны с Сирлом, считают, что эксперимент недействителен потому что, даже если человек в комнате не понимает китайский язык, возможно, что в сочетании с элементами, которые его окружают (та же комната, недвижимость, руководство по правилам), существует понимание китайского языка.

Учитывая это, Сирл отвечает новой гипотетической ситуацией: даже если мы исчезнем из элементов, которые окружают человека, находящегося в комнате, и попросим его запомнить руководства по правилам, чтобы манипулировать китайскими символами, этот человек не будет понимать китайский, который не делает вычислительный процессор либо.

Ответом на эту же критику стало то, что китайская комната - технически невозможный эксперимент. В свою очередь, ответом было то, что технически невозможно не значит что это логически невозможно .

Другой наиболее популярной критикой была критика Деннетта и Хофштадтера, которая применима не только к эксперименту Сирла, но и к набору ментальных экспериментов, которые были разработаны в последние столетия, поскольку достоверность сомнительна, поскольку они не имеют эмпирической реальности. Строгий, но умозрительный и близкий к здравому смыслу, с которым они, прежде всего, «бомба интуиции».

Библиографические ссылки:

  • Гонсалес, Р. (2012). Китайская пьеса: мысленный эксперимент с декартовой предвзятостью? Чилийский журнал нейропсихологии, 7 (1): 1-6.
  • Сандовал, J. (2004). Репрезентация, дискурсивность и продуманность действий. Критическое введение в социальную психологию знаний. Университет Вальпараисо: Чили.
  • Гонсалес, Р. (S / A). «Насосы интуиции», разум, материализм и дуализм: проверка, опровержение или эпоха? Репозиторий Университета Чили. [Интернет]. По состоянию на 20 апреля 2018 г. Доступно по адресу //repositorio.uchile.cl/bitstream/handle/2250/143628/Bombas%20de%20intuiciones.pdf?sequence=1.

Китайская комната. А.Беседин (MARCH 2024).


Похожие статьи