Философия Южного Парка: вы знаете, я сегодня кое-что понял (Арп) - страница 128

Туринг полагал, что в течение пятидесяти лет после опубликования его статьи, примерно к 2000-му году, успехи вычислительной технологии позволят построить машину, которая действительно сможет пройти его тест и проблема того, может ли машина думать, была бы решена. Сейчас, мы можем видеть, что он был чрезмерно оптимистичен в своих прогнозах. Хотя Вы можете найти множество «чат-ботов» в Интернете, довольно очевидно, что ни один из них не достаточно хорош, чтобы пройти тест Туринга, как он предполагал. Но это — не великий вопрос. Действительно важнейшая проблема — является ли тест Туринга приемлемым, правда ли машина, которая пройдет тест, будет интеллектуальной?

Возможно, Вам встречались машины, запрограммированные, чтобы действовать как человек. Даже если они правдоподобно выглядели, они по-прежнему действуют не как мы: это — только моделирование. Аналогично, независимо от того, как умело Картман притворяется роботом, он не робот. Он — мальчик, симулирующий поведение машины. Почему же мы должны думать, что компьютерное моделирование — даже очень хорошее или совершенное — является чем-то большим, чем моделирование? В конце концов, компьютерное моделирование грозы не делает никого сырым, а моделирование военного маневра — никого не убивает. Итак, почему мы должны согласиться, что компьютерное моделирование думающего человека — действительно думающий человек?

Мы можем ответить на этот вопрос, признав, что моделирование чего-либо не является одновременно дублированием этого. Почему? Вообще, идея состоит в том, что Вы не сможете моделировать интеллект, не будучи интеллектуальным, чтобы выдержать тест Туринга должен быть организован гибкий и творческий в ответах на вопросы механизм — который может функционировать только для интеллектуальной, думающей системы. Однако, такой ответ не убеждает всех. Во-первых, мы могли бы сослаться на то, что интеллект, который должен пройти тест, сосредоточен в программистах, а не в машине. И, во-вторых, кажется вполне логически возможным для машины обдурить нас — пройти тест Туринга, по-сути не делая реальных размышлений. Голографическое моделирование мр. Шляпы — не настоящая марионетка, потому что в нем упущены кое-какие моменты: шерстяная или хлопковая ткань или что-то типа носка, короче говоря. Возможно, что машина, моделируя мышление, аналогично пропускает некие важные аспекты настоящего разума?

Китайская комната

Джон Серл, профессор университета Калифорнии в Беркли, и один из самых видных философов разума прошлых десятилетий, является, возможно, самым известным специалистом, в области экспериментов с мыслями, называемых аргументом китайской комнаты. Мыслительный эксперимент — просто детальный пример, который предназначен, чтобы помочь нам размышлять о философской проблеме. Некоторые мыслительные эксперименты, включая этот, также предназначены, чтобы играть ключевую роль в утверждении, о верности или ложности некоторых заявлений. Между прочим, этот специфический мыслительный эксперимент предназначается также, для критического анализа теста Туринга. Давайте же взглянем на него, еще раз, с точки зрения Южного Парка.