Позвольте мне еще раз подчеркнуть ранее сделанное замечание: правильно сконструированные машины не будут вести себя так, как те, чье поведение они наблюдают, даже если они изучают предпочтения демонов-садистов. Возможно даже, что, оказавшись в незнакомой ситуации повседневного взаимодействия с чисто альтруистическими сущностями, мы научимся быть лучшими людьми — более альтруистичными и менее управляемыми гордыней и завистью.
Тупые, эмоциональные люди
Название этого раздела не выделяет конкретный подтип людей. Оно относится ко всем нам. Мы все невероятно тупы по сравнению с недостижимым уровнем идеальной рациональности и все подвержены эмоциональным переменам, в значительной мере управляющим нашим поведением.
Давайте начнем с тупости. Идеально рациональная сущность максимизирует ожидаемое удовлетворение своих предпочтений во всех возможных будущих жизнях, которые могла бы для себя избрать. Я не в состоянии написать число, характеризующее сложность этой проблемы принятия решения, но считаю полезным следующий мысленный эксперимент. Сначала заметьте, что количество выборов в области двигательного контроля, которые человек делает в течение жизни, составляет около 20 трлн (см. подробные расчеты в Приложении А). Далее, посмотрим, куда заведут нас вычисления методом перебора на описанном Сетом Ллойдом ноутбуке с предельными физическими возможностями, который в миллиард триллионов триллионов раз быстрее самого быстрого в мире компьютера. Поручим этому устройству перебрать все возможные последовательности слов английского языка (скажем, в порядке разминки перед Вавилонской библиотекой из рассказа Борхеса) и оставим его на год работать. Последовательности скольких слов он сможет пересчитать за это время? Тысячу страниц текста? Миллион страниц? Нет. Одиннадцать слов. Это дает некоторое представление о трудности конструирования наилучшей возможной жизни из 20 трлн действий. В общем, мы намного дальше от рациональности, чем слизень от возможности обогнать космический корабль «Энтерпрайз» из «Звездного пути» при искривлении пространства девятого уровня. Мы не имеем ни малейшего представления о том, какой должна быть рационально выбранная жизнь.
Из этого следует, что люди часто действуют против собственных предпочтений. Например, Ли Седоль во время матча, проигранного программе AlphaGo, сделал один или даже несколько ходов, гарантировавших проигрыш, и AlphaGo смогла (по крайней мере, в некоторых случаях) это зафиксировать. Однако для AlphaGo было бы неправильно сделать вывод, что Ли Седоль имеет предпочтение проиграть. Нет, было бы разумно заключить, что Ли Седоль предпочитает выиграть, но некоторые ограничения вычислительных возможностей не позволяют ему выбирать верный ход во всех случаях. Таким образом, чтобы понять поведение Ли Седоля и узнать его предпочтения, робот, следующий третьему принципу («решающим источником информации о человеческих предпочтениях является человеческое поведение»), должен сколько-нибудь разбираться в когнитивных процессах, обусловливающих это поведение. Он не может по умолчанию считать его рациональным.