, что-то знают». Водители настолько сосредоточены на попытках протиснуться на соседнюю полосу, что даже не интересуются действительным положением на дороге. Неудивительно, что возникает авария.
Из этих историй можно извлечь полезный урок. Своему автопилоту никогда не следует доверяться полностью; даже если в систему автоматического управления не была специально заложена неверная информация, эта система может выйти из строя. Нам необходимо время от времени проверять, не противоречат ли решения, принятые с помощью автопилота, объективным фактам, нашему жизненному опыту, нашим собственным суждениям. К счастью, такая проверка не требует ни больших усилий, ни времени. Достаточно быстрого взгляда по сторонам. И эта маленькая предосторожность окупится сторицей. Последствия слепой веры в неоспоримость социального доказательства могут быть трагическими.
Например, мастерский анализ, выполненный исследователями авиационной безопасности, дал объяснение неверным решениям многих летчиков, которые потерпели крушение, когда пытались посадить самолет в меняющихся опасных погодных условиях. Эти пилоты не обращали достаточного внимания на усиливающиеся физические свидетельства того, что посадку нужно прекратить. Вместо этого они слишком сильно концентрировались на увеличивающемся социальном доказательстве в пользу попытки приземлиться — на том факте, что все предшествующие самолеты благополучно приземлились (Facci & Kasarda, 2004).
Разумеется, летчику, чей самолет следует в ряду других самолетов, нужно время от времени поглядывать на приборы, а также просто смотреть в окно. Таким же образом нам необходимо оглядываться вокруг себя всякий раз, когда мы начинаем ориентироваться на толпу. Если мы не будем соблюдать эту простую меру предосторожности, нас может постигнуть участь неудачливых пилотов и сингапурского банка — крушение.