Чертоги разума. Убей в себе идиота! (Курпатов) - страница 146

Думаете, конец истории? Нет. Долго на своём «садистическом» посту де Сад не продержался. Эти районные суды отправляли людей на гильотину без разбора, но вот трибунал под руководством маркиза отказывался выносить смертные приговоры. Представляете? Охваченный кровавым безумием Париж– казалось бы, самое время «садисту» разгуляться, оттянуться в сласть!

Но нет.

Более того, Маркиз помогал «неблагонадёжным» аристократам скрываться от новых властей и выписывал им липовые документы, чтобы они могли бежать из столицы. Это вскрылось, де Сад был обвинён в контрреволюционной деятельности, арестован, приговорён к смертной казни и лишь чудом остался жив (его документы в общем бардаке затерялись).

Месяцами ожидавший своей казни и наблюдавший за тем, как во дворе тюрьмы работает гильотина, маркиз де Сад всё-таки был отпущен и остаток дней провёл в сумасшедшем доме.

Так что поверьте: всё не так очевидно, как может показаться на первый взгляд. Более того, именно наш «взгляд», страдающий фундаментальной ошибкой атрибуции, и создаёт у нас это ложное ощущение мнимой очевидности.

Впрочем, если мы поймём это, то реальная очевидность (то есть очевидность действительно реального) даст нам о себе знать.

* * *

Чтобы убедиться в этом, давайте оставим в прошлом злополучного маркиза и вспомним того самого Михала Козинского, который занимается научными исследованиями в области искусственного интеллекта, работающего с так называемыми «большими данными» – Big Data.

Михал провёл тестирование группы людей всего лишь по пяти психологическим параметрам. Затем сличил эти данные с поведением этих же людей в социальных сетях, а результат скормил искусственному интеллекту, самообучающемуся по механизму нейронных сетей.

И как мы уже знаем, этому «Франкенштейну-психологу» достаточно мизерного количества лайков, чтобы понять, как вы будете себя вести. Полагаю, что среди моих читателей есть те, которые за сутки ставят такое количество лайков, которого машине Козинского достаточно, чтобы знать их лучше, чем они сами себя знают.

И в этом всё дело: бесстрастный искусственный интеллект просто не совершает фундаментальной ошибки атрибуции – не додумывает того, чего нет.

Оказывается, что нам надо не так много фактов, чтобы понять, что происходит на самом деле. Если, конечно, мы не прибегаем к созданию нарратива.

Обычно мы выделяем какое-то количество фактов, которые автоматически включают в нас тот или иной нарратив. И у нас тут же появляется «понятная история», что и позволяет нам, как нам кажется, делать достоверные предсказания.