Совместимость. Как контролировать искусственный интеллект (Рассел) - страница 117

Я сомневаюсь, что препятствия, описанные в предыдущем абзаце, непреодолимы. Во-первых, такие технологии, как нейронная пыль, быстро снижают размер и требования к питанию электронных устройств, которые могут быть подсоединены к нейронам и обеспечивать сенсорику, стимуляцию и внутричерепную коммуникацию[225]. (К 2018 г. технология достигла размеров около 1 мм>3, так что, возможно, более точный термин — нейронный песок.) Во-вторых, сам мозг имеет потрясающие возможности адаптации. Принято было считать, например, что нам нужно понять код, с помощью которого мозг управляет мышцами руки, прежде чем можно будет успешно подсоединить мозг к роботу-манипулятору, и что мы должны разобраться, как улитка уха анализирует звук, чтобы можно было создать ее заменитель. Оказалось, что мозг делает большую часть работы за нас. Он быстро постигает, как заставить роботизированную руку делать то, что хочет ее владелец, и как отображать информацию, поступающую в имплант внутреннего уха, в форме различимых звуков. Более чем вероятно, что мы наткнемся на способы снабдить мозг дополнительной памятью, каналами коммуникации с компьютерами и, возможно, даже каналами коммуникации с мозгом других людей — даже не понимая в полной мере, как все это работает[226].

Независимо от технологической осуществимости этих идей, следует задаться вопросом, обещает ли это направление исследований наилучшее возможное будущее для человечества. Если людям нужно сделать себе операцию на мозге только для того, чтобы пережить угрозу ими же созданной технологии, вероятно, мы где-то ошиблись.

…не ставить перед ИИ человеческие цели?

Это распространенная логика — проблемное поведение ИИ порождается постановкой задач определенного типа; исключаем эти задачи, и все прекрасно. Скажем, Ян Лекун, первопроходец глубокого обучения, директор Facebook по исследованию ИИ, часто приводит эту мысль, когда старается преуменьшить риск, который несет ИИ[227]:

У ИИ нет причины для инстинкта самосохранения, ревности и прочего… У ИИ-систем не будет этих деструктивных «эмоций», если мы не встроим в них эти эмоции. Не представляю, что бы побудило нас к этому.

В аналогичном ключе строит гендерный анализ Стивен Пинкер[228]:

Рисующие будущее с ИИ в виде антиутопии проецируют шовинистическую психологию альфа-самца на понятие интеллектуальности. Они предполагают, что сверхчеловечески интеллектуальные роботы станут ставить перед собой такие цели, как свержение своих повелителей или порабощение мира… Показательно, что многие наши технопророки даже не рассматривают возможность, что ИИ естественным образом будет развиваться по феминному типу: способный решить любые проблемы, но не имеющий ни малейшего желания уничтожать невинных или господствовать над цивилизацией.