Совместимость. Как контролировать искусственный интеллект (Рассел) - страница 56

Однажды на собрании Всемирного экономического форума в 2015 г. я отвечал на вопрос о том, когда мы можем увидеть сверхинтеллектуальный ИИ. Собрание проходило по правилам Чатем-хауса>{4}, запрещающим разглашать за его стенами какие бы то ни было замечания любого из присутствующих. Тем не менее я из избытка осторожности начал свой ответ словами: «Строго не под запись…» Я предположил, что, если не помешают никакие катаклизмы, это, вероятно, произойдет при жизни моих детей — которые еще малы и, скорее всего, благодаря достижениям медицины будут жить намного дольше, чем большинство присутствовавших. Не прошло и двух часов, как в The Daily Telegraph вышла статья, цитирующая слова профессора Рассела и дополненная изображениями беснующихся терминаторов. Заголовок гласил: «Роботы-„социопаты“ могут обскакать человеческую расу при жизни одного поколения».

Моя оценка сроков, скажем, в 80 лет намного более консервативна, чем у типичного исследователя ИИ. По результатам недавних опросов[113], оптимисты ожидают появления ИИ человеческого уровня примерно в середине этого века. Исходя из опыта в отношении ядерной физики, здравомыслие требует допустить, что это произойдет раньше, и подготовиться соответственно. Если бы требовался лишь один концептуальный прорыв, аналогичный идее Силарда о цепной реакции деления ядер, сверхинтеллектуальный ИИ в той или иной форме мог бы появиться, можно сказать, внезапно. Вполне вероятно, мы оказались бы к этому не готовы: если бы мы построили сверхинтеллектуальные машины с любой степенью автономности, то скоро оказались бы не способны контролировать их. Я, однако, убежден, что у нас есть пространство для маневра, потому что для перехода от ситуации сегодняшнего дня к сверхинтеллекту необходим целый ряд принципиальных прорывов.

Какие концептуальные прорывы нас ожидают

Проблема создания универсального ИИ человеческого уровня далека от решения. Это не является вопросом большего количества денег, инженерных разработок или данных, как и более мощных компьютеров. Некоторые футуристы составляют графики, экстраполирующие экспоненциальный рост вычислительной мощности в будущее на основе закона Мура, указывая даты, когда машины превзойдут мозг насекомого, мозг мыши, мозг человека, мозг всех людей в совокупности и т. д.[114] Эти графики бессмысленны, поскольку, как я уже говорил, более быстрые машины всего лишь быстрее дают вам неправильный ответ. Если бы он состоял в том, чтобы собрать всех ведущих экспертов по ИИ в одну команду с неограниченными ресурсами с целью создать интегрированную интеллектуальную систему человеческого уровня путем объединения лучших идей всех нас, результат был бы провальным. В реальном мире система разрушилась бы. Она не понимала бы, что происходит, не могла предсказать последствия своих данных, не знала, чего хотят люди в любой конкретной ситуации, — в общем, была бы до нелепости тупой.