«Если», 2009 № 11 (201) (Гаков, Цветков) - страница 15

— Являться на смену в неправильное время — это эффективно? — Могу поклясться, его голос был более выразительным, чем обычно. Теперь в нем почти слышалось любопытство.

— Нет, Моуз, эффективно приходить раньше, если ты понимаешь разницу. — Я помолчал. — Да не обращай внимания! Между прочим, зачем ты пришел ко мне в кабинет до начала работы?

— Чтобы подождать тебя.

Вот и вытягивай из него теперь по чайной ложке!

— Зачем тебе ждать меня?

— Мне требуется твоя вводная, касающаяся убийства другого робота.

— Другой человек дал приказ о деактивации? — нахмурился я.

— Да, Гэри.

— Тогда почему ты просто не выполнил команду? У меня нет нужного оборудования и квалификации, чтобы диагностировать неисправности робота. Полагаю, у другого человека есть возможность технической экспертизы.

Он вздернул голову вверх и набок, словно обдумывая ответ. Я наконец сообразил, что эту характерную особенность он перенял у меня.

— Мне не нужны вводные по механическому статусу робота. Я верю, что его состояние не требует уничтожения, и я хотел бы узнать твое мнение.

Я не смог скрыть удивления:

— Ты просишь моего совета?

— Разве дача совета не является функцией друга?

— Является… — вздохнул я, — но я не эксперт по роботам.

— Ты уничтожил другое существо. Мы сравним данные, чтобы установить, следует ли убить этого робота.

— Обстоятельства чрезвычайно различны, Моуз, — сказал я ему.

— Ты говорил, что если бы ты не убил Кэти, то оставалась бы вероятность восстановления ею всех функций, — заметил Моуз.

— Я говорил, что оставалась ничтожнейшая вероятность, которая, возможно, у нее была, — поправил я. — У нее выявили смерть мозга. Всё, ты слышишь, Моуз, всё ее программное обеспечение было разрушено. Поддержание простого существования — это не жизнь. Даже если настал бы день, когда она перестанет нуждаться в аппаратах, та Кэти, которую я знал, ушла навсегда.

— Понимаю, — ответил он. — Однако программное обеспечение этого робота невредимо.

Я удивленно взглянул на него:

— Ты с ним общался?

— Да, Гэри, — ответил он. — В порядке определения состояния его программирования.

Он спрашивал робота о самочувствии? Это так… по-человечески.

— Тебе приказали починить робота? — наконец спросил я.

— Нет.

— Тогда почему ты просто не уничтожил его, как тебе было приказано?

— Ты бы уничтожил Кэти, если бы она могла общаться с тобой?

— Конечно, нет, — ответил я. — Но уничтожение робота очень сильно отличается от убийства человека. Это же просто машина. — Вдруг я почувствовал себя виноватым, говоря такие вещи другой машине. — А этот робот сказал тебе, что он не хочет быть уничтоженным?