– Но, Дэниел, Третий Закон говорит: «Робот должен защищать себя, если эта защита не противоречит Первому и Второму Законам». Второй Закон говорит: «Робот должен повиноваться приказам человека, если выполнение этих приказов не противоречит Первому Закону». А по Первому Закону: «Робот не может повредить человеку или своим бездействием допустить, чтобы человеку был нанесен вред». Человек может приказать роботу уничтожить себя, и тогда робот сам размножит себе голову. А если человек нападет на робота, тот не может отразить атаку, не повредив человеку, и это будет нарушение Первого Закона.
– Вы, я полагаю, думаете о земных роботах. На Авроре и других Внешних мирах роботы более сложные, разносторонние и более ценные. Третий Закон у них значительно сильнее Второго. Приказ о самоуничтожении должен быть по-настоящему подкреплен законной причиной – явной опасностью. А при отражении атаки Первый Закон не будет нарушен – роботы Авроры умеют остановить человека, не повредив ему.
– Предположим, человек будет уверять, что если робот не уничтожит себя, то будет уничтожен он, человек?
– Аврорский робот поставит под сомнение простое утверждение такого рода. Потребуется ясная очевидность возможного уничтожения человека.
– А не может человек оказаться достаточно ловким и так подстроить дело, что робот поверит в страшную опасность для человека? Не эта ли изобретательность позволила утверждать, что преступление совершено не безумцем, не неопытным, не малолетним?
– Нет. Это не так.
– В моих рассуждениях есть ошибка?
– Никакой.
– Значит, я ошибся в предположении, что робот был разрушен физически. А физического ущерба не было. Правильно?
– Да, партнер Илия.
Значит, у Димачек были точные сведения.
– В таком случае, Джандер был поврежден умственно. Полный роблок!
– Что такое роблок?
– Сокращение от роботоблока – постоянное падение функций позитронных связей.
– На Авроре не пользуются словом «роблок».
– А как вы говорите?
– Умственное замораживание.
– Это то же самое.
– Разумнее будет, партнер Илия, пользоваться нашим выражением, иначе аврорцы могут не понять вас, и это будет мешать беседе. Вы будете там слишком недолго, чтобы разница в словах могла иметь для вас значение.
– Ладно, буду говорить «замораживание». Может ли такая вещь случиться сама собой?
– Да, но шансы бесконечно малы, как считают роботехники. Как человекоподобный робот, могу сказать, что сам я никогда не испытывал эффекта, могущего даже близко подойти к умственному замораживанию.
– Стало быть, надо предполагать, что человек сознательно создал ситуацию, при которой могло бы иметь место умственное замораживание.