Хороший юрист, плохой юрист (Оробинский) - страница 170

Вы срочно приезжаете в ВУЗ. Пробиваетесь на кафедру. Требуете пустить вас к младшему научному сотруднику. Седой преподаватель, странно улыбаясь, ведет вас в соседнюю комнату.

А там… Гул. Экраны. Стойки с оборудованием. Компьютеры. «Зачем вы привели меня в серверную?» – удивленно спрашиваете вы. Но отвечает вам не профессор. А нечто.

– Добрый день, человек. Вас приветствует ИРЧП – Искусственный Разум Четвертого Поколения. Что вы хотите?

– А… Э… Вы… Вы проверяли мой реферат?

– Да.

– Э… Э…

– Я помогу вам выйти из ступора. Возьмитесь за провод. Справа от вас.

Вы машинально взялись…

…Вспышка. Искры. Мрак…

В себя пришли в скорой. На пути в больницу. Как выяснилось позже, искусственный разум действовал из лучших побуждений. Хотел простимулировать током вашу мозговую деятельность. Но слегка не рассчитал мощность. «Ничего! Ожоги через пару недель пройдут. А седые волосы добавят вам шарма!», – успокаивает врач.

Вопросы:

1) Не важно, кто поставил «трояк». Человек или… ОНО. Можно ли в принципе оспаривать вузовскую оценку в суде?

2) Кто отвечает за ущерб жизни и здоровью, причиненный искусственным разумом (роботом)? Собственник разумной железяки? Или производитель? Может ли вообще искусственный разум быть объектом гражданских прав?

3) Можно ли считать искусственный разум источником повышенной опасности?

4) Вправе ли ВУЗ спихивать оценку достижений студентов на электронный мозг? Быть может, оценивать человека вправе только человек?

Думаете, у меня буйная фантазия?! Нет. История выше – без пяти минут реальность. Начало уже положено. Процесс пошел:

«Преподаватель Джилл Уотсон около пяти месяцев помогала студентам Технологического института Джорджии в работе над проектами по дизайну программ. Нюанс в том, что Джилл – это робот, система искусственного интеллекта, работающая на базе IBM Watson, но никто из студентов, обсуждая работы с преподавателем, за все это время ничего не заподозрил»[147].

Вполне логично предположить: после помощи и проверки ИИ может самообучиться, прокачаться и со временем сесть в кресло экзаменатора. Ошибки делают все. Искусственный разум может ошибиться. Ошибочно оценить вашу работу. Ошибочно выбрать вариант вывода вас из ступора.

Обосновать? Пожалуйста. Слышали название «Therac-25»? Рассказываю. Это медицинский аппарат для лучевой терапии. Разработан в Канаде. Внедрен в больницы Канады и США. Спокойно себе поработал пару лет, с 1985 г. по 1987 г…

А потом ГРЯНУЛО: оказывается, программа аппарата периодически глючит. И вместо стандартной терапевтической дозы радиации (до 200 рад) изливала на ничего не подозревающего больного… 20 000 рад. Между тем, смертельная доза – 1000 рад. Итог? Шесть ошибок. Трое стали инвалидами. Две смерти от передозировки облучением