Совместимость. Как контролировать искусственный интеллект (Рассел) - страница 179

Дает ли вся эта деятельность какие-то надежды на реальный прогресс в области контроля ИИ? Как ни странно, ответ положительный — по крайней мере, прогресс уже заметен. Власти многих стран создают консультативные советы, чтобы способствовать процессу правового регулирования; возможно, самым ярким примером является Высшая экспертная группа по искусственному интеллекту (ЕС). Появляются соглашения, законы и стандарты в таких областях, как конфиденциальность пользователя, обмен данными и предупреждение расовой нетерпимости. Власти и корпорации упорно трудятся над выработкой законов для автомобилей с автопилотом — законов, которые неизбежно приобретут международный характер. Имеется договоренность, что если мы хотим получить ИИ-системы, которым сможем доверять, то решения, предлагаемые ИИ, должны быть объяснимыми, и это уже отчасти реализовано в установлениях Общего регламента по защите данных Европейского союза. В Калифорнии новый закон запрещает ИИ-системам представлять людей в определенных обстоятельствах. Последние два момента — объяснимость и представительство — безусловно, имеют определенные последствия для вопросов безопасности и контроля ИИ.

В настоящее время отсутствуют реализуемые на практике рекомендации, которыми могли бы воспользоваться правительства и другие организации для решения вопросов контроля над ИИ-системами. Такие установления, как «ИИ-системы должны быть надежными и контролируемыми», ничего не дают, поскольку эти понятия пока не имеют точного значения, а также из-за отсутствия общепринятой инженерной методологии обеспечения этой безопасности и контролируемости. Однако будем оптимистами и представим, что всего через несколько лет продуктивность подхода к созданию ИИ на принципе «доказуемой полезности» доказана как математическим анализом, так и практической реализацией в форме полезных приложений. Например, у нас появляются личные цифровые помощники, которым можно доверить пользоваться нашими кредитными картами, фильтровать звонки и электронную почту и управлять нашими финансами, потому что они адаптировались под наши личные предпочтения и знают, когда можно действовать самостоятельно, а когда лучше обратиться за указаниями. Наши автономные автомобили научились хорошим манерам при взаимодействии друг с другом и с водителями, а домашние роботы прекрасно справляются даже с самым невыносимым дошкольником. По счастью, ни одна кошка не была зажарена на ужин и ни разу на торжественном обеде членов Партии зеленых не было подано китовое мясо.

На этом этапе представляется вполне уместным составление шаблонов разработки программного обеспечения, которым должны соответствовать разные типы приложений, чтобы их можно было продавать или подключать к интернету, как сейчас приложения должны пройти ряд программных тестов, прежде чем их пустят в App Store или Google Play. Продавцы программного обеспечения могут предложить собственные шаблоны, если сумеют доказать их соответствие требованиям безопасности и контролируемости (на тот момент уже тщательно проработанным). Будут созданы механизмы информирования о проблемах и обновления программных комплексов, выдающих нежелательное поведение. Тогда будет иметь смысл также разработать профессиональные кодексы поведения, основанные на идее доказуемой безопасности программ ИИ, и интегрировать соответствующие теоремы и методы в программы подготовки мотивированных практиков в области ИИ и машинного обучения.