Совместимость. Как контролировать искусственный интеллект (Рассел) - страница 180

Для опытного спеца из Кремниевой долины это может звучать довольно наивно. Любого рода регулирование встречает здесь яростное сопротивление. Если мы привыкли к тому, что фармацевтические компании обязаны доказывать безопасность и (благоприятную) эффективность путем клинических испытаний, чтобы получить возможность продавать продукт потребителям, индустрия программного обеспечения следует другому комплексу правил, а именно их пустому множеству. «Компания придурков, потягивающих „Ред булл“»[333] в фирме — разработчике программного обеспечения может выпустить продукт или обновление, которые могут повлиять буквально на миллиарды человек, без какого-либо контроля незаинтересованной стороны.

Однако сфера технологий неизбежно должна будет признать, что от ее продуктов очень многое зависит, следовательно, важно, чтобы они не причиняли вреда. Это значит, что появятся законы, управляющие характером отношений с людьми, запрещающие разработки, которые, скажем, последовательно манипулируют предпочтениями или формируют зависимость. Я не сомневаюсь, что переход от нерегулируемого мира к регулируемому будет болезненным. Будем надеяться, что для преодоления сопротивления профессиональной среды не потребуется катастрофа масштаба Чернобыльской (или хуже).

Недобросовестное использование ИИ

Регулирование может быть болезненным для разработчиков программного обеспечения, но станет невыносимым для «Доктора Зло», строящего планы по захвату мира в тайном подземном бункере. Без сомнения, криминальный элемент, террористы и некоторые страны могут иметь стимул обойти любые ограничения, налагаемые на устройство разумных машин, чтобы их можно было использовать для контроля оружия или для разработки и осуществления преступных действий. Опасно не столько то, что системы злоумышленников могут оказаться успешными, сколько то, что они могут потерять контроль над плохо разработанными интеллектуальными системами — в особенности получившими вредоносные задачи и доступ к оружию.

Это не причина отказываться от регулирования (в конце концов, у нас есть законы против убийства, хотя они часто нарушаются), однако возникает очень серьезная политическая проблема. Мы уже проигрываем в борьбе с хакерскими программами и киберпреступлениями. (В недавнем отчете даются оценки в более чем 2 млрд потерпевших и около $600 млрд ежегодных потерь[334].) Противостоять вредоносному программному обеспечению в форме высокоинтеллектуальных программ будет намного сложнее.

Некоторые, в том числе Ник Бостром, предложили использовать собственные полезные сверхинтеллектуальные ИИ-системы для обнаружения и уничтожения любых вредоносных или любым образом неправильно ведущих себя ИИ-систем. Безусловно, нам нужно будет использовать все доступные средства, в то же время сводя к минимуму влияние на личную свободу, но образы людей, теснящихся в бункерах, беспомощных против титанических сил, высвобожденных взбунтовавшимся сверхразумом, мало утешают, даже если часть этих сил на нашей стороне. Было бы намного лучше найти способы задавить вредоносный ИИ в зародыше.