Совместимость. Как контролировать искусственный интеллект (Рассел) - страница 115

К сожалению, здесь имеются серьезные трудности. Во-первых, система Oracle AI будет, по меньшей мере, столь же упорно (как и мы) постигать физическое устройство и происхождение своего мира — вычислительные ресурсы, их режим работы и тех «таинственных сущностей», которые создали информационное хранилище и теперь задают вопросы. Во-вторых, если задача системы Oracle AI заключается в том, чтобы давать точные ответы на вопросы за разумный промежуток времени, у нее будет стимул вырваться из своей клетки, чтобы получить больше вычислительных возможностей и контролировать спрашивающих, заставив их задавать лишь простые вопросы. Наконец, мы пока не изобрели брандмауэр, надежно защищающий от обычных людей, не говоря о сверхинтеллектуальных машинах.

Я думаю, что у части этих проблем могут быть решения, особенно если мы ограничим системы Oracle AI, чтобы они были доказуемо рациональными логическими или Байесовыми калькуляторами. А именно — мы могли бы потребовать, чтобы алгоритм был способен выдать лишь вывод, обусловленный предоставленной информацией, и имели бы возможность проверить математическими методами, что алгоритм удовлетворяет этому условию. При этом все равно остается проблема контроля за процессом принятия решения, какие логические или Байесовы вычисления выполнять, чтобы найти самое сильное решение из возможных, максимально быстро. Поскольку есть стимул для быстрого протекания этого процесса, то имеется и стимул приобретать вычислительные ресурсы и, разумеется, защищать собственное существование.

В 2018 г. Центр исследования совместимого с человеком ИИ в Беркли провел семинар, на котором мы задались вопросом: «Что бы вы сделали, узнав совершенно точно, что сверхинтеллектуальный ИИ будет создан в течение десятилетия?» Мой ответ был следующим: убедить разработчиков повременить с созданием универсального интеллектуального агента — способного самостоятельно выбирать свои действия в реальном мире — и вместо этого создать Oracle AI. Тем временем мы бы трудились над решением проблемы обеспечения максимально возможной доказываемой безопасности систем Oracle AI. Эта стратегия может сработать по двум причинам: во-первых, сверхинтеллектуальная система Oracle AI все равно стоила бы триллионы долларов, и разработчики, возможно, согласились бы с ограничением; во-вторых, контролировать системы Oracle AI почти наверняка проще, чем универсального интеллектуального агента, и у нас было бы больше шансов решить проблему в течение десятилетия.

…работать в командах из людей и машин?