Второй важный момент состоит в том, что даже хорошая гипотеза может быть неверной. На самом деле, вышеприведенная гипотеза неверна, даже после внесения исправления о том, что ход Ж является допустимым. Она должна включать правило ко, или отсутствия повторов. Например, если белые только что захватили черный камень на Ж, сделав ход на Г, то черные не могут сделать перезахват, пойдя на Ж, поскольку создается та же позиция. Обратите внимание, что это правило резко отличается от того, что программа выучила к настоящему моменту, поскольку означает, что допустимость не может определяться текущей позицией, необходимо помнить и предыдущие.
Шотландский философ Дэвид Юм заметил в 1748 г., что индуктивное рассуждение — а именно от конкретного наблюдения к общим принципам, — не может гарантировать истинности вывода[360]. Современная теория статистического обучения не требует гарантий абсолютной истинности, а лишь гарантию того, что найденная гипотеза, вероятно, является приблизительно правильной[361]. Обучающемуся алгоритму может «не повезти» наткнуться на нерепрезентативную выборку, например он так и не попробует сделать ход на Ж, считая его недопустимым. Возможно также, что он не сумеет предсказать какие-нибудь редкие пограничные случаи, скажем, охватываемые какими-то более сложными и редко всплывающими разновидностями правила отсутствия повторов[362]. Однако, поскольку Вселенная проявляет определенную степень регулярности, крайне маловероятно, чтобы алгоритм выработал чрезвычайно плохую гипотезу, потому что такая гипотеза почти наверняка была бы отброшена одним из экспериментов.
Глубокое обучение — метод, вызывающий в СМИ всю эту шумиху по поводу ИИ, — является, главным образом, формой контролируемого обучения. Это одно из самых существенных достижений в сфере ИИ за последние десятилетия, поэтому полезно разобраться, как он работает. Более того, некоторые исследователи убеждены, что этот метод позволит создать ИИ-системы человеческого уровня в течение нескольких лет, так что стоит оценить, насколько это вероятно.
Проще всего понять глубокое обучение в контексте конкретной задачи, например обучения умению отличать жирафов от лам. Получив некоторое количество подписанных фотографий тех и других животных, обучающийся алгоритм должен сформировать гипотезу, позволяющую ему классифицировать неподписанные изображения. С точки зрения компьютера изображение есть не более чем большая таблица с числами, каждое из которых соответствует одному из трех RGB-значений одного пикселя изображения. Итак, вместо гипотезы го, которая принимает позицию на доске и ход как входной сигнал и решает, является ли ход допустимым, нам нужна гипотеза «жираф−лама», которая брала бы таблицу чисел в качестве входа и предсказывала категорию (жираф или лама).