Онлайновое машинное обучение
Онлайновое машинное обучение — это метод машинного обучения, в котором данные становятся доступными в последовательном порядке и используются для обновления лучшего предсказания для последующих данных, выполняемого на каждом шаге обучения. Метод противоположен пакетной технике обучения, в которой лучшее предсказание генерируется за один раз, исходя из полного тренировочного набора данных. Онлайновое обучение является общей техникой, используемой в областях машинного обучения, когда невозможна тренировка по всему набору данных, например, когда возникает необходимость в алгоритмах, работающих с внешней памятью. Метод используется также в ситуациях, когда алгоритму приходится динамически приспосабливать новые схемы в данных или когда сами данные образуются как функция от времени, например, при предсказании цен на фондовом рынке[англ.]. Алгоритмы онлайнового обучения могут быть склонны к катастрофическим помехам[англ.], проблеме, которая может быть решена с помощью подхода пошагового обучения[англ.][1].
Введение
правитьВ условиях обучения с учителем обучается функция , где рассматривается как пространство входных данных, а — пространство выходных данных, которая хорошо предсказывает на элементах совместного распределения вероятностей на . В действительности при обучении истинное распределение никогда не известно. Обычно, наоборот, есть доступ к тренировочному набору примеров . В этих условиях функция потерь задаётся как , такая, что измеряет разницу между предсказанным значением и истинным значением . Идеальная цель — выбрать функцию , где является пространством функций, называемым пространством гипотез, так, что полные потери минимальны в некотором смысле. В зависимости от типа модели (статистическая или состязательная), можно разработать различные понятия потерь, которые приводят к различным алгоритмам обучения.
Статистический взгляд на онлайновое обучение
правитьВ статистических моделях обучения проверочная выборка предполагается извлечённой из истинного распределения и целью обучения является минимизация ожидаемого «риска»
Общей парадигмой в этой ситуации является оценка функции посредством минимизации эмпирического риска или минимизации регуляризованного эмпирического риска (обычно используется регуляризация Тихонова). Выбор функции потерь здесь даёт несколько хорошо известных алгоритмов обучения, таких как регуляризованный метод наименьших квадратов и метод опорных векторов. Чисто онлайновой моделью в этой категории было бы обучение лишь на новых входных данных , текущем лучшем предсказателе и некоторой добавочной запомненной информации (которая, обычно, имеет требования к памяти, не зависящие от размера данных). Для многих постановок задачи, например для нелинейных ядерных методов, истинное онлайновое обучение невозможно, хотя могут быть использованы гибридные формы онлайнового обучения с рекурсивными алгоритмами, где значению разрешено зависеть от и всех предыдущих точек данных . В этом случае требования к памяти больше нельзя ограничить, поскольку требуется сохранение всех предыдущих точек, но решение может брать меньше времени для вычисления с добавлением новых точек данных, чем техники пакетного обучения.
Общая стратегия совладания с упомянутой проблемой — это обучение с помощью минипакетов, когда обрабатываются небольшие пакеты по точек данных за момент времени, и это можно рассматривать как псевдоонлайновое обучение для много меньшим общего числа тренировочных точек. Техника минипакетов используется с повторным проходом по тренировочным данным, чтобы получить оптимизированную версию алгоритмов машинного обучения с внешней памятью, например стохастический градиентный спуск. При комбинации с методом обратного распространения ошибки это является в настоящее время, де факто, методом тренировки искусственных нейронных сетей.
Пример: линейный метод наименьших квадратов
правитьЛинейный метод наименьших квадратов используется здесь для объяснения разных идей онлайнового обучения. Идеи достаточно общие, чтобы их можно было применить для других установок, например, для других выпуклых функций потерь.
Пакетное обучение
правитьВ условиях обучения с учителем с квадратичной функцией потерь целью является минимизация эмпирических потерь
- , где
- .
Пусть будет матрицей данных и будет матрицей целевых значений после поступления первых точек данных. При предположении, что матрица ковариации обратима (в противном случае следует провести процедуру, аналогичную регуляризации Тихонова), лучшее решение метода наименьших квадратов задаётся равенством
- .
Теперь вычисление ковариационной матрицы займёт времени, обращение матрицы займёт времени, а умножение матриц займёт времени, что даёт общее время . Если имеется в общей сложности точек в наборе данных и необходимо перевычислить решение после прибытия каждой точки данных , естественный подход будет иметь полную сложность . Заметим, что в случае сохранения матрицы обновление на каждом шаге требует лишь добавления , что занимает времени, что сокращает общее время до , но требует дополнительного пространства для запоминания [2].
Онлайновое обучение: рекурсивный метод наименьших квадратов
правитьРекурсивный метод наименьших квадратов рассматривает онлайновый подход к методу наименьших квадратов. Можно показать, что при инициализации и решение линейного метода наименьших квадратов может быть вычислено следующим образом:
Приведённый выше итерационный алгоритм может быть доказан с помощью индукции по [3]. Доказательство также показывает, что . Можно рассматривать рекурсивный метод наименьших квадратов в контексте адаптивных фильтров (см. Рекурсивный метод наименьших квадратов[англ.]).
Сложность шагов этого алгоритма равна , что быстрее, чем соответствующая сложность пакетного обучения. Память, требуемая для каждого шага для сохранения матрицы , здесь является константой . Для случая, когда не обратима, рассматривается регуляризованная версия функции потерь . Тогда просто показать, что тот же алгоритм работает с , и продолжение итераций даёт [2].
Метод стохастического градиентного спуска
правитьЕсли равенство
Заменяется на
или на , это становится алгоритмом стохастического градиентного спуска. В этом случае сложность для шагов этого алгоритма сокращается до . Требования к памяти на каждом шаге являются константой .
Однако размер шага для решения задачи минимизации ожидаемого риска следует выбирать осторожно, как объяснено выше. При выборе размера шага затухания можно доказать сходимость средней итерации . Эти установки являются частным случаем стохастической оптимизации, хорошо известной задачи оптимизации[2].
Инкрементальный стохастический градиентный спуск
правитьНа практике можно осуществить несколько стохастических градиентных проходах по данным. Полученный алгоритм называется инкрементальным градиентным методом и соответствует итерации
Основная разница с методом стохастического градиента заключается в том, что здесь выбирается для решения, какая тренировочная точка посещена на шаге . Такая последовательность может быть случайной или детерминированной. Число итераций, таким образом, отвязывается от числа точек (каждая точка может быть просмотрена более чем один раз). Можно показать, что метод инкрементального градиента даёт минимизацию эмпирического риска[4]. Инкрементальные техники могут иметь преимущества, если рассматривать целевую функцию как сумму многих элементов, например, как эмпирическую ошибку очень большого набора данных[2].
Ядерные методы
правитьЯдра могут быть использованы для расширения вышеприведённых алгоритмов до непараметрических моделей (или моделей, в которых параметры образуют бесконечномерное пространство). Соответствующая процедура более не будет истинно онлайновой и вместо этого сохраняет все точки данных, но метод остаётся более быстрым, чем прямой перебор. Данное обсуждение ограничено случаем квадратных потерь, хотя оно может быть расширено до любой выпуклой функции потерь. Можно показать прямой индукцией[2], что когда является матрицей данных, а является выходом после шагов алгоритма случайного градиентного спуска, то
где и последовательность удовлетворяет рекуррентным соотношениям
- и
Заметим, что здесь является стандартным ядром в , и предсказательная функция имеет вид
- .
Теперь, если ввести общее ядро и представить функцию предсказания как
- ,
тогда то же доказательство показывает, что функция предсказания, минимизирующая методом наименьших квадратов функцию потерь, получается заменой вышеприведённой рекурсии на
Приведённое выражение требует запоминания всех данных для обновления . Общая сложность по времени для рекурсии, если вычислять для -ой точки данных, равна , где является ценой вычисления ядра на одной паре точек[2]. Тогда использование ядра позволяет движение от конечномерного пространства параметров к возможно бесконечномерному пространству, представленному ядром , вместо осуществления рекурсии по пространству параметров , размерность которого та же, что и размер тренировочного множества данных. В общем случае этот подход является следствием теоремы о представлении[англ.][2].
Прогрессивное обучение
правитьПрогрессивное обучение — это эффективная модель обучения, которая демонстрируется процессом обучения людей. Этот процесс обучения происходит непрерывно, исходя из прямого опыта. Техника прогрессивного обучения в машинном обучении может обучать новые классы или метки динамически на лету[5]. Хотя онлайновые обучения могут обучать новые выборки данных, которые поступают последовательно, они не могут обучать новые классы данных. Парадигма обучения прогрессивного обучения не зависит от числа ограничений на классы и может обучать новые классы, сохраняя знания предыдущих классов. Как бы то ни было, если встречается новый класс (не возникающий естественно), классификатор перестраивается автоматически и параметры вычисляются таким образом, что сохраняются предыдущие знания. Эта техника пригодна для приложений из реального мира, в которых число классов часто неизвестно и требуется онлайновое обучение из данных, поступающих в реальное время.
Онлайновая выпуклая оптимизация
правитьОнлайновая выпуклая оптимизация[6] — это общая схема принятия решений, которая использует выпуклую оптимизацию для получения эффективных алгоритмов. Схема является многократным повторением следующих действий:
Для
- Ученик получает вход
- Ученик образует выход из фиксированного выпуклого множества
- Природа возвращает значение выпуклой функции потерь .
- Ученик учитывает потерю и обновляет модель
Целью является минимизация «сожаления» или разности между общей потерей и потерей на лучшей фиксированной точке в ретроспективе. Как пример, рассмотрим случай онлайновой линейной регрессии методом наименьших квадратов. Здесь вес векторов приходит из выпуклого множества и природа возвращает выпуклую функцию потерь . Заметим, что неявно присылается с .
Некоторые задачи онлайнового предсказания, однако, не могут вместиться в схему онлайновой выпуклой оптимизации. Например, в онлайновой классификации, область предсказания и функции потерь не выпуклы. В таких сценариях применяются две простые техники приведения к выпуклому случаю — рандомизация и суррогатные функции потерь.
Некоторые простые алгоритмы онлайновой выпуклой оптимизации:
Следование за лидером
правитьПростейшее обучающее правило для пробы — выбрать (на текущем шаге) гипотезу, которая имеет наименьшие потери среди всех предыдущих раундов. Этот алгоритм называется «Следование за лидером» (англ. Follow the leader) и просто даёт раунд :
Этот метод можно тогда рассматривать как жадный алгоритм. Для случая онлайновой квадратичной оптимизации (где функция потерь равна ), можно показать, что граница «сожаления» растёт как . Однако похожие границы не могут быть получены для алгоритма «следования за лидером» для других важных семейств моделей, как для онлайновой линейной оптимизации. Чтобы их получить, в алгоритм добавляется регуляризация.
Следование за регуляризованным лидером
правитьЭто естественная модификация алгоритма следования за лидером, которая используется для стабилизации решений следования за лидером и получения лучших границ «сожаления». Выбирается функция регуляризации и осуществляется обучение в раунде t следующим образом:
В качестве частного случая рассмотрим случай онлайновой линейной оптимизации, то есть, когда природа возвращает функции потерь вида . Также пусть . Предположим, что функция регуляризации выбирается для некоторого положительного числа . Тогда можно показать, что итерация минимизации «сожаления» превращается в
Заметим, что это может быть переписано как , что выглядит совершенно аналогично методу онлайнового градиентного спуска.
Если S является выпуклым подпространством , S нужно спроецировать, что приводит к модифицированному правилу обновления
Алгоритм известен как ленивая проекция, так как вектор аккумулирует градиенты. Это известно также как алгоритм двойного усреднения Нестерова (или субградиентным методом с двойным усреднением[7]). В этом сценарии линейные функции потерь и квадратичная регуляризация «сожаление» ограничено значением , а тогда среднее «сожаления» стремится к 0.
Онлайновый субградиентный спуск
правитьВыше доказана граница «сожаления» для линейных функций потерь . Для обобщения алгоритма на любую выпуклую функции потерь используется субградиент функции как линейная аппроксимация около , что приводит к алгоритму онлайнового субградиентного спуска:
Инициируем параметр
Для
- Делаем предсказание, используя , получаем от природы .
- Выбираем
- Если , делаем обновление
- Если , проецируем кумулятивные градиенты в i.e.
Можно использовать алгоритм онлайнового субградиентного спуска для получения границ «сожаления» для онлайновой версии метода опорных векторов для классификации, которая использует кусочно-линейную функция потерь[англ.]
Другие алгоритмы
правитьАлгоритмы следования за квадратично регуляризованным лидером приводят к алгоритмам лениво проецируемого градиента, как описаны выше. Чтобы использовать описанный выше подход для любых выпуклых функций и регуляризаторов, можно использовать онлайновый зеркальный спуск. Оптимальная регуляризация в кусочно-линейной функции может быть получена для линейных функций потерь, что приводит к алгоритму AdaGrad. Для евклидовой регуляризации можно показать, что граница «сожаления» равна и она может быть улучшена до для строго выпуклых и exp-вогнутых функций потерь.
Интерпретации онлайнового обучения
правитьПарадигма онлайнового обучения имеет различные интерпретации в зависимости от выбора обучающей модели, каждая из которых имеет разное качество предсказаний последовательности функций . Для обсуждения используем алгоритм стохастического градиентного спуска. Как замечено выше, рекурсия алгоритма задаётся равенством
Первая интерпретация рассматривает метод стохастического градиентного спуска как применение к задаче минимизации ожидаемого риска , определённого выше [8]. Более того, в случае бесконечного потока данных, поскольку экземпляры предполагаются выбранными из независимого и одинаково распределённого распределения , последовательности градиентов в итерации выше являются независимыми и одинаково распределёнными выборками стохастической оценки градиента ожидаемого риска , а потому можно применить результаты сложности для метода стохастического градиентного спуска для ограничения отклонения , где является минимизатором [9]. Эта интерпретация верна также в случае конечных тренировочных наборов. Хотя при неоднократном проходе по данным градиенты уже не будут независимыми, результаты сложности в частных случаях могут быть получены.
Вторая интерпретация применяется к случаю конечного тренировочного набора и рассматривается алгоритм стохастического градиентного спуска как представителя инкрементального градиентного спуска[4]. В этом случае можно смотреть на эмпирический риск:
Поскольку градиенты в итерациях инкрементального градиентного спуска являются стохастическими оценками градиента , эта интерпретация связана с методом стохастического градиентного спуска, но применённого к минимизации эмпирического риска в противоположность ожидаемому риску. Поскольку эта интерпретация касается эмпирического риска, а не ожидаемого риска, многократные проходы по данным совершенно допустимы и, на самом деле, ведут к тесным границам отклонений , где минимизатор .
Реализации
править- Vowpal Wabbit[англ.]: Быстрая система онлайнового обучения с внешней памятью и открытым кодом с некоторым набором поддерживаемых техник машинного обучения, со взвешиванием важности и выбором различных функций потерь и алгоритмов оптимизации. Система использует хеш-трюк[англ.] для ограничения размера набора признаков независимо от размера тренировочных данных.
- scikit-learn: Обеспечивает реализацию с внешней памятью алгоритмов для
- классификаторов: перцептрон, классификатор методом статистического градиентного спуска, наивный байесовский классификатор.
- регрессии: регрессия стохастическим градиентным спуском, пассивный агрессивный регрессор.
- кластеризации: метод k-средних.
- выделения признаков: минипакетное словарное обучение, инкрементальный метод главных компонент.
См. также
править- Иерархическая временная память
- Метод k ближайших соседей
- Ленивое обучение[англ.]
- Квантизация вектора при обучении[англ.]
- Офлайновое обучение[англ.], противоположная модель
- Онлайновый алгоритм[англ.]
- Поточный алгоритм
- Перцептрон
- Стохастический градиентный спуск
- Обучение с учителем
- Онлайновая оптимизация[англ.]
Примечания
править- ↑ Катастрофическая помеха — это склонность искусственных нейронных сетей внезапно полностью забыть всё, чему сеть была обучена до этого.
- ↑ 1 2 3 4 5 6 7 Rosasco, Poggio, 2015.
- ↑ Yin, Kushner, 2003, с. 8–12.
- ↑ 1 2 Bertsekas, 2011.
- ↑ Venkatesan, Meng Joo, 2016, с. 310–321.
- ↑ Hazan, 2015.
- ↑ Долгополик, 2016.
- ↑ Bottou, 1998.
- ↑ Kushner, Yin, 1997.
Литература
править- Léon Bottou. Online Algorithms and Stochastic Approximations // Online Learning and Neural Networks. — Cambridge University Press, 1998. — ISBN 978-0-521-65263-6.
- Rosasco L., Poggio T. Chapter 7 - Online Learning // Machine Learning: a Regularization Approach. MIT-9.520 Lectures Notes. — 2015. — (Manuscript).
- Harold J. Kushner, G. George Yin. Stochastic Approximation Algorithms and Applications. — New York: Springer-Verlag, 1997. — ISBN 0-387-94916-X.
- Harold J. Kushner, G. George Yin. Stochastic Approximation and Recursive Algorithms and Applications. — 2nd ed.. — New York: Springer-Verlag, 2003. — ISBN 0-387-00894-2.
- Elad Hazan. Introduction to Online Convex Optimization. — Foundations and Trends® in Optimization, 2015.
- Rajasekar Venkatesan, Er Meng Joo. A novel progressive learning technique for multi-class classification // Neurocomputing. — 2016. — Т. 207. — doi:10.1016/j.neucom.2016.05.006. — arXiv:1609.00085.
- Долгополик М. В. Метод Нестерова минимизации выпуклых функций. — 2016.
- Harold J. Yin, G. George Kushner. Stochastic approximation and recursive algorithms and applications. — Second. — New York: Springer, 2003. — ISBN 978-0-387-21769-7.
- Bertsekas D. P. Incremental gradient, subgradient, and proximal methods for convex optimization: a survey // Optimization for Machine Learning. — 2011. — Вып. 85.
Ссылки
править- http://onlineprediction.net/ Архивная копия от 31 октября 2018 на Wayback Machine, Wiki for On-Line Prediction.
Для улучшения этой статьи желательно:
|