задачи классификации в машинном обучении примеры

Обзор методов классификации в машинном обучении с помощью Scikit-Learn

Авторизуйтесь

Обзор методов классификации в машинном обучении с помощью Scikit-Learn

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Для машинного обучения на Python написано очень много библиотек. Сегодня мы рассмотрим одну из самых популярных — Scikit-Learn.

Scikit-Learn упрощает процесс создания классификатора и помогает более чётко выделить концепции машинного обучения, реализуя их с помощью понятной, хорошо документированной и надёжной библиотекой.

Что такое Scikit-Learn?

Scikit-Learn — это Python-библиотека, впервые разработанная David Cournapeau в 2007 году. В этой библиотеке находится большое количество алгоритмов для задач, связанных с классификацией и машинным обучением в целом.

Scikit-Learn базируется на библиотеке SciPy, которую нужно установить перед началом работы.

Основные термины

В системах машинного обучения или же системах нейросетей существуют входы и выходы. То, что подаётся на входы, принято называть признаками (англ. features).

Признаки по существу являются тем же, что и переменные в научном эксперименте — они характеризуют какой-либо наблюдаемый феномен и их можно как-то количественно измерить.

Когда признаки подаются на входы системы машинного обучения, эта система пытается найти совпадения, заметить закономерность между признаками. На выходе генерируется результат этой работы.

Этот результат принято называть меткой (англ. label), поскольку у выходов есть некая пометка, выданная им системой, т. е. предположение (прогноз) о том, в какую категорию попадает выход после классификации.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

В контексте машинного обучения классификация относится к обучению с учителем. Такой тип обучения подразумевает, что данные, подаваемые на входы системы, уже помечены, а важная часть признаков уже разделена на отдельные категории или классы. Поэтому сеть уже знает, какая часть входов важна, а какую часть можно самостоятельно проверить. Пример классификации — сортировка различных растений на группы, например «папоротники» и «покрытосеменные». Подобная задача может быть выполнена с помощью Дерева Решений — одного из типов классификатора в Scikit-Learn.

При обучении без учителя в систему подаются непомеченные данные, и она должна попытаться сама разделить эти данные на категории. Так как классификация относится к типу обучения с учителем, способ обучения без учителя в этой статье рассматриваться не будет.

Процесс обучения модели — это подача данных для нейросети, которая в результате должна вывести определённые шаблоны для данных. В процессе обучения модели с учителем на вход подаются признаки и метки, а при прогнозировании на вход классификатора подаются только признаки.

Принимаемые сетью данные делятся на две группы: набор данных для обучения и набор для тестирования. Не стоит проверять сеть на том же наборе данных, на которых она обучалась, т. к. модель уже будет «заточена» под этот набор.

Типы классификаторов

Scikit-Learn даёт доступ ко множеству различных алгоритмов классификации. Вот основные из них:

На сайте Scikit-Learn есть много литературы на тему этих алгоритмов с кратким пояснением работы каждого из них.

Метод k-ближайших соседей (K-Nearest Neighbors)

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Этот метод работает с помощью поиска кратчайшей дистанции между тестируемым объектом и ближайшими к нему классифицированным объектами из обучающего набора. Классифицируемый объект будет относится к тому классу, к которому принадлежит ближайший объект набора.

Классификатор дерева решений (Decision Tree Classifier)

Этот классификатор разбивает данные на всё меньшие и меньшие подмножества на основе разных критериев, т. е. у каждого подмножества своя сортирующая категория. С каждым разделением количество объектов определённого критерия уменьшается.

Классификация подойдёт к концу, когда сеть дойдёт до подмножества только с одним объектом. Если объединить несколько подобных деревьев решений, то получится так называемый Случайный Лес (англ. Random Forest).

Наивный байесовский классификатор (Naive Bayes)

Такой классификатор вычисляет вероятность принадлежности объекта к какому-то классу. Эта вероятность вычисляется из шанса, что какое-то событие произойдёт, с опорой на уже на произошедшие события.

Каждый параметр классифицируемого объекта считается независимым от других параметров.

Линейный дискриминантный анализ (Linear Discriminant Analysis)

Этот метод работает путём уменьшения размерности набора данных, проецируя все точки данных на линию. Потом он комбинирует эти точки в классы, базируясь на их расстоянии от центральной точки.

Этот метод, как можно уже догадаться, относится к линейным алгоритмам классификации, т. е. он хорошо подходит для данных с линейной зависимостью.

Метод опорных векторов (Support Vector Machines)

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Работа метода опорных векторов заключается в рисовании линии между разными кластерами точек, которые нужно сгруппировать в классы. С одной стороны линии будут точки, принадлежащие одному классу, с другой стороны — к другому классу.

Классификатор будет пытаться увеличить расстояние между рисуемыми линиями и точками на разных сторонах, чтобы увеличить свою «уверенность» определения класса. Когда все точки построены, сторона, на которую они падают — это класс, которому эти точки принадлежат.

Логистическая регрессия (Logistic Regression)

У каждого признака есть своя метка, равная только 0 или только 1. Логистическая регрессия является линейным классификатором и поэтому используется, когда в данных прослеживается какая-то линейная зависимость.

Примеры задач классификации

Задача классификации — эта любая задача, где нужно определить тип объекта из двух и более существующих классов. Такие задачи могут быть разными: определение, кошка на изображении или собака, или определение качества вина на основе его кислотности и содержания алкоголя.

В зависимости от задачи классификации вы будете использовать разные типы классификаторов. Например, если классификация содержит какую-то бинарную логику, то к ней лучше всего подойдёт логистическая регрессия.

По мере накопления опыта вам будет проще выбирать подходящий тип классификатора. Однако хорошей практикой является реализация нескольких подходящих классификаторов и выбор наиболее оптимального и производительного.

Реализация классификатора

Первый шаг в реализации классификатора — его импорт в Python. Вот как это выглядит для логистической регрессии:

Вот импорты остальных классификаторов, рассмотренных выше:

Однако, это не все классификаторы, которые есть в Scikit-Learn. Про остальные можно прочитать на соответствующей странице в документации.

После этого нужно создать экземпляр классификатора. Сделать это можно создав переменную и вызвав функцию, связанную с классификатором.

Теперь классификатор нужно обучить. Перед этим нужно «подогнать» его под тренировочные данные.

Обучающие признаки и метки помещаются в классификатор через функцию fit :

Эти этапы (создание экземпляра, обучение и классификация) являются основными при работе с классификаторами в Scikit-Learn. Но эта библиотека может управлять не только классификаторами, но и самими данными. Чтобы разобраться в том, как данные и классификатор работают вместе над задачей классификации, нужно разобраться в процессах машинного обучения в целом.

Процесс машинного обучения

Процесс содержит в себе следующие этапы: подготовка данных, создание обучающих наборов, создание классификатора, обучение классификатора, составление прогнозов, оценка производительности классификатора и настройка параметров.

Во-первых, нужно подготовить набор данных для классификатора — преобразовать данные в корректную для классификации форму и обработать любые аномалии в этих данных. Отсутствие значений в данных либо любые другие отклонения — все их нужно обработать, иначе они могут негативно влиять на производительность классификатора. Этот этап называется предварительной обработкой данных (англ. data preprocessing).

Следующим шагом будет разделение данных на обучающие и тестовые наборы. Для этого в Scikit-Learn существует отличная функция traintestsplit.

Как уже было сказано выше, классификатор должен быть создан и обучен на тренировочном наборе данных. После этих шагов модель уже может делать прогнозы. Сравнивая показания классификатора с фактически известными данными, можно делать вывод о точности классификатора.

Вероятнее всего, вам нужно будет «корректировать» параметры классификатора, пока вы не достигните желаемой точности (т. к. маловероятно, что классификатор будет соответствовать всем вашим требованиям с первого же запуска).

Ниже будет представлен пример работы машинного обучения от обработки данных и до оценки.

Реализация образца классификации

Поскольку набор данных iris достаточно распространён, в Scikit-Learn он уже присутствует, достаточно лишь заложить эту команду:

Тем не менее, тут ещё нужно подгрузить CSV-файл, который можно скачать здесь.

Благодаря тому, что данные уже были подготовлены, долгой предварительной обработки они не требуют. Единственное, что может понадобиться — убрать ненужные столбцы (например ID ) таким образом:

Теперь нужно определить признаки и метки. С библиотекой Pandas можно легко «нарезать» таблицу и выбрать определённые строки/столбцы с помощью функции iloc() :

Код выше выбирает каждую строку и столбец, обрезав при этом последний столбец.

Выбрать признаки интересующего вас набора данных можно также передав в скобках заголовки столбцов:

После того, как вы выбрали нужные признаки и метки, их можно разделить на тренировочные и тестовые наборы, используя функцию train_test_split() :

Чтобы убедиться в правильности обработки данных, используйте:

Теперь можно создавать экземпляр классификатора, например метод опорных векторов и метод k-ближайших соседей:

Теперь нужно обучить эти два классификатора:

Эти команды обучили модели и теперь классификаторы могут делать прогнозы и сохранять результат в какую-либо переменную.

Теперь пришло время оценить точности классификатора. Существует несколько способов это сделать.

Нужно передать показания прогноза относительно фактически верных меток, значения которых были сохранены ранее.

Вот, к примеру, результат полученных метрик:

Поначалу кажется, что KNN работает точнее. Вот матрица неточностей для SVC:

Количество правильных прогнозов идёт с верхнего левого угла в нижний правый. Вот для сравнения метрики классификации для KNN:

Оценка классификатора

Когда дело доходит до оценки точности классификатора, есть несколько вариантов.

Точность классификации

Точность классификации измерять проще всего, и поэтому этот параметр чаще всего используется. Значение точности — это число правильных прогнозов, делённое на число всех прогнозов или, проще говоря, отношение правильных прогнозов ко всем.

Хоть этот показатель и может быстро дать вам явное представление о производительности классификатора, его лучше использовать, когда каждый класс имеет хотя бы примерно одинаковое количество примеров. Так как такое будет случаться редко, рекомендуется использовать другие показатели классификации.

Логарифмические потери

Значение Логарифмических Потерь (англ. Logarithmic Loss) — или просто логлосс — показывает, насколько классификатор «уверен» в своём прогнозе. Логлосс возвращает вероятность принадлежности объекта к тому или иному классу, суммируя их, чтобы дать общее представление об «уверенности» классификатора.

Этот показатель лежит в промежутке от 0 до 1 — «совсем не уверен» и «полностью уверен» соответственно. Логлосс сильно падает, когда классификатор сильно «уверен» в неправильном ответе.

Площадь ROC-кривой (AUC)

Такой показатель используется только при бинарной классификации. Площадь под ROC-кривой представляет способность классификатора различать подходящие и не подходящие какому-либо классу объекты.

Значение 1.0 : вся область, попадающая под кривую, представляет собой идеальный классификатор. Следовательно, 0.5 означает, что точность классификатора соответствует случайности. Кривая рассчитывается с учётом точности и специфичности модели. Подробнее о расчётах можно прочитать здесь.

Матрица неточностей

Матрица неточностей (англ. Confusion Matrix) — это таблица или диаграмма, показывающая точность прогнозирования классификатора в отношении двух и более классов. Прогнозы классификатора находятся на оси X, а результат (точность) — на оси Y.

Ячейки таблицы заполняются количеством прогнозов классификатора. Правильные прогнозы идут по диагонали от верхнего левого угла в нижний правый. Про это можно почитать в данной статье.

Отчёт о классификации

В библиотеке Scikit-Learn уже встроена возможность создавать отчёты о производительности классификатора. Эти отчёты дают интуитивно понятное представление о работе модели.

Заключение

Чтобы лучше вникнуть в работу с Scikit-Learn, неплохо было бы узнать больше о работе различных методов классификации. После этого стоит лучше узнать о замере производительности классификаторов. Однако понимание многих нюансов в классификации приходит только со временем.

Хинт для программистов: если зарегистрируетесь на соревнования Huawei Cup, то бесплатно получите доступ к онлайн-школе для участников. Можно прокачаться по разным навыкам и выиграть призы в самом соревновании.

Перейти к регистрации

Источник

Открытый курс машинного обучения. Тема 4. Линейные модели классификации и регрессии

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Сегодня мы детально обсудим очень важный класс моделей машинного обучения – линейных. Ключевое отличие нашей подачи материала от аналогичной в курсах эконометрики и статистики – это акцент на практическом применении линейных моделей в реальных задачах (хотя и математики тоже будет немало).

Пример такой задачи – это соревнование Kaggle Inclass по идентификации пользователя в Интернете по его последовательности переходов по сайтам.

UPD: теперь курс — на английском языке под брендом mlcourse.ai со статьями на Medium, а материалами — на Kaggle (Dataset) и на GitHub.

Все материалы доступны на GitHub.
А вот видеозапись лекции по мотивам этой статьи в рамках второго запуска открытого курса (сентябрь-ноябрь 2017). В ней, в частности, рассмотрены два бенчмарка соревнования, полученные с помощью логистической регрессии.

1. Линейная регрессия

Метод наименьших квадратов

Рассказ про линейные модели мы начнем с линейной регрессии. В первую очередь, необходимо задать модель зависимости объясняемой переменной задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыот объясняющих ее факторов, функция зависимости будет линейной: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Если мы добавим фиктивную размерность задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыдля каждого наблюдения, тогда линейную форму можно переписать чуть более компактно, записав свободный член задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыпод сумму: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Если рассматривать матрицу наблюдения-признаки, у которой в строках находятся примеры из набора данных, то нам необходимо добавить единичную колонку слева. Зададим модель следующим образом:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Можем выписать выражение для каждого конкретного наблюдения

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Также на модель накладываются следующие ограничения (иначе это будет какая то другая регрессия, но точно не линейная):

Оценка задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерывесов задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыназывается линейной, если

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

где задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерызависит только от наблюдаемых данных задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи почти наверняка нелинейно. Так как решением задачи поиска оптимальных весов будет именно линейная оценка, то и модель называется линейной регрессией. Введем еще одно определение. Оценка задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыназывается несмещенной тогда, когда матожидание оценки равно реальному, но неизвестному значению оцениваемого параметра:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Один из способов вычислить значения параметров модели является метод наименьших квадратов (МНК), который минимизирует среднеквадратичную ошибку между реальным значением зависимой переменной и прогнозом, выданным моделью:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Для решения данной оптимизационной задачи необходимо вычислить производные по параметрам модели, приравнять их к нулю и решить полученные уравнения относительно задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры(матричное дифференцирование неподготовленному читателю может показаться затруднительным, попробуйте расписать все через суммы, чтобы убедиться в ответе):

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Итак, имея в виду все определения и условия описанные выше, мы можем утверждать, опираясь на теорему Маркова-Гаусса, что оценка МНК является лучшей оценкой параметров модели, среди всех линейных и несмещенных оценок, то есть обладающей наименьшей дисперсией.

Метод максимального правдоподобия

У читателя вполне резонно могли возникнуть вопросы: например, почему мы минимизируем среднеквадратичную ошибку, а не что-то другое. Ведь можно минимизировать среднее абсолютное значение невязки или еще что-то. Единственное, что произойдёт в случае изменения минимизируемого значения, так это то, что мы выйдем из условий теоремы Маркова-Гаусса, и наши оценки перестанут быть лучшими среди линейных и несмещенных.

Давайте перед тем как продолжить, сделаем лирическое отступление, чтобы проиллюстрировать метод максимального правдоподобия на простом примере.

Как-то после школы я заметил, что все помнят формулу этилового спирта. Тогда я решил провести эксперимент: помнят ли люди более простую формулу метилового спирта: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Мы опросили 400 человек и оказалось, что формулу помнят всего 117 человек. Разумно предположить, что вероятность того, что следующий опрошенный знает формулу метилового спирта – задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Покажем, что такая интуитивно понятная оценка не просто хороша, а еще и является оценкой максимального правдоподобия.

Разберемся, откуда берется эта оценка, а для этого вспомним определение распределения Бернулли: случайная величина задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыимеет распределение Бернулли, если она принимает всего два значения ( задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыс вероятностями задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерысоответственно) и имеет следующую функцию распределения вероятности:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Похоже, это распределение – то, что нам нужно, а параметр распределения задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи есть та оценка вероятности того, что человек знает формулу метилового спирта. Мы проделали задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынезависимых экспериментов, обозначим их исходы как задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Запишем правдоподобие наших данных (наблюдений), то есть вероятность наблюдать 117 реализаций случайной величины задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи 283 реализации задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Далее будем максимизировать это выражение по задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, и чаще всего это делают не с правдоподобием задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, а с его логарифмом (применение монотонного преобразования не изменит решение, но упростит вычисления):

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Теперь мы хотим найти такое значение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, которое максимизирует правдоподобие, для этого мы возьмем производную по задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, приравняем к нулю и решим полученное уравнение:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Получается, что наша интуитивная оценка – это и есть оценка максимального правдоподобия. Применим теперь те же рассуждения для задачи линейной регрессии и попробуем выяснить, что лежит за среднеквадратичной ошибкой. Для этого нам придется посмотреть на линейную регрессию с вероятностной точки зрения. Модель, естественно, остается такой же:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

но будем теперь считать, что случайные ошибки берутся из центрированного нормального распределения:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Перепишем модель в новом свете:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Так как примеры берутся независимо (ошибки не скоррелированы – одно из условий теоремы Маркова-Гаусса), то полное правдоподобие данных будет выглядеть как произведение функций плотности задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Рассмотрим логарифм правдоподобия, что позволит нам перейти от произведения к сумме:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Мы хотим найти гипотезу максимального правдоподобия, т.е. нам нужно максимизировать выражение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, а это то же самое, что и максимизация его логарифма. Обратите внимание, что при максимизации функции по какому-то параметру можно выкинуть все члены, не зависящие от этого параметра:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Таким образом, мы увидели, что максимизация правдоподобия данных – это то же самое, что и минимизация среднеквадратичной ошибки (при справедливости указанных выше предположений). Получается, что именно такая функция стоимости является следствием того, что ошибка распределена нормально, а не как-то по-другому.

Разложение ошибки на смещение и разброс (Bias-variance decomposition)

Поговорим немного о свойствах ошибки прогноза линейной регрессии (в принципе эти рассуждения верны для всех алгоритмов машинного обучения). В свете предыдущего пункта мы выяснили, что:

Тогда ошибка в точке задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыраскладывается следующим образом:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Для наглядности опустим обозначение аргумента функций. Рассмотрим каждый член в отдельности, первые два расписываются легко по формуле задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

И теперь последний член суммы. Мы помним, что ошибка и целевая переменная независимы друг от друга:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Наконец, собираем все вместе:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Итак, мы достигли цели всех вычислений, описанных выше, последняя формула говорит нам, что ошибка прогноза любой модели вида задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыскладывается из:

Если с последней мы ничего сделать не можем, то на первые два слагаемых мы можем как-то влиять. В идеале, конечно же, хотелось бы свести на нет оба этих слагаемых (левый верхний квадрат рисунка), но на практике часто приходится балансировать между смещенными и нестабильными оценками (высокая дисперсия).

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Как правило, при увеличении сложности модели (например, при увеличении количества свободных параметров) увеличивается дисперсия (разброс) оценки, но уменьшается смещение. Из-за того что тренировочный набор данных полностью запоминается вместо обобщения, небольшие изменения приводят к неожиданным результатам (переобучение). Если же модель слабая, то она не в состоянии выучить закономерность, в результате выучивается что-то другое, смещенное относительно правильного решения.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Теорема Маркова-Гаусса как раз утверждает, что МНК-оценка параметров линейной модели является самой лучшей в классе несмещенных линейных оценок, то есть с наименьшей дисперсией. Это значит, что если существует какая-либо другая несмещенная модель задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерытоже из класса линейных моделей, то мы можем быть уверены, что задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

Регуляризация линейной регрессии

Иногда бывают ситуации, когда мы намеренно увеличиваем смещенность модели ради ее стабильности, т.е. ради уменьшения дисперсии модели задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Одним из условий теоремы Маркова-Гаусса является полный столбцовый ранг матрицы задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. В противном случае решение МНК задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыне существует, т.к. не будет существовать обратная матрица задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыДругими словами, матрица задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыбудет сингулярна, или вырожденна. Такая задача называется некорректно поставленной. Задачу нужно скорректировать, а именно, сделать матрицу задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыневырожденной, или регулярной (именно поэтому этот процесс называется регуляризацией). Чаще в данных мы можем наблюдать так называемую мультиколлинеарность — когда два или несколько признаков сильно коррелированы, в матрице задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыэто проявляется в виде «почти» линейной зависимости столбцов. Например, в задаче прогнозирования цены квартиры по ее параметрам «почти» линейная зависимость будет у признаков «площадь с учетом балкона» и «площадь без учета балкона». Формально для таких данных матрица задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыбудет обратима, но из-за мультиколлинеарности у матрицы задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынекоторые собственные значения будут близки к нулю, а в обратной матрице задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыпоявятся экстремально большие собственные значения, т.к. собственные значения обратной матрицы – это задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Итогом такого шатания собственных значений станет нестабильная оценка параметров модели, т.е. добавление нового наблюдения в набор тренировочных данных приведёт к совершенно другому решению. Иллюстрации роста коэффициентов вы найдете в одном из наших прошлых постов. Одним из способов регуляризации является регуляризация Тихонова, которая в общем виде выглядит как добавление нового члена к среднеквадратичной ошибке:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Часто матрица Тихонова выражается как произведение некоторого числа на единичную матрицу: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. В этом случае задача минимизации среднеквадратичной ошибки становится задачей с ограничением на задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынорму. Если продифференцировать новую функцию стоимости по параметрам модели, приравнять полученную функцию к нулю и выразить задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, то мы получим точное решение задачи.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Такая регрессия называется гребневой регрессией (ridge regression). А гребнем является как раз диагональная матрица, которую мы прибавляем к матрице задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, в результате получается гарантированно регулярная матрица.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Такое решение уменьшает дисперсию, но становится смещенным, т.к. минимизируется также и норма вектора параметров, что заставляет решение сдвигаться в сторону нуля. На рисунке ниже на пересечении белых пунктирных линий находится МНК-решение. Голубыми точками обозначены различные решения гребневой регрессии. Видно, что при увеличении параметра регуляризации задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерырешение сдвигается в сторону нуля.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Советуем обратиться в наш прошлый пост за примером того, как задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерырегуляризация справляется с проблемой мультиколлинеарности, а также чтобы освежить в памяти еще несколько интерпретаций регуляризации.

2. Логистическая регрессия

Линейный классификатор

Основная идея линейного классификатора заключается в том, что признаковое пространство может быть разделено гиперплоскостью на два полупространства, в каждом из которых прогнозируется одно из двух значений целевого класса.
Если это можно сделать без ошибок, то обучающая выборка называется линейно разделимой.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Мы уже знакомы с линейной регрессией и методом наименьших квадратов. Рассмотрим задачу бинарной классификации, причем метки целевого класса обозначим «+1» (положительные примеры) и «-1» (отрицательные примеры).
Один из самых простых линейных классификаторов получается на основе регрессии вот таким образом:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Логистическая регрессия как линейный классификатор

Логистическая регрессия является частным случаем линейного классификатора, но она обладает хорошим «умением» – прогнозировать вероятность задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыотнесения примера задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерык классу «+»:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Прогнозирование не просто ответа («+1» или «-1»), а именно вероятности отнесения к классу «+1» во многих задачах является очень важным бизнес-требованием. Например, в задаче кредитного скоринга, где традиционно применяется логистическая регрессия, часто прогнозируют вероятность невозврата кредита (задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры). Клиентов, обратившихся за кредитом, сортируют по этой предсказанной вероятности (по убыванию), и получается скоркарта — по сути, рейтинг клиентов от плохих к хорошим. Ниже приведен игрушечный пример такой скоркарты.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Банк выбирает для себя порог задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыпредсказанной вероятности невозврата кредита (на картинке – задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры) и начиная с этого значения уже не выдает кредит. Более того, можно умножить предсказанную вероятность на выданную сумму и получить матожидание потерь с клиента, что тоже будет хорошей бизнес-метрикой (Далее в комментариях специалисты по скорингу могут поправить, но главная суть примерно такая).

Итак, мы хотим прогнозировать вероятность задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, а пока умеем строить линейный прогноз с помощью МНК: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Каким образом преобразовать полученное значение в вероятность, пределы которой – [0, 1]? Очевидно, для этого нужна некоторая функция задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыВ модели логистической регрессии для этого берется конкретная функция: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. И сейчас разберемся, каковы для этого предпосылки.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Обозначим задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерывероятностью происходящего события задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Тогда отношение вероятностей задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыопределяется из задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, а это — отношение вероятностей того, произойдет ли событие или не произойдет. Очевидно, что вероятность и отношение шансов содержат одинаковую информацию. Но в то время как задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынаходится в пределах от 0 до 1, задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынаходится в пределах от 0 до задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

Если вычислить логарифм задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры(то есть называется логарифм шансов, или логарифм отношения вероятностей), то легко заметить, что задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Его-то мы и будем прогнозировать с помощью МНК.

Посмотрим, как логистическая регрессия будет делать прогноз задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры(пока считаем, что веса задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерымы как-то получили (т.е. обучили модель), далее разберемся, как именно).

Шаг 1. Вычислить значение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. (уравнение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерызадает гиперплоскость, разделяющую примеры на 2 класса);

Шаг 2. Вычислить логарифм отношения шансов: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

Шаг 3. Имея прогноз шансов на отнесение к классу «+» – задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, вычислить задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыс помощью простой зависимости:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

В правой части мы получили как раз сигмоид-функцию.

Итак, логистическая регрессия прогнозирует вероятность отнесения примера к классу «+» (при условии, что мы знаем его признаки и веса модели) как сигмоид-преобразование линейной комбинации вектора весов модели и вектора признаков примера:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Следующий вопрос: как модель обучается? Тут мы опять обращаемся к принципу максимального правдоподобия.

Принцип максимального правдоподобия и логистическая регрессия

Теперь посмотрим, как из принципа максимального правдоподобия получается оптимизационная задача, которую решает логистическая регрессия, а именно, – минимизация логистической функции потерь.
Только что мы увидели, что логистическая регрессия моделирует вероятность отнесения примера к классу «+» как

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Тогда для класса «-» аналогичная вероятность:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Оба этих выражения можно ловко объединить в одно (следите за моими руками – не обманывают ли вас):

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Выражение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыназывается отступом (margin) классификации на объекте задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры(не путать с зазором (тоже margin), про который чаще всего говорят в контексте SVM). Если он неотрицателен, модель не ошибается на объекте задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, если же отрицателен – значит, класс для задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыспрогнозирован неправильно.
Заметим, что отступ определен для объектов именно обучающей выборки, для которых известны реальные метки целевого класса задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

Чтобы понять, почему это мы сделали такие выводы, обратимся к геометрической интерпретации линейного классификатора. Подробно про это можно почитать в материалах Евгения Соколова.

Рекомендую решить почти классическую задачу из начального курса линейной алгебры: найти расстояние от точки с радиус-вектором задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыдо плоскости, которая задается уравнением задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Когда получим (или посмотрим) ответ, то поймем, что чем больше по модулю выражение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры, тем дальше точка задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынаходится от плоскости задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Значит, выражение задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры– это своего рода «уверенность» модели в классификации объекта задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Теперь распишем правдоподобие выборки, а именно, вероятность наблюдать данный вектор задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыу выборки задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Делаем сильное предположение: объекты приходят независимо, из одного распределения (i.i.d.). Тогда

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

где задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры– длина выборки задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры(число строк).

Как водится, возьмем логарифм данного выражения (сумму оптимизировать намного проще, чем произведение):

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

То есть в даном случае принцип максимизации правдоподобия приводит к минимизации выражения

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Это логистическая функция потерь, просуммированная по всем объектам обучающей выборки.

Посмотрим на новую фунцию как на функцию от отступа: задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Нарисуем ее график, а также график 1/0 функциий потерь (zero-one loss), которая просто штрафует модель на 1 за ошибку на каждом объекте (отступ отрицательный): задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Картинка отражает общую идею, что в задаче классификации, не умея напрямую минимизировать число ошибок (по крайней мере, градиентными методами это не сделать – производная 1/0 функциий потерь в нуле обращается в бесконечность), мы минимизируем некоторую ее верхнюю оценку. В данном случае это логистическая функция потерь (где логарифм двоичный, но это не принципиально), и справедливо

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

где задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры– попросту число ошибок логистической регрессии с весами задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерына выборке задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

То есть уменьшая верхнюю оценку задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерына число ошибок классификации, мы таким образом надеемся уменьшить и само число ошибок.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры-регуляризация логистических потерь

L2-регуляризация логистической регрессии устроена почти так же, как и в случае с гребневой (Ridge регрессией). Вместо функционала задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыминимизируется следующий:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

В случае логистической регрессии принято введение обратного коэффициента регуляризации задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. И тогда решением задачи будет

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Далее рассмотрим пример, позволяющий интуитивно понять один из смыслов регуляризации.

3. Наглядный пример регуляризации логистической регрессии

В 1 статье уже приводился пример того, как полиномиальные признаки позволяют линейным моделям строить нелинейные разделяющие поверхности. Покажем это в картинках.

Посмотрим, как регуляризация влияет на качество классификации на наборе данных по тестированию микрочипов из курса Andrew Ng по машинному обучению.
Будем использовать логистическую регрессию с полиномиальными признаками и варьировать параметр регуляризации C.
Сначала посмотрим, как регуляризация влияет на разделяющую границу классификатора, интуитивно распознаем переобучение и недообучение.
Потом численно установим близкий к оптимальному параметр регуляризации с помощью кросс-валидации (cross-validation) и перебора по сетке (GridSearch).

Загружаем данные с помощью метода read_csv библиотеки pandas. В этом наборе данных для 118 микрочипов (объекты) указаны результаты двух тестов по контролю качества (два числовых признака) и сказано, пустили ли микрочип в производство. Признаки уже центрированы, то есть из всех значений вычтены средние по столбцам. Таким образом, «среднему» микрочипу соответствуют нулевые значения результатов тестов.

RangeIndex: 118 entries, 0 to 117
Data columns (total 3 columns):
test1 118 non-null float64
test2 118 non-null float64
released 118 non-null int64
dtypes: float64(2), int64(1)
memory usage: 2.8 KB

Посмотрим на первые и последние 5 строк.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Сохраним обучающую выборку и метки целевого класса в отдельных массивах NumPy. Отобразим данные. Красный цвет соответствует бракованным чипам, зеленый – нормальным.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Определяем функцию для отображения разделяющей кривой классификатора

Полиномиальными признаками до степени задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыдля двух переменных задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерымы называем следующие:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Например, для задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыэто будут следующие признаки:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Нарисовав треугольник Пифагора, Вы сообразите, сколько таких признаков будет для задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи вообще для любого задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.
Попросту говоря, таких признаков экспоненциально много, и строить, скажем, для 100 признаков полиномиальные степени 10 может оказаться затратно (а более того, и не нужно).

Создадим объект sklearn, который добавит в матрицу задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыполиномиальные признаки вплоть до степени 7 и обучим логистическую регрессию с параметром регуляризации задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Изобразим разделяющую границу.
Также проверим долю правильных ответов классификатора на обучающей выборке. Видим, что регуляризация оказалась слишком сильной, и модель «недообучилась». Доля правильных ответов классификатора на обучающей выборке оказалась равной 0.627.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Увеличим задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыдо 1. Тем самым мы ослабляем регуляризацию, теперь в решении значения весов логистической регрессии могут оказаться больше (по модулю), чем в прошлом случае. Теперь доля правильных ответов классификатора на обучающей выборке – 0.831.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Еще увеличим задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры– до 10 тысяч. Теперь регуляризации явно недостаточно, и мы наблюдаем переобучение. Можно заметить, что в прошлом случае (при задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры=1 и «гладкой» границе) доля правильных ответов модели на обучающей выборке не намного ниже, чем в 3 случае, зато на новой выборке, можно себе представить, 2 модель сработает намного лучше.
Доля правильных ответов классификатора на обучающей выборке – 0.873.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Чтоб обсудить результаты, перепишем формулу для функционала, который оптимизируется в логистической регрессии, в таком виде:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Промежуточные выводы:

Настройка параметра регуляризации

Теперь найдем оптимальное (в данном примере) значение параметра регуляризации задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. Сделать это можно с помощью LogisticRegressionCV – перебора параметров по сетке с последующей кросс-валидацией. Этот класс создан специально для логистической регрессии (для нее известны эффективные алгоритмы перебора параметров), для произвольной модели мы бы использовали GridSearchCV, RandomizedSearchCV или, например, специальные алгоритмы оптимизации гиперпараметров, реализованные в hyperopt.

Посмотрим, как качество модели (доля правильных ответов на обучающей и валидационной выборках) меняется при изменении гиперпараметра задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Выделим участок с «лучшими» значениями C.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Как мы помним, такие кривые называются валидационными, раньше мы их строили вручную, но в sklearn для них их построения есть специальные методы, которые мы тоже сейчас будем использовать.

4. Где логистическая регрессия хороша и где не очень

Анализ отзывов IMDB к фильмам

Будем решать задачу бинарной классификации отзывов IMDB к фильмам. Имеется обучающая выборка с размеченными отзывами, по 12500 отзывов известно, что они хорошие, еще про 12500 – что они плохие. Здесь уже не так просто сразу приступить к машинному обучению, потому что готовой матрицы задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерынет – ее надо приготовить. Будем использовать самый простой подход – мешок слов («Bag of words»). При таком подходе признаками отзыва будут индикаторы наличия в нем каждого слова из всего корпуса, где корпус – это множество всех отзывов. Идея иллюстрируется картинкой

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Загрузим данные отсюда (краткое описание — тут). В обучающей и тестовой выборках по 12500 тысяч хороших и плохих отзывов к фильмам.

Пример плохого отзыва:

‘Words can\’t describe how bad this movie is. I can\’t explain it by writing only. You have too see it for yourself to get at grip of how horrible a movie really can be. Not that I recommend you to do that. There are so many clich\xc3\xa9s, mistakes (and all other negative things you can imagine) here that will just make you cry. To start with the technical first, there are a LOT of mistakes regarding the airplane. I won\’t list them here, but just mention the coloring of the plane. They didn\’t even manage to show an airliner in the colors of a fictional airline, but instead used a 747 painted in the original Boeing livery. Very bad. The plot is stupid and has been done many times before, only much, much better. There are so many ridiculous moments here that i lost count of it really early. Also, I was on the bad guys\’ side all the time in the movie, because the good guys were so stupid. «Executive Decision» should without a doubt be you\’re choice over this one, even the «Turbulence»-movies are better. In fact, every other movie in the world is better than this one.’

Пример хорошего отзыва:

Простой подсчет слов

Составим словарь всех слов с помощью CountVectorizer. Всего в выборке 74849 уникальных слов. Если посмотреть на примеры полученных «слов» (лучше их называть токенами), то можно увидеть, что многие важные этапы обработки текста мы тут пропустили (автоматическая обработка текстов – это могло бы быть темой отдельной серии статей).

[’00’, ‘000’, ‘0000000000001’, ‘00001’, ‘00015’, ‘000s’, ‘001’, ‘003830’, ‘006’, ‘007’, ‘0079’, ‘0080’, ‘0083’, ‘0093638’, ’00am’, ’00pm’, ’00s’, ’01’, ’01pm’, ’02’, ‘020410’, ‘029’, ’03’, ’04’, ‘041’, ’05’, ‘050’, ’06’, ’06th’, ’07’, ’08’, ‘087’, ‘089’, ’08th’, ’09’, ‘0f’, ‘0ne’, ‘0r’, ‘0s’, ’10’, ‘100’, ‘1000’, ‘1000000’, ‘10000000000000’, ‘1000lb’, ‘1000s’, ‘1001’, ‘100b’, ‘100k’, ‘100m’]
[‘pincher’, ‘pinchers’, ‘pinches’, ‘pinching’, ‘pinchot’, ‘pinciotti’, ‘pine’, ‘pineal’, ‘pineapple’, ‘pineapples’, ‘pines’, ‘pinet’, ‘pinetrees’, ‘pineyro’, ‘pinfall’, ‘pinfold’, ‘ping’, ‘pingo’, ‘pinhead’, ‘pinheads’, ‘pinho’, ‘pining’, ‘pinjar’, ‘pink’, ‘pinkerton’, ‘pinkett’, ‘pinkie’, ‘pinkins’, ‘pinkish’, ‘pinko’, ‘pinks’, ‘pinku’, ‘pinkus’, ‘pinky’, ‘pinnacle’, ‘pinnacles’, ‘pinned’, ‘pinning’, ‘pinnings’, ‘pinnochio’, ‘pinnocioesque’, ‘pino’, ‘pinocchio’, ‘pinochet’, ‘pinochets’, ‘pinoy’, ‘pinpoint’, ‘pinpoints’, ‘pins’, ‘pinsent’]

Закодируем предложения из текстов обучающей выборки индексами входящих слов. Используем разреженный формат. Преобразуем так же тестовую выборку.

Обучим логистическую регрессию и посмотрим на доли правильных ответов на обучающей и тестовой выборках. Получается, на тестовой выборке мы правильно угадываем тональность примерно 86.7% отзывов.

Коэффициенты модели можно красиво отобразить.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Подберем коэффициент регуляризации для логистической регрессии. Используем sklearn.pipeline, поскольку CountVectorizer правильно применять только на тех данных, на которых в текущий момент обучается модель (чтоб не «подсматривать» в тестовую выборку и не считать по ней частоты вхождения слов). В данном случае pipeline задает последовательность действий: применить CountVectorizer, затем обучить логистическую регрессию. Так мы поднимаем долю правильных ответов до 88.5% на кросс-валидации и 87.9% – на отложенной выборке.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Теперь то же самое, но со случайным лесом. Видим, что с логистической регрессией мы достигаем большей доли правильных ответов меньшими усилиями. Лес работает дольше, на отложенной выборке 85.5% правильных ответов.

XOR-проблема

Теперь рассмотрим пример, где линейные модели справляются хуже.

Линейные методы классификации строят все же очень простую разделяющую поверхность – гиперплоскость. Самый известный игрушечный пример, в котором классы нельзя без ошибок поделить гиперплоскостью (то есть прямой, если это 2D), получил имя «the XOR problem».

XOR – это «исключающее ИЛИ», булева функция со следующей таблицей истинности:

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

XOR дал имя простой задаче бинарной классификации, в которой классы представлены вытянутыми по диагоналям и пересекающимися облаками точек.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Очевидно, нельзя провести прямую так, чтобы без ошибок отделить один класс от другого. Поэтому логистическая регрессия плохо справляется с такой задачей.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

А вот если на вход подать полиномиальные признаки, в данном случае до 2 степени, то проблема решается.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Здесь логистическая регрессия все равно строила гиперплоскость, но в 6-мерном пространстве признаков задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыи задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры. В проекции на исходное пространство признаков задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примерыграница получилась нелинейной.

На практике полиномиальные признаки действительно помогают, но строить их явно – вычислительно неэффективно. Гораздо быстрее работает SVM с ядровым трюком. При таком подходе в пространстве высокой размерности считается только расстояние между объектами (задаваемое функцией-ядром), а явно плодить комбинаторно большое число признаков не приходится. Про это подробно можно почитать в курсе Евгения Соколова (математика уже серьезная).

5. Кривые валидации и обучения

Мы уже получили представление о проверке модели, кросс-валидации и регуляризации.
Теперь рассмотрим главный вопрос:

Если качество модели нас не устраивает, что делать?

Ответы на данные вопросы не всегда лежат на поверхности. В частности, иногда использование более сложной модели приведет к ухудшению показателей. Либо добавление наблюдений не приведет к ощутимым изменениям. Способность принять правильное решение и выбрать правильный способ улучшения модели, собственно говоря, и отличает хорошего специалиста от плохого.

Будем работать со знакомыми данными по оттоку клиентов телеком-оператора.

Логистическую регрессию будем обучать стохастическим градиентным спуском. Пока объясним это тем, что так быстрее, но далее в программе у нас отдельная статья про это дело. Построим валидационные кривые, показывающие, как качество (ROC AUC) на обучающей и проверочной выборке меняется с изменением параметра регуляризации.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Тенденция видна сразу, и она очень часто встречается.

Для простых моделей тренировочная и валидационная ошибка находятся где-то рядом, и они велики. Это говорит о том, что модель недообучилась: то есть она не имеет достаточное кол-во параметров.

Для сильно усложненных моделей тренировочная и валидационная ошибки значительно отличаются. Это можно объяснить переобучением: когда параметров слишком много либо не хватает регуляризации, алгоритм может «отвлекаться» на шум в данных и упускать основной тренд.

Сколько нужно данных?

Известно, что чем больше данных использует модель, тем лучше. Но как нам понять в конкретной ситуации, помогут ли новые данные? Скажем, целесообразно ли нам потратить N\$ на труд асессоров, чтобы увеличить выборку вдвое?

Поскольку новых данных пока может и не быть, разумно поварьировать размер имеющейся обучающей выборки и посмотреть, как качество решения задачи зависит от объема данных, на котором мы обучали модель. Так получаются кривые обучения (learning curves).

Идея простая: мы отображаем ошибку как функцию от количества примеров, используемых для обучения. При этом параметры модели фиксируются заранее.

Давайте посмотрим, что мы получим для линейной модели. Коэффициент регуляризации выставим большим.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Типичная ситуация: для небольшого объема данных ошибки на обучающей выборке и в процессе кросс-валидации довольно сильно отличаются, что указывает на переобучение. Для той же модели, но с большим объемом данных ошибки «сходятся», что указывается на недообучение.

Если добавить еще данные, ошибка на обучающей выборке не будет расти, но с другой стороны, ошибка на тестовых данных не будет уменьшаться.

Получается, ошибки «сошлись», и добавление новых данных не поможет. Собственно, это случай – самый интересный для бизнеса. Возможна ситуация, когда мы увеличиваем выборку в 10 раз. Но если не менять сложность модели, это может и не помочь. То есть стратегия «настроил один раз – дальше использую 10 раз» может и не работать.

Что будет, если изменить коэффициент регуляризации (уменьшить до 0.05)?

Видим хорошую тенденцию – кривые постепенно сходятся, и если дальше двигаться направо (добавлять в модель данные), можно еще повысить качество на валидации.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

А если усложнить модель ещё больше (задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры)?

Проявляется переобучение – AUC падает как на обучении, так и на валидации.

задачи классификации в машинном обучении примеры. Смотреть фото задачи классификации в машинном обучении примеры. Смотреть картинку задачи классификации в машинном обучении примеры. Картинка про задачи классификации в машинном обучении примеры. Фото задачи классификации в машинном обучении примеры

Строя подобные кривые, можно понять, в какую сторону двигаться, и как правильно настроить сложность модели на новых данных.

Выводы по кривым валидации и обучения

6. Плюсы и минусы линейных моделей в задачах машинного обучения

7. Домашнее задание № 4

Актуальные домашние задания объявляются во время очередной сессии курса, следить можно в группе ВК и в репозитории курса.

8. Полезные ресурсы

Статья написана в соавторстве с mephistopheies (Павлом Нестеровым). Он же – автор домашнего задания. Авторы домашнего задания в первой сессии курса (февраль-май 2017)– aiho (Ольга Дайховская) и das19 (Юрий Исаков). Благодарю bauchgefuehl (Анастасию Манохину) за редактирование.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *