Задать вопрос
Портал помощи студентам №1

Учебные работы на заказ без посредников
и переплат!

,

ул. Добролюбова, 16/2

support@professsor.com
Служба техподдержки
ЛабораторнаяЗаказ 15721

Машинное обучение: "ECOC design for non-parametric Bayes classifier"

5 000

На аукционе

20 марта 2019 в 17:30
22 марта
Описание работы

Работа должна быть выполнена на python 3 Необходимо выполнить до 12:00 22.03.2019 Задания 1. В предположении о независимости парзеновских ядер визуализировать восстановленные двумерные плотности распределения для каждого класса. Использовать гауссовы окна, ширину окон определить по правилу Сильвермана. 2. Обучить непараметрические байесовские бинарные классификаторы при различных способах ECOC-кодирования: а) OVA; б) OVO; в) полное бинарное кодирование; г) полное тернарное кодирование. 3. Для каждого из полученных в п.1 наборов базовых классификаторов рассчитать классификационные очки многоклассового классификатора, используя различные способы ECOC-декодирования: а) взвешенное; б) невзвешенное. 4. В исходном пространстве признаков изобразить области классов (закрасить разными цветами), формируемые каждым из полученных в п.2 многоклассовым классификатором (всего 8 классификаторов). Нанести на диаграммы границы классов и данные из обучающей выборки. На отдельной диаграмме изобразить все границы классов, формируемые построенными многоклассовыми классификаторами. 5. Построить графики зависимости показателей качества (accuracy, micro-averaged и macro-averaged ROC AUC и PR AUC) построенных многоклассовых классификаторов на обучающей и тестовой выборках от коэффициента пропорциональности ? (отношение ширины парзеновского окна к ширине Сильвермана). Определить для каждого классификатора ширину окна, при которой наблюдается наилучшая обобщающая способность. 6. Сделать вывод о влиянии способов ECOC-кодирования, ECOC-декодирования и ширины парзеновского окна на точность многоклассовой классификации. Указания Кросс-валидация: Holdout (70/30). Априорные вероятности классов для каждого бинарного классификатора считать равными. В п.2. для оценки плотности распределения данных из нескольких классов использовать модель смеси распределений: плотность распределения данных из 1, …, k классов полагать равной , где – оцененная функция плотности распределения i-го класса, ni – объём выборки i-го класса. Классификационные очки бинарных классификаторов считать по формуле , где pk – апостериорная вероятность k-го класса. В п.5 вектор ширин парзеновских окон выбирать пропорциональным вектору ширины Сильвермана: . Литература 1. Escalera, S., Pujol, O., & Radeva, P. (2009). Separability of ternary codes for sparse designs of error-correcting output codes. Pattern Recognition Letters, 30(3), 285-297.


Вход на сайт
Войти
Данная функция доступна только
для зарегистрированных пользователей
Пожалуйста, авторизуйтесь, или пройдите регистрацию
Войти
Подтвердите ваш e-mail

Для завершения регистрации подтвердите свой e-mail: перейдите по ссылке, высланной вам в письме.

После этого будет создан ваш аккаунт и вы сможете войти на сайт и в личный кабинет.

ОК