Въведение в ансамблови методи в машинното обучение

В тази статия ще видим контур за методите на ансамбъла в машинното обучение. Ансамбълното обучение е комбинация от различни техники за машинно обучение в предсказуем модел за подобряване на прогнозирането. Ансамбълното обучение се придобива, за да се намали отклонението в прогнозните данни. Този тип обучение има за цел да сведе до минимум пристрастието на модела. Ансамбълното обучение е мултимоделна система, в която различните класификатори или техники са стратегически комбинирани за класифициране или прогнозиране на статистически данни от сложния проблем с по-добра точност. Целта на такова обучение е да се сведе до минимум вероятността от лош избор от модела. Той назначава увереността в решението, взето от модела. Идеята за избор на оптимални характеристики се реализира в ансамбълното обучение.

Видове ансамблови методи в машинното обучение

Методите на ансамбъла помагат да се създадат множество модели и след това да се комбинират, за да се получат подобрени резултати, като някои ансамблови методи се категоризират в следните групи:

1. Последователни методи

При този вид метод на ансамбъла има последователно генерирани базови учащи, в които зависи зависимостта от данни. Всички други данни в базовия ученик имат известна зависимост от предишни данни. И така, предишните грешно обозначени данни се настройват въз основа на теглото му, за да се подобри работата на цялостната система.

Пример : Увеличаване

2. Паралелен метод

При този вид метод на ансамбъла базовият ученик се генерира в паралелен ред, в който зависимостта от данни не е налице. Всяка информация в базовия ученик се генерира независимо.

Пример : Подреждане

3. Хомогенен ансамбъл

Такъв метод на ансамбъл е комбинация от същите типове класификатори. Но наборът от данни е различен за всеки класификатор. Това ще накара комбинирания модел да работи по-точно след събирането на резултатите от всеки модел. Този тип метод на ансамбъл работи с голям брой набори от данни. При хомогенния метод методът за избор на характеристики е един и същ за различните тренировъчни данни. Изчислено е скъпо.

Пример: Популярни методи като пакетиране и подсилване влизат в хомогенния ансамбъл.

4. Хетерогенен ансамбъл

Такъв метод на ансамбъл е комбинацията от различни видове класификатори или модели на машинно обучение, при които всеки класификатор е изграден върху едни и същи данни. Такъв метод работи за малки набори от данни. При разнородни методът за избор на функции е различен за едни и същи данни за обучение. Общият резултат от този метод на ансамбъл се осъществява чрез осредняване на всички резултати от всеки комбиниран модел.

Пример : Подреждане

Техническа класификация на ансамблови методи

По-долу са техническата класификация на методите на ансамбъла:

1. Багаж

Този метод на ансамбъл комбинира два модела на машинно обучение, т.е. Bootstrapping и агрегиране в един модел на ансамбъл. Целта на метода за пакетиране е да се намали голямата дисперсия на модела. Дърветата с решения имат вариация и ниско отклонение. Големият набор от данни е (да речем 1000 проби) подпроба (да речем, 10 подпроби всяка носи 100 проби от данни). Множеството дървета на решения се изграждат върху всяка информация за обучение на под-извадка. Докато се избират данните от извадката по различните дървета на решения, опасението от прекалено подходящо обучение на данните за всяко дърво с решения намалява. За ефективността на модела, всяко от отделните дървета за вземане на решения се отглежда дълбоко, съдържащи данни за под-извадка от обучението. Резултатите от всяко дърво за решения се обобщават, за да се разбере окончателното прогнозиране. Дисперсията на обобщените данни намалява. Точността на прогнозирането на модела при метода на пакетиране зависи от броя на използваното дърво за решения. Различните подпроби на данни от извадка се избират на случаен принцип със заместване. Резултатът от всяко дърво има висока корелация.

2. Подсилване

Подсилващият ансамбъл също съчетава различни същия тип класификатор. Увеличаването е един от методите на последователния ансамбъл, при който всеки модел или класификатор работи въз основа на функции, които ще се използват от следващия модел. По този начин методът за стимулиране прави по-силен модел на обучаващ се от слабите модели за обучаващи се чрез усредняване на техните тегла. С други думи, по-силен обучен модел зависи от множеството слабо обучени модели. Слаб обучаем или обучен модел е този, който е много по-малко свързан с истинската класификация. Но следващият слаб ученик е малко по-свързан с истинската класификация. Комбинацията от толкова различни слаби учащи се дава силен обучаем, което е добре корелирано с истинската класификация.

3. Подреждане

Този метод също комбинира множество класификации или регресионни техники, използвайки мета-класификатор или мета-модел. Моделите на по-ниските нива се обучават с пълния набор от данни за обучение и след това комбинираният модел се обучава с резултатите от моделите от по-ниско ниво. За разлика от усилването, всеки модел от по-ниско ниво се подлага на паралелно обучение. Прогнозата от моделите от по-ниско ниво се използва като вход за следващия модел като тренировъчен набор от данни и формира стек, в който горният слой на модела е по-обучен от долния слой на модела. Моделът на най-горния слой има добра точност на прогнозиране и те са изградени въз основа на модели от по-ниско ниво. Степът продължава да се увеличава, докато най-доброто прогнозиране се извърши с минимална грешка. Прогнозирането на комбинирания модел или метамодел се основава на предсказването на различните слаби модели или модели с по-нисък слой. Той се фокусира, за да произведе по-малко пристрастен модел.

4. Случайна гора

Случайната гора е малко по-различна от насипането, тъй като използва дълбоки дървета, които са монтирани върху проби за зареждане. Резултатът от всеки трес се комбинира, за да се намали дисперсията. Докато отглеждаме всяко дърво, вместо да генерираме извадка за зареждане на базата на наблюдение в набора от данни, ние също изваждаме набора от данни на базата на функции и използваме само произволен подмножество от такава извадка за изграждане на дървото. С други думи, извадката на набора от данни се извършва въз основа на функции, които намаляват корелацията на различни резултати. Случайната гора е добра за вземане на решение за липсващи данни. Случайна гора означава случаен избор на подмножество от извадка, което намалява шансовете за получаване на свързани стойности за прогнозиране. Всяко дърво има различна структура. Случайната гора води до леко увеличаване на пристрастието на гората, но поради усредняване на всички по-малко свързани прогнози от различни дървета, получената отклонение намалява и дава като цяло по-добри резултати.

заключение

Многомоделният подход на ансамбъла се реализира чрез модели на задълбочено обучение, в които сложни данни са изучени и обработени чрез такива различни комбинации на класификатора, за да се постигне по-добро прогнозиране или класификация. Предсказването на всеки модел в ансамбълното обучение трябва да бъде по-некорелирано. Това ще запази пристрастията и дисперсията на модела възможно най-ниско. Моделът ще бъде по-ефективен и ще прогнозира изхода при минимална грешка. Ансамбълът е контролиран алгоритъм за обучение, тъй като моделът се обучава предварително с набора от данни, за да се направи прогнозата. При ансамбълното обучение броят на класификаторите на компоненти трябва да бъде същият като етикетите на класове, за да се постигне висока точност.

Препоръчителни статии

Това е ръководство за ансамблови методи в машинното обучение. Тук обсъждаме важните видове ансамблови методи в машинното обучение заедно с техническата класификация. Можете да разгледате и другите ни предложени статии, за да научите повече -

  1. Въведение в ансамбълните техники
  2. Машинен жизнен цикъл с предимства
  3. Алгоритми за машинно обучение
  4. Топ 24 Въпроси за интервю за машинно обучение

Категория: