Uvod v algoritem za krepitev gradienta

Tehnika prehajanja učencev v tednu v močnega učitelja se imenuje povečanje. Postopek algoritma za povečanje gradientov deluje na tej teoriji izvedbe. Lahko je prikazan algoritem za povečanje Ade, da bi razložil in enostavno razumel postopek, skozi katerega se povečanje vbrizga v podatkovne skupine.

Drevo odločitve

Drevo odločitev je orodje za podporo razsodbe, ki določa odločitve z namigovanjem na drevesna stanja in njihovimi verjetnimi posledicami, skupaj z izidi morebitnih dogodkov, stroški virov itd. Ta tehnika jim omogoča prikaz kontrolnih izjav, ki delujejo na pogojne izide.

Raziskovalne operacije široko uporabljajo ta odločitvena drevesa posebej pri analizi odločitev, prav tako jim omogoča, da dosežejo cilj in je tudi orodje pri strojnem učenju.

Algoritem AdaBoost

Algoritem AdaBoost se začne s pripravo drevesa odločitve, v katerem se vsakemu opazovanju dodeli enakovredna teža. Po oceni primarnega drevesa povečamo uteži te razlage, ki jih je težko razvrstiti in podrediti uteži za tiste, ki jih je težko kategorizirati. Na podlagi teh predsodkovnih podatkov se je razvilo drugo drevo. Tu je zasnova boljša prerokba primarnega drevesa.

Nato izračunajte napako kategorizacije iz tega inovativnega modela zbiranja 2 dreves in gojite tretje drevo, da predvidite spremenjene ostanke. Zgornji postopek je ponovljen v nekaj primerih. Opažanja, ki v prejšnjih drevesih niso dobro opredeljena, so določena z uporabo naslednjih dreves. Napovedi končnega modela montaže so posledično vnaprej določene številke predvidevanj, ki so jih končali prejšnji drevesni modeli.

Trening GBM model

Za poučevanje gbm modela v jeziku R je treba namestiti knjižnico GBM in klic v to nameščeno knjižnico GBM iz klicnega programa. Prav tako je treba navesti potrebne argumente, ključni argumenti so navedeni spodaj,

1. Formula

2. Razdelitev spremenljivk odziva

3. Spremenljivka napovedovalca

4. Spremenljivka odziva

Običajne distribucije, ki se uporabljajo v GBM modelih, so Bernoulli, Poisson itd.

Končno naj bi bili podatki in argumenti n.trees natančno določeni. Če bo privzeto sprejet, bo model gbm za samoumevno 100 dreves, kar lahko ponudi kvaliteten približek koncerta našega gbm-a.

Vzorec koda # 1

install.packages ("gbm")
library(gbm)
GBM <- gbm( formula = response,
distribution = " bernoulli ",
data = train
n.trees = 3000)

Naslednji korak je dejanski nabor podatkov razdeljen na razdeljevanje podatkov vlakov in preizkusnih podatkov, kar dosežemo z uporabo funkcije createDataPartition (). Tovrstna razcepitev bo v kasnejšem delu za pomoč pri preizkusu niza z uporabo usposobljenega vlaka in poleg tega so določene dejanske napovedi za prvotne podatke.

Vzorec koda # 2

TRAIN <- read.csv("Train_dd.csv")
set.seed(77820)
intrain <- createDataPartition( y = Train$survived,
list = false )
Train <- Train(inTrain) Train <- Train(-inTrain)

Naslednji korak je treniranje gbm modela s pomočjo našega vadbenika. Vsi dodatni argumenti so natančno navedeni v zgornjih razdelkih. omenjata se še dva dodatna argumenta - interakcija, globina in krčenje.

1. Interakcija Globina črpa največjo globino vsakega drevesa

2. Merjenje hitrosti intelekta se doseže z uporabo Shrinkage. tukaj se s tem krčenjem zmanjšajo vse dodatne vrednosti v drevesih osnovnega učenca.

Poleg tega ta tehnika omogoča prikaz kontrolnih stavkov, ki delujejo na podlagi pogojnih rezultatov. Raziskovalne operacije široko uporabljajo ta drevesa odločitev posebej pri analizi odločitev, prav tako nam omogočajo doseganje cilja in so tudi občudovano orodje pri strojnem učenju.

Model GBM Izhod

Izhod modela GBM vsebuje podrobnosti o skupnem številu dreves, ki se nanašajo na izvedbo. To bo pomagalo napovedati vpliv spremenljivke napovedovalca na model, prav tako lahko tabela spremenljivke pomembnosti in grafikon modela izhajata iz funkcije povzetka izhoda GBM.

Predvidejte () z uporabo GBM modela

Torej, da se napovedi na vrhu ključanih podatkov v tem modelu GBM, tako kot drugi modeli, predvideva metoda predvidevanja. V razdelku z argumentom je treba ročno omeniti tudi štetje skupnega števila uporabljenih dreves odločitev.

Vzorčna koda

predictions <- predict( object = simpleGBMmodel,
newdata = test,
n.trees = 1)

Izboljšave modela GBM

Omejitve dreves

  • Pomembno je, da oslabljeni učenci vključujejo spretnosti, vendar ostajajo šibki.

Uteženo posodobitve

  • Za predvidevanje vsakega drevesa se uporablja zaporedni dodatek
  • Darovanje vsakega drevesa v tem znesku mora biti množično, da upočasnimo učenje algoritmov. ta postopek imenujemo krčenje.

Stohastični algoritem za povečanje prelivov

Ta enakovredni dobiček se lahko uporabi za zmanjšanje združenja, ki ga obdajajo drevesa.

Algoritem za povečanje stopnje naklona

Parametrizirana drevesa so lahko zapolnjena z dodatnimi omejitvami, klasičnega drevesa odločanja ne moremo uporabiti kot šibke učence. Namesto tega se uporabi prilagojeno drevo regresije, ki ima v listnih vozliščih numerične vrednosti.

Priporočeni članki

To je vodnik za algoritem za povečanje gradnikov. Tukaj razpravljamo o uvodu, drevesu odločitev, algoritmu AdaBoost, modelu GBM za usposabljanje, izboljšavah modela GBM, skupaj z nekaj vzorčne kode. Če želite izvedeti več, lahko preberete tudi druge naše predlagane članke -
  1. Algoritem drevesne odločitve
  2. Algoritmi strojnega učenja
  3. Algoritem XGBoost
  4. Algoritmi znanosti o podatkih
  5. C ++ algoritem | Primeri algoritma C ++
  6. Izvajanje Poissonove regresije v R

Kategorija: