Uvod v konvolucijsko nevronsko omrežje

Konvolucijska nevronska omrežja, znana tudi kot CNN ali ConvNet, spadajo v kategorijo umetnih nevronskih mrež, ki se uporabljajo za obdelavo in vizualizacijo slik. Umetna inteligenca za nalogo uporablja globoko učenje. Nevronske mreže so bodisi strojna ali programska oprema, programirana kot nevroni v človeških možganih. Tradicionalna nevronska mreža kot vhode sprejme samo slike z zmanjšano ločljivostjo. CNN to težavo reši tako, da svoje nevrone uredi kot prednji del človeških možganov. Predhodna obdelava na CNN je v primerjavi z drugimi algoritmi zelo manjša. Convolucija, linearna matematična operacija je uporabljena na CNN. Uporablja konvolucijo namesto splošnega množenja matrice v eni od svojih plasti.

Sloji v konvolucijskih nevronskih omrežjih

Spodaj so plasti konvolucijskih nevronskih mrež:

1. Vhodni sloj slike

Vhodni sloj daje vhode (večinoma slike) in poteka normalizacija. Tu je treba omeniti velikost vnosa.

2. Konvolucijski sloj

V tej plasti se izvede konvolucija in slika je razdeljena na perceptrone (algoritem), ustvarjena so lokalna polja, kar vodi do stiskanja perceptronov, da se zemljevidi prikažejo kot matrica z velikostjo mx n.

3. Sloj nelinearnosti

Tu so zemljevidi funkcij vzeti kot vhodni in aktivacijski zemljevidi so podani kot izhodi s pomočjo funkcije aktiviranja. Aktivacijska funkcija se na splošno izvaja kot sigmoidna ali hiperbolična tangenta.

4. Reakcijski sloj

Ključna sestavina CNN-ja ta sloj opravi trening hitreje, ne da bi pri tem zmanjšal natančnost. Na aktivacijskih zemljevidih ​​izvaja elementarno operacijo absolutne vrednosti.

5. Odpravljene linearne enote (ReLU)

ReLU združuje nelinearne in korektivne plasti na CNN. To stori prag, pri katerem se negativne vrednosti pretvorijo v nič. Vendar ReLU ne spremeni velikosti vnosa.

6. Sloj združevanja

Plast združevanja se imenuje tudi sloj downsampling, ker je ta odgovoren za zmanjšanje velikosti aktivacijskih zemljevidov. Na vhodni volumen sta uporabljena filter in vrvica enake dolžine. Manj pomembnih podatkov ta sloj ne upošteva, zato je prepoznavanje slike izvedeno v manjši predstavitvi. Ta plast zmanjšuje prekomerno opremljanje. Ker se količina parametrov zmanjša s povezovalnim slojem, se zmanjšajo tudi stroški. Vhod se deli na pravokotna območja združevanja in izračuna se največ ali povprečje, ki posledično vrne največ ali povprečje. Max Pooling je priljubljen.

7. Layer osip

Ta plast naključno nastavi vhodni sloj na nič z dano verjetnostjo. Po tej operaciji pade več rezultatov v različnih elementih. Ta plast pomaga tudi zmanjšati prekomerno opremljanje. Zaradi tega je omrežje odveč. V tem sloju se ne zgodi nobeno učenje. Ta operacija se izvaja samo med usposabljanjem.

8. Popolnoma povezan sloj

Aktivacijski zemljevidi, ki so izhod iz prejšnjih slojev, se v tej plasti pretvorijo v razredno verjetnostno porazdelitev. FC sloj pomnoži vhod z utežno matrico in doda vektor pristranskosti.

9. Izhodni sloj

FC sloju sledi softmax in klasifikacijski sloj. Funkcija softmax se uporablja za vhod. Klasifikacijski sloj izračuna funkcijo navzkrižne entropije in izgube za težave s klasifikacijo.

10. regresijski sloj

V tej plasti je izračunana polovica povprečne napake v kvadraturi. Ta plast naj sledi plasti FC.

Arhitektura konvolucijske nevronske mreže

Spodaj je prikazana arhitektura konvolucijskih nevronskih mrež:

1. LeNet

LeNet je bil predstavljen za optično prepoznavanje in prepoznavanje znakov v dokumentih leta 1998. Je majhen in popoln za delovanje v CPU-ju. LeNet je majhen in ga je enostavno razumeti. Ta je zgrajena s tremi glavnimi idejami: lokalna receptivna polja si delijo uteži in prostorsko podsklopitev. Omrežje prikazuje najboljšo notranjo predstavitev neobdelanih slik. Ima tri konvolucijske plasti, dva združevalna sloja, eno popolnoma povezano plast in eno izhodno plast. En zviti sloj je takoj sledil združevalni sloj. Vse plasti so razložene zgoraj.

2. AlexNet

AlexNet je bil razvit leta 2012. Ta arhitektura je popularizirala CNN v računalniškem vidu. Ima pet konvolucijskih in tri popolnoma povezane plasti, kjer se ReLU nanaša po vsakem sloju. Prednost obeh slojev ima prednosti, saj ima konvolucionarna plast malo parametrov in dolgo računanje, pri popolnoma povezani plasti pa je ravno obratno. Prekomerno opremljanje se je zelo zmanjšalo s povečanjem podatkov in osipom. AlexNet je bil globlje, večje in zamotane plasti niso ločene z združevanjem plasti v primerjavi z LeNetom.

3. ZF Net

ZF Net je bil razvit leta 2013 in je bil spremenjena različica AlexNet-a. Velikost srednje konvolucijske plasti je bila razširjena, velikost koraka in velikosti filtra pa sta bila manjša. Pravkar je prepoznal pomanjkljivosti AlexNet-a in razvil vrhunsko. Vsi sloji so enaki AlexNetu. ZF Net prilagaja parametre sloja, kot so velikost filtra ali korak AlexNet-a, zaradi česar se zniža stopnja napak.

4. GoogLeNet

Ta arhitektura je bila razvita v letu 2014. Temeljni sloj je temeljni koncept. Ta plast pokriva večje območje, vendar beleži majhne podatke slike. Za izboljšanje učinkovitosti se v GoogLeNetu uporablja devet modulov za zagon. Ker je začetni sloj nagnjen k prekomernemu opremljanju, se tukaj uporablja več nelinearnosti in manj parametrov. Za povezovanje izhoda prejšnjega sloja se uporablja sloj največjega združevanja. Ta arhitektura ima 22 plasti, parametri pa 12x manj. To je bolj natančno kot AlexNet, tudi hitreje. Stopnja napake je sorazmerno nižja. Povprečna plast združevanja se uporablja na koncu namesto popolnoma povezane plasti. Računanje se zmanjša, povečata se globina in širina. Številni začetni moduli so povezani, da bi se poglobili v arhitekturo. GoogLeNet je presegel vse druge arhitekture, razvite do leta 2014. Za to arhitekturo je na voljo več nadaljevalnih različic.

5. VGG Net

To je bilo izboljšanje v primerjavi z ZFNetom in kasneje nad AlexNetom. Ima 16 slojev s 3 × 3 konvolucijskimi plastmi, 2 × 2 združevalnimi sloji in popolnoma povezanimi sloji. Ta arhitektura sprejme najpreprostejšo mrežno strukturo, vendar ima večino parametrov.

6. ResNet

Preostala omrežna arhitektura je bila razvita leta 2015. Uporablja serijsko normalizacijo in preskoči uporabo FC plasti. Ta arhitektura uporablja 152 plasti in uporablja preskočne povezave. ResNet se zdaj večinoma uporablja v vseh algoritmih za globoko učenje.

Zaključek

Facebook uporablja CNN za označevanje slik, Amazon za priporočila izdelkov in Google za iskanje med uporabniškimi fotografijami. Vse to se izvaja z večjo natančnostjo in učinkovitostjo. Napredek v poglobljenem učenju je dosegel fazo, kjer je bil razvit CNN in pomaga na več načinov. Ko postaja CNN zapleten, pomaga izboljšati učinkovitost.

Priporočeni članek

To je vodnik po konvolucijskih nevronskih omrežjih. Tukaj razpravljamo o Uvodu v konvolucijsko nevronsko omrežje in njegove plasti skupaj z arhitekturo. Če želite izvedeti več, lahko preberete tudi druge naše predlagane članke -

  1. Razvrstitev nevronske mreže
  2. Strojno učenje proti nevronski mreži
  3. Pregled algoritmov nevronske mreže
  4. Ponavljajoče se nevronske mreže (RNN)
  5. Izvajanje nevronskih mrež
  6. Najboljših 6 primerjav med CNN in RNN

Kategorija: