Trumpai tariant, jūs negalite dauginti atgal, jei neturite tikslo funkcijos. Negalite turėti tikslo funkcijos, jei neturite mato tarp numatomos vertės ir pažymėtos (faktinių arba mokymo duomenų) reikšmės. Taigi norėdami pasiekti „neprižiūrimą mokymąsi“, galite atsisakyti galimybės apskaičiuoti gradientą.
Kokie yra atgalinio dauginimo apribojimai?
Atgalinio sklidimo algoritmo trūkumai:
Jis priklauso nuo įvesties, kad būtų galima atlikti konkrečią problemą. Jautrus sudėtingiems / triukšmingiems duomenims. Tam reikia aktyvinimo funkcijų išvestinių tinklo projektavimo laikui.
Kaip pataisyti atgalinį dauginimąsi?
Atgalinis platinimo procesas giliajame neuroniniame tinkle
- Įvesties reikšmės. X1=0,05. …
- Pradinis svoris. W1=0,15 w5=0,40. …
- Pašališkos vertės. b1=0,35 b2=0,60.
- Tikslinės vertės. T1=0,01. …
- Perėjimas pirmyn. Norėdami rasti H1 reikšmę, pirmiausia įvesties reikšmę padauginame iš svorių kaip. …
- Perėjimas atgal išvesties sluoksnyje. …
- Perėjimas atgal paslėptame sluoksnyje.
Ar platinimas atgal yra efektyvus?
Atgalinis sklidimas yra efektyvus, todėl galima treniruoti daugiasluoksnius tinklus, kuriuose yra daug neuronų, kartu atnaujinant svorius, kad būtų sumažintas nuostolis.
Kokią problemą išsprendžia atgalinis platinimas dirbant su neuroniniais tinklais?
Įrengiant neuroninį tinklą, atgalinis sklidimas apskaičiuoja gradientąnuostolių funkcija, atsižvelgiant į tinklo svorius vienam įvesties-išvesties pavyzdžiui, ir tai daroma efektyviai, skirtingai nei naivus tiesioginis gradiento apskaičiavimas, atsižvelgiant į kiekvieną svorį atskirai.