Žvelgiant iš praktikos, L1 linkęs sumažinti koeficientus iki nulio, o L2 linkęs tolygiai mažinti koeficientus. Todėl L1 yra naudinga renkantis ypatybes, nes galime atsisakyti bet kokių kintamųjų, susijusių su koeficientais, kurie pasiekia nulį. Kita vertus, L2 yra naudinga, kai turite kolinearinių / bendrai priklausomų funkcijų.
Kam yra reguliarumas Kas yra L1 ir L2 reguliavimas?
L1 reguliavimas suteikia dvejetainiu modelio ypatybių svoriu nuo 0 iki 1 išvestį ir yra pritaikytas ypatybių skaičiui mažinti didžiuliame duomenų rinkinyje. L2 reguliavimas išsklaido klaidų terminus visuose svoriuose, todėl gaunami tikslesni pritaikyti galutiniai modeliai.
Kuo skiriasi L1 ir L2 reguliavimas?
Pagrindinis intuityvus skirtumas tarp L1 ir L2 reguliavimų yra tas, kad L1 reguliavimas bando įvertinti duomenų medianą, o L2 reguliavimas bando įvertinti duomenų vidurkį, kad būtų išvengta perderinimo. … Ši reikšmė taip pat bus matematinio duomenų paskirstymo mediana.
Kas yra L1 ir L2 įteisinimas giliame mokyme?
L2 reguliavimas taip pat žinomas kaip svorio mažėjimas, nes jis priverčia svorius mažėti link nulio (bet ne tiksliai nulio). L1 mes turime: baudžiame už absoliučią svorių vertę. Skirtingai nei L2, čia svoris gali būti sumažintas iki nulio. Taigi, tai labai naudinga, kai bandome suspaustimūsų modelis.
Kaip veikia L1 ir L2 reguliavimas?
Regresijos modelis, kuriame naudojama L1 reguliavimo technika, vadinamas Laso regresija, o modelis, kuris naudoja L2, vadinamas keteros regresija. Pagrindinis skirtumas tarp šių dviejų yra bausmės terminas. Ridge regresija prideda koeficiento kvadratinį dydį kaip baudos terminą prie praradimo funkcijos.