Logo et.boatexistence.com

Miks stohhastiline gradientlangemine?

Sisukord:

Miks stohhastiline gradientlangemine?
Miks stohhastiline gradientlangemine?

Video: Miks stohhastiline gradientlangemine?

Video: Miks stohhastiline gradientlangemine?
Video: 🟡 СТРАТЕГИЯ РАБОТЫ QUOTEX BROKER - Прибыль $13 000 | Торговля бинарными опционами | Quotex Трейдинг 2024, Mai
Anonim

Vanemateadlase sõnul on stohhastilise gradiendi laskumise üks selgeid eeliseid see, et see teeb arvutused kiiremini kui gradiendi laskumine ja partii gradiendi laskumine … Samuti massiivsete andmekogumite korral võib stohhastilise gradiendi laskumine koonduda kiiremini, kuna see värskendab sagedamini.

Mille jaoks kasutatakse stohhastilist gradiendi laskumist?

Stohhastilise gradiendi laskumine on optimeerimisalgoritm, mida masinõpperakendustes sageli kasutatakse, et leida mudeliparameetrid, mis sobivad kõige paremini prognoositud ja tegelike väljundite vahel See on ebatäpne, kuid võimas tehnika. Stohhastilist gradiendi laskumist kasutatakse laialdaselt masinõppe rakendustes.

Miks me peame konvolutsioonilise närvivõrgu treenimiseks kasutama standardse gradiendi laskumise asemel stohhastilist gradiendi laskumist?

Stohhastilise gradiendi laskumine värskendab iga vaatluse parameetreid, mis toob kaasa suurema arvu uuendusi. Seega on see kiirem lähenemisviis, mis aitab kiiremini otsuseid langetada. Selles animatsioonis on märgata kiiremaid värskendusi erinevates suundades.

Miks me eelistame laskumist kaldega?

Peamine põhjus, miks lineaarseks regressiooniks kasutatakse gradiendi laskumist, on arvutuslik keerukus: arvutuslikult on odavam (kiirem) leida lahendus mõnel juhul gradiendi laskumise abil. Siin peate arvutama maatriksi X′X ja seejärel selle ümber pöörama (vt märkust allpool). See on kallis arvutus.

Miks kasutatakse SGD-d?

Stohhastiline gradiendi laskumine (sageli lühendatud SGD) on iteratiivne meetod sobivate sujuvusomadustega sihtfunktsiooni optimeerimiseks (nt diferentseeritav või alamdiferentseeritav).

Soovitan: