NOVINKA: Kurz kybernetickej bezpečnosti teraz už od 0 €. Staň sa žiadaným profesionálom. Zisti viac:
NOVINKA: Staň sa dátovým analytikom od 0 € a získaj istotu práce, lepší plat a nové kariérne možnosti. Viac informácií:
Funkce, kterou se snažíš použít je dostupná pouze pro registrované uživatele. Buďto se přihlas nebo si zdarma vytvoř nový účet.

10. diel - Neurónové siete - Gradientný zostup a jeho súrodenci

V minulej lekcii, Neurónové siete – Dokončenie teórie pre logistickú regresiu , sme prebrali nekonvexné a multidimenzionálne prípady aj loss funkciu.

V dnešnej lekcii kurzu Neurónovej siete – Krok za krokom preberieme rozdiely medzi batch, minibatch a stochastic gradient descent algoritmom.

Výhody a nevýhody

Batch gradient descent (ďalej len Gradient Descent) a Stochastick Gradient Descent sme si už ukázali, ale mali by sme sa ešte porozprávať o rozdieloch ao ich výhodách a nevýhodách:

  • Gradient D

 

...koniec náhľadu článku...
Pokračuj ďalej

Vedomosti v hodnote stoviek tisíc získaš za pár eur

Došiel si až sem a to je super! Veríme, že ti prvé lekcie ukázali niečo nového a užitočného.
Chceš v kurze pokračovať? Prejdi do prémiové sekcie.

Obsah článku spadá pod licenciu Premium, kúpou článku súhlasíš so zmluvnými podmienkami.

Čo od nás v ďalších lekciách dostaneš?
  • Prístup k jednotlivým lekciám podľa spôsobu obstarania.
  • Kvalitné znalosti v oblasti IT.
  • Zručnosti, ktoré ti pomôžu získať vysnívanú a dobre platenú prácu.

Popis článku

Požadovaný článok má nasledujúci obsah:

V kurze Neurónovej siete tentoraz preberieme rozdiely medzi batch, minibatch a stochastic gradient descent algoritmy.

Kredity získaš, keď podporíš našu sieť. To môžeš urobiť buď zaslaním symbolickej sumy na podporu prevádzky alebo pridaním obsahu na sieť.

Článok pre vás napísal Patrik Valkovič
Avatar
Věnuji se programování v C++ a C#. Kromě toho také programuji v PHP (Nette) a JavaScriptu (NodeJS).
Aktivity