[MINI] The Vanishing Gradient
Data Skeptic30 Kesä 2017

[MINI] The Vanishing Gradient

This episode discusses the vanishing gradient - a problem that arises when training deep neural networks in which nearly all the gradients are very close to zero by the time back-propagation has reached the first hidden layer. This makes learning virtually impossible without some clever trick or improved methodology to help earlier layers begin to learn.

Jaksot(588)

Suosittua kategoriassa Tiede

rss-mita-tulisi-tietaa
utelias-mieli
tiedekulma-podcast
hippokrateen-vastaanotolla
docemilia
rss-lihavuudesta-podcast
filocast-filosofian-perusteet
rss-poliisin-mieli
rss-duodecim-lehti
rss-ammamafia
sotataidon-ytimessa
menologeja-tutkimusmatka-vaihdevuosiin
vinkista-vihia
radio-antro
rss-ranskaa-raakana
rss-tiedetta-vai-tarinaa
rss-ilmasto-kriisissa
rss-jyvaskylan-yliopisto
rss-luontopodi-samuel-glassar-tutkii-luonnon-ihmeita