You are viewing a single comment's thread from:

RE: Uczenie maszynowe #4 Ten z innymi funkcjami aktywacji

in #polish6 years ago

Ja ciągle jestem pod wrażeniem tego, że zamiana funkcji aktywacji z sigmoid na reLU to był taki duży krok do przodu. Tym bardziej, ze reLu wygląda tak "prosto" i nie ma w niej żadnej magii.

Sort:  

Prawda? :-) To jest jeden z tych momentów, gdzie zawsze mi się przypomina ten cytat:

"Rzeczy proste są zawsze najbardziej niezwykłe" ~Paulo Coelho; z książki "Alchemik"

Coin Marketplace

STEEM 0.17
TRX 0.13
JST 0.027
BTC 60596.21
ETH 2611.46
USDT 1.00
SBD 2.64