- Co robi Relu w głębokim uczeniu się?
- Dlaczego najpopularniejsza funkcja aktywacji jednostki liniowej RELU?
- Czy możemy użyć relu w regresji liniowej?
- Jak można stosować z sieci neuronowych?
Co robi Relu w głębokim uczeniu się?
Funkcja RELU to kolejna nieliniowa funkcja aktywacji, która zyskała popularność w dziedzinie głębokiego uczenia się. RELU oznacza prostowaną jednostkę liniową. Główną zaletą korzystania z funkcji RELU nad innymi funkcjami aktywacyjnymi jest to, że nie aktywuje ona wszystkich neuronów w tym samym czasie.
Dlaczego najpopularniejsza funkcja aktywacji jednostki liniowej RELU?
Rekretna funkcja aktywacji liniowej przezwycięża problem z zanikającym gradientem, umożliwiając modele szybciej uczyć się i lepiej. Prostawa aktywacja liniowa jest domyślną aktywacją podczas opracowywania wielowarstwowego perceptronu i konwencjonalnych sieci neuronowych.
Czy możemy użyć relu w regresji liniowej?
Rellu w regresji
Stosujemy funkcje aktywacyjne na ukrytych i wyjściowych neuronach, aby zapobiec zbyt niskim lub zbyt wysokim neuronom, co będzie działać przeciwko procesowi uczenia się sieci. Po prostu matematyka działa lepiej w ten sposób. Najważniejszą funkcją aktywacji jest ta zastosowana do warstwy wyjściowej.
Jak można stosować z sieci neuronowych?
Jednym ze sposobów ulepszania sieci neuronowych jest przyspieszenie szkolenia. Obliczenie gradientu jest bardzo proste (0 lub 1 w zależności od znaku x). Ponadto etap obliczeniowy RELU jest łatwy: wszelkie negatywne elementy są ustawione na 0.0 - Brak wykładniczych, brak operacji mnożenia lub podziału.