본문 바로가기

개발

Activation function

 

https://www.tensorflow.org

 

  • 많은 activation function이 존재하지만 성능 향상을 위해 사용하는 순서
    • ReLU => Leaky ReLU => Maxout => ELU