케라스 activations를 보면 relu는 구현되어 있지만(그냥 backend에 있는거 가져다 쓰는거지만...) leaky_relu는 구현되어 있지 않다.


leaky_relu를 쓰려면 tensorflow 를 backend로 사용할 때 기준으로 아래 예제 코드를 참고하여 쓰면 된다.


leaky_relu = tf.nn.leaky_relu input_shape = Input(shape=(3000,1)) cnn1 = Conv1D(50,64,strides=6,activation=leaky_relu)(input_shape)


Posted by 공돌이pooh
,