케라스 activations를 보면 relu는 구현되어 있지만(그냥 backend에 있는거 가져다 쓰는거지만...) leaky_relu는 구현되어 있지 않다.
leaky_relu를 쓰려면 tensorflow 를 backend로 사용할 때 기준으로 아래 예제 코드를 참고하여 쓰면 된다.
leaky_relu = tf.nn.leaky_relu input_shape = Input(shape=(3000,1)) cnn1 = Conv1D(50,64,strides=6,activation=leaky_relu)(input_shape)
'노트정리 > 머신러닝 machine leanring' 카테고리의 다른 글
허깅페이스 (huggingface) 모델 다운로드 받기 (1) | 2024.10.19 |
---|---|
리눅스 콘다 환경에서 GPU 를 사용하는 LightGBM 설치 (0) | 2021.10.28 |
케라스 (keras) 에서 모델 저장 또는 가중치 저장 (1) | 2018.08.24 |