TensorFlow Dropout 썸네일형 리스트형 TensorFlow - MNIST ReLU, Xavier 초기화, Dropout 적용하여 정확도 높이기 @markdown# MNIST ReLU, Xavier 초기화, Dropout 적용하여 정확도 높이기 ## ReLU 함수 사용____- 기존의 Sigmoid 보단 ReLU를 사용하여 인식률을 높인다.- shape=[512, 512]와 ReLU로 5-Layer를 설계해 Deep하고 Wide한 Neural Network을 구성한다.import tensorflow as tfimport randomimport matplotlib.pyplot as pltfrom tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)learning_rate = 0.001traini.. 더보기 이전 1 다음