diff --git a/03 - TensorFlow Basic/02 - Variable.py b/03 - TensorFlow Basic/02 - Variable.py index 4af8c31f..73988699 100644 --- a/03 - TensorFlow Basic/02 - Variable.py +++ b/03 - TensorFlow Basic/02 - Variable.py @@ -13,26 +13,24 @@ # tf.Variable: 그래프를 계산하면서 최적화 할 변수들입니다. 이 값이 바로 신경망을 좌우하는 값들입니다. # tf.random_normal: 각 변수들의 초기값을 정규분포 랜덤 값으로 초기화합니다. W = tf.Variable(tf.random_normal([3, 2])) -b = tf.Variable(tf.random_normal([2, 1])) +b = tf.Variable(tf.random_normal([1, 2])) # 입력값과 변수들을 계산할 수식을 작성합니다. # tf.matmul 처럼 mat* 로 되어 있는 함수로 행렬 계산을 수행합니다. expr = tf.matmul(X, W) + b -sess = tf.Session() -# 위에서 설정한 Variable 들의 값들을 초기화 하기 위해 -# 처음에 tf.global_variables_initializer 를 한 번 실행해야 합니다. -sess.run(tf.global_variables_initializer()) +with tf.Session() as sess: + # 위에서 설정한 Variable 들의 값들을 초기화 하기 위해 + # 처음에 tf.global_variables_initializer 를 한 번 실행해야 합니다. + sess.run(tf.global_variables_initializer()) -print("=== x_data ===") -print(x_data) -print("=== W ===") -print(sess.run(W)) -print("=== b ===") -print(sess.run(b)) -print("=== expr ===") -# expr 수식에는 X 라는 입력값이 필요합니다. -# 따라서 expr 실행시에는 이 변수에 대한 실제 입력값을 다음처럼 넣어줘야합니다. -print(sess.run(expr, feed_dict={X: x_data})) - -sess.close() + print("=== x_data ===") + print(x_data) + print("=== W ===") + print(sess.run(W)) + print("=== b ===") + print(sess.run(b)) + print("=== expr ===") + # expr 수식에는 X 라는 입력값이 필요합니다. + # 따라서 expr 실행시에는 이 변수에 대한 실제 입력값을 다음처럼 넣어줘야합니다. + print(sess.run(expr, feed_dict={X: x_data})) diff --git a/04 - Neural Network Basic/02 - Deep NN.py b/04 - Neural Network Basic/02 - Deep NN.py index 677aba22..3dcd06d4 100644 --- a/04 - Neural Network Basic/02 - Deep NN.py +++ b/04 - Neural Network Basic/02 - Deep NN.py @@ -20,8 +20,8 @@ ######### # 신경망 모델 구성 ###### -X = tf.placeholder(tf.float32) -Y = tf.placeholder(tf.float32) +X = tf.placeholder(tf.float32, [None, 2]) +Y = tf.placeholder(tf.float32, [None, 3]) # 첫번째 가중치의 차원은 [특성, 히든 레이어의 뉴런갯수] -> [2, 10] 으로 정합니다. W1 = tf.Variable(tf.random_uniform([2, 10], -1., 1.)) @@ -75,4 +75,4 @@ is_correct = tf.equal(prediction, target) accuracy = tf.reduce_mean(tf.cast(is_correct, tf.float32)) -print('정확도: %.2f' % sess.run(accuracy * 100, feed_dict={X: x_data, Y: y_data})) +print('정확도: {:.2f}'.format(sess.run(accuracy * 100, feed_dict={X: x_data, Y: y_data})))