전체 글(327)
-
sigmoid ? softmax? 이란?
둘 다 class classification 할 때 사용하는 거지만 간단하게 말하자면 binary(이중) 분류 -> sigmoid function 사용 multi(다중) 분류 -> softmax function 사용 일단 이렇게만 알아두어도 충분하다. 각각 function이 어떻게 작동하는지 알아보려면 더 deep하게 들어가야한다. 반드시 이렇게만 사용해야하는 것은 아니고, 여러 확장된 함수들이 존재하므로 기존 배경지식으로 이정도만 기억하는 것이 좋을 것 같다.
2022.11.17 -
텐서플로우(Tensorflow) - tensorflow==1.x 버전 for MacOS - M1
없습니다. m1 (2020) 은 tensorflow 2.5 이상 버전만 지원한다고 합니다 ......... 괜히 저처럼 이리저리 방법 찾아보면서 에너지 낭비하지 마시길 ......... https://developer.apple.com/forums/thread/704041
2022.11.16 -
텐서플로우(Tensorflow) - tf.reduce_sum() 이란?
import tensorflow as tf self.scores = tf.reduce_sum(self.user_embeddings * self.item_embeddings, axis=1) 이때 reduce_sum이란 영어문자 그대로 첫번째 전달인자(tensor)에서 axis 축을 없애고 sum을 진행하는 것이다. 예시: x = [[0,1,2] [3,4,5]] 라고 하자. sees = tf.Session() sees.run(tf.reduce_sum(x)) sees.run(tf.reduce_sum(x,0)) sees.run(tf.reduce_sum(x,1)) output: 15 [3,5,7] [3,12] 해석: axis 인자가 없을 시, 모든 축을 없애버리고 하나로 합침. 즉 스칼라값 출력 행을 없앨 경우 ..
2022.11.15 -
텐서플로우(Tensorflow) - tf.gather() 란?
tf.gather(params, indices, validate_indices=None, name=None, axis=None, batch_dims=0) 전달인자 params(=tensor)에서 axis 축 기준으로 indices 값들을 뽑아온다. 예시: v1 = tf.constant([1, 3, 5, 7, 9, 0, 2, 4, 6, 8]) v2 = tf.constant([[1, 2, 3, 4, 5, 6], [7, 8, 9, 10, 11, 12]]) with tf.Session() as sess: print(sess.run(tf.gather(v1, [2, 5, 2, 5], axis=0))) print(sess.run(tf.gather(v2, [0, 1], axis=0))) print(sess.run(tf..
2022.11.15 -
텐서플로우(Tensorflow) - tf.expand_dims() 란?
import tensorflow as tf seeds = tf.expand_dims(seeds, axis=1) expand_dims 영어 단어가 의미하듯이 배열의 차원을 늘려주는 것 이다. 전달인자로는 배열, axis 가 있는데 지정한 axis에 차원을 하나 삽입하는 것 이다. 예를 들면 seeds 라는 배열이 (2,3)의 shape을 가지고 있다고 하자. axis0 = tf.expand_dims(seeds, axis=0) -> shape : (1,2,3) axis1 = tf.expand_dims(seeds, axis=1) -> shape : (2,1,3) axis2 = tf.expand_dims(seeds, axis=2) -> shape : (2,3,1) 다음과 같이 2차원에서 3차원으로 확장되었으며 ..
2022.11.15 -
텐서플로우(Tensorflow) tf.nn.embedding_lookup() 이란?
import tensorflow as tf #tf.nn.embedding_lookup 이란 첫번째 전달 인자에서 두번째 전달 인자의 index를 lookup(관찰, 추출)하는 것. # [batch_size, dim] self.user_embeddings = tf.nn.embedding_lookup(self.user_emb_matrix, self.user_indices) tf.nn.embedding_lookup 이란 리스트의 크기가 클 경우, 원하는 index를 탐색하고 추출하기 위해 사용되는 함수이다. 전달인자로는 리스트, 탐색할 index리스트 이다. 따라서 self.user_emb_matrix라는 큰 크기의 리스트에서 self.user_indeices의 index들을 탐색하여 반환한다.
2022.11.14