Toggle menu
Toggle personal menu
Not logged in
Your IP address will be publicly visible if you make any edits.

머신러닝스터디/2016/2016 05 07: Difference between revisions

From ZeroWiki
No edit summary
(Repair batch-0005 pages from live compare)
 
(9 intermediate revisions by 4 users not shown)
Line 1: Line 1:
[[pagelist(^(머신러닝스터디/2016))]]
[[머신러닝스터디/2016]]
[[머신러닝스터디/2016/목차]]
== 내용 ==
== 내용 ==
* [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression(Binary Regression)]
* [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression(Binary Regression)]


https://upload.wikimedia.org/math/8/e/a/8ea0a810cfcd0c3dfec49306e214e301.png
* Softmax
** exponential을 쓴다.
** 아래는 Tensorflow API 정의
softmax[i, j] = exp(logits[i, j]) / sum(exp(logits[i]))
** exponential은 항상 양의 값을 가지며 단조 증가한다는 특징을 가지기 때문에 확률 계산에 적합하다.
* None
** TensorFlow에서 지원하는 기능
** 예를 들어 784,00개의 데이터를 넣어주면 자동으로 행렬이 100 * 784로 형성된다.
* TensorFlow에서는 행렬과 백터의 합이 지원이 된다.
** 정확히는 m*n 크기의 행렬 A에 n*1의 백터 B를 더하면 m개의 행에 각각 백터 B가 더해진다.
* TensorFlow API
* TensorFlow API
** https://www.tensorflow.org/versions/master/api_docs/python/math_ops.html#reduce_sum
** https://www.tensorflow.org/versions/master/api_docs/python/math_ops.html#reduce_sum
* 가장 중요한 것은 graph의 shape
== 후기 ==
== 후기 ==
 
* [[서지혜]]: softmax의 정의를 오늘 처음 보고 멘붕했다. Sigmoid에 집착하고 있었다.
* [[강민승]]: Matrix의 형태(행, 열)가 어떻게 변하는지를 이용해 연산의 흐름을 잡는게 중요하다고 들었으나 아직 머릿속에서 정리가 잘 안된다.
* [[유재범]] : 행렬 연산 설명을 들어서 비교적 설명이 빠르게 이해가 되었다. 그러나 아무리 봐도 예시 코드 없이 코딩 하는건 힘들어 보인다(...)
== 다음 시간에는 ==
== 다음 시간에는 ==
* Logistic Regression Live Coding?
* Logistic Regression Live Coding?
Line 13: Line 30:
-------
-------
[[활동지도/2016]], [[머신러닝스터디/2016]]
[[활동지도/2016]], [[머신러닝스터디/2016]]

Latest revision as of 00:44, 27 March 2026

머신러닝스터디/2016 머신러닝스터디/2016/목차

내용

https://upload.wikimedia.org/math/8/e/a/8ea0a810cfcd0c3dfec49306e214e301.png
  • Softmax
    • exponential을 쓴다.
    • 아래는 Tensorflow API 정의
softmax[i, j] = exp(logits[i, j]) / sum(exp(logits[i]))
    • exponential은 항상 양의 값을 가지며 단조 증가한다는 특징을 가지기 때문에 확률 계산에 적합하다.
  • None
    • TensorFlow에서 지원하는 기능
    • 예를 들어 784,00개의 데이터를 넣어주면 자동으로 행렬이 100 * 784로 형성된다.
  • TensorFlow에서는 행렬과 백터의 합이 지원이 된다.
    • 정확히는 m*n 크기의 행렬 A에 n*1의 백터 B를 더하면 m개의 행에 각각 백터 B가 더해진다.
  • TensorFlow API
  • 가장 중요한 것은 graph의 shape

후기

  • 서지혜: softmax의 정의를 오늘 처음 보고 멘붕했다. Sigmoid에 집착하고 있었다.
  • 강민승: Matrix의 형태(행, 열)가 어떻게 변하는지를 이용해 연산의 흐름을 잡는게 중요하다고 들었으나 아직 머릿속에서 정리가 잘 안된다.
  • 유재범 : 행렬 연산 설명을 들어서 비교적 설명이 빠르게 이해가 되었다. 그러나 아무리 봐도 예시 코드 없이 코딩 하는건 힘들어 보인다(...)

다음 시간에는

  • Logistic Regression Live Coding?

더 보기


활동지도/2016, 머신러닝스터디/2016