Toggle menu
Toggle personal menu
Not logged in
Your IP address will be publicly visible if you make any edits.

머신러닝스터디/2016/2016 03 26: Difference between revisions

From ZeroWiki
imported>rabierre
({CREATE})
 
imported>rabierre
No edit summary
 
(8 intermediate revisions by 2 users not shown)
Line 1: Line 1:
[[머신러닝스터디/2016]]
[[머신러닝스터디/2016/목차]]
== 내용 ==
== 내용 ==
* 첫날에 못 온 사람을 위해 첫날에 한 얘기를 복습함.
** PCA
** H(가설 함수)가 H(x) = wx + b이고 Cost function J는 기대값 H(x)와 실제값 y의 차의 제곱들의 총합이 된다(Mean squared error).   
** 이때 Gradient descent는 w, b, J(x)에 대해 3차원 그래프로 나타내어진다.
* 동영상 분량 조절을 잘못해서 Gradient descent를 끝까지 본 사람이 없었다.
* 동영상 분량 조절을 잘못해서 Gradient descent를 끝까지 본 사람이 없었다.
** 동영상을 가장 많이 본 사람([[서지혜]])가 Linear regression과 Cost function(Loss function), Gradient descent간의 관계를 설명함.
== 후기 ==
== 후기 ==
* [[이원준]]: 하고싶은 질문을 다 해서 만족스럽다. 네이버 d2 신청해보면 어떨까합니다.
* [[이원준]]: 하고싶은 질문을 다 해서 만족스럽다. 네이버 d2 신청해보면 어떨까합니다.
Line 7: Line 13:
* [[김수경]]: 이번주 바빠서 다음주부터는 열심히 볼 수 있을 것 같다. 다음주에는 내가 모르는걸 물어보거나, 내가 본 내용을 알려주는게 어떨까. 준비를 해 왔으면 좋겠다. 한 사람씩 반드시 설명을 하거나, 질문을 하거나.
* [[김수경]]: 이번주 바빠서 다음주부터는 열심히 볼 수 있을 것 같다. 다음주에는 내가 모르는걸 물어보거나, 내가 본 내용을 알려주는게 어떨까. 준비를 해 왔으면 좋겠다. 한 사람씩 반드시 설명을 하거나, 질문을 하거나.
* [[강민승]]: 영상을 많이 봐야겠다. 한글 위주로 보았었다. 다른 사람한테 말할 수 있을 정도로 준비 해 오겠다.  
* [[강민승]]: 영상을 많이 봐야겠다. 한글 위주로 보았었다. 다른 사람한테 말할 수 있을 정도로 준비 해 오겠다.  
* [[서지혜]]: 스터디에 대한 부담감이 조금 있다. 지금도 깝깝함.
* [[서지혜]]: 스터디에 대한 부담감이 조금(개미꼬딱지만큼) 있다. 지금도 깝깝함. 초반이라 별로 할 이야기가 없는듯.  


== 다음 시간에는 ==
== 다음 시간에는 ==
IV. Linear Regression with Multiple Variables (Week 2) 까지 영상을 보고 옵시다.
== 더 보기 ==
* [http://stackoverflow.com/questions/18191890/why-gradient-descent-when-we-can-solve-linear-regression-analytically why-gradient-descent-when-we-can-solve-linear-regression-analytically]
* [http://stats.stackexchange.com/questions/23128/solving-for-regression-parameters-in-closed-form-vs-gradient-descent solving-for-regression-parameters-in-closed-form-vs-gradient-descent]
-------
[[활동지도/2016]], [[머신러닝스터디/2016]]



Latest revision as of 17:31, 24 July 2016

머신러닝스터디/2016 머신러닝스터디/2016/목차

내용

  • 첫날에 못 온 사람을 위해 첫날에 한 얘기를 복습함.
    • PCA
    • H(가설 함수)가 H(x) = wx + b이고 Cost function J는 기대값 H(x)와 실제값 y의 차의 제곱들의 총합이 된다(Mean squared error).
    • 이때 Gradient descent는 w, b, J(x)에 대해 3차원 그래프로 나타내어진다.
  • 동영상 분량 조절을 잘못해서 Gradient descent를 끝까지 본 사람이 없었다.
    • 동영상을 가장 많이 본 사람(서지혜)가 Linear regression과 Cost function(Loss function), Gradient descent간의 관계를 설명함.

후기

  • 이원준: 하고싶은 질문을 다 해서 만족스럽다. 네이버 d2 신청해보면 어떨까합니다.
  • 유재범 한 사람의 진취도가 월등히 높지 않아서 누가 끌고 가는게 아니니까 모여서 영상을 보는게 어떨까요.
  • 김수경: 이번주 바빠서 다음주부터는 열심히 볼 수 있을 것 같다. 다음주에는 내가 모르는걸 물어보거나, 내가 본 내용을 알려주는게 어떨까. 준비를 해 왔으면 좋겠다. 한 사람씩 반드시 설명을 하거나, 질문을 하거나.
  • 강민승: 영상을 많이 봐야겠다. 한글 위주로 보았었다. 다른 사람한테 말할 수 있을 정도로 준비 해 오겠다.
  • 서지혜: 스터디에 대한 부담감이 조금(개미꼬딱지만큼) 있다. 지금도 깝깝함. 초반이라 별로 할 이야기가 없는듯.

다음 시간에는

IV. Linear Regression with Multiple Variables (Week 2) 까지 영상을 보고 옵시다.

더 보기


활동지도/2016, 머신러닝스터디/2016