Notice
Recent Posts
Recent Comments
Link
«   2024/09   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
Archives
Today
Total
관리 메뉴

NISSO

[모두를 위한 딥러닝] Lec 02 : Linear Regression의 Hypothesis와 cost 본문

ML & DL

[모두를 위한 딥러닝] Lec 02 : Linear Regression의 Hypothesis와 cost

oniss 2021. 9. 28. 18:48

홍콩과기대 김성훈 교수님의 '모두를 위한 딥러닝' 강의 정리

http://hunkim.github.io/ml/

 

모두를 위한 머신러닝/딥러닝 강의

 

hunkim.github.io


      X (공부한 시간) = 7

                     ↓

Regression

                     ↓

      Y (시험 점수) = 75

 

 

Linear Regression : 선형회귀

Linear Regression의 Hypothesis (가설)

ex) 공부한 시간이 많을수록 시험 점수가 높다.

ex) 집의 크기가 클수록 가격이 높다.

이러한 가설들은 아래와 같이 그래프에 선으로 표현할 수 있다.

 

Linear Regression

 

이 중에 어떤 "선"이 이 데이터에 가장 잘 맞는 선인지 알아내는 게 Linear Regression이다.

이 선(가설)을 수학적으로 나타내면 H(x) = Wx + b

여기서 W와 b를 찾는 게 Linear Regression이다.

 

어떤 선(가설)이 가장 좋은 것일까?

내가 설정한 선과 데이터 간 거리를 계산하면 알 수 있다.
데이터와 가장 거리가 가까운 선이 가장 좋은 가설이다.

 

이 거리를 측정하는 게 Cost function. Loss function 이라고도 한다.

내가 세운 가설과 실제 데이터가 얼마나 다른가(거리가 얼마나 되는가)를 계산한다.

( H(x) - y )^2 : 선과 실제 데이터의 차이

제곱하는 이유는, 음수가 되지 않도록 하고, 차이가 클수록 제곱하여 차이를 더 크게 표현 가능하기 때문이다.

cost function

선과 각 데이터(점)의 차이의 제곱을 모두 더해 평균을 낸 것이 cost function.

이 값을 가장 작게 하는 W와 b를 구하는 것, 즉 cost를 최소화하는 것이 Linear Regression의 학습의 목표다.

 

Comments