일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 내용추가
- coding test
- reinforcement learning
- 모두를 위한 딥러닝
- 프로그래머스
- object detection
- computer vision
- Python
- 논문
- 알고리즘
- 백준
- Today
- Total
NISSO
[모두를 위한 딥러닝] Lec 02 : Linear Regression의 Hypothesis와 cost 본문
홍콩과기대 김성훈 교수님의 '모두를 위한 딥러닝' 강의 정리
X (공부한 시간) = 7
↓
Regression |
↓
Y (시험 점수) = 75
Linear Regression : 선형회귀
Linear Regression의 Hypothesis (가설)
ex) 공부한 시간이 많을수록 시험 점수가 높다.
ex) 집의 크기가 클수록 가격이 높다.
이러한 가설들은 아래와 같이 그래프에 선으로 표현할 수 있다.
이 중에 어떤 "선"이 이 데이터에 가장 잘 맞는 선인지 알아내는 게 Linear Regression이다.
이 선(가설)을 수학적으로 나타내면 H(x) = Wx + b
여기서 W와 b를 찾는 게 Linear Regression이다.
어떤 선(가설)이 가장 좋은 것일까?
내가 설정한 선과 데이터 간 거리를 계산하면 알 수 있다.
데이터와 가장 거리가 가까운 선이 가장 좋은 가설이다.
이 거리를 측정하는 게 Cost function. Loss function 이라고도 한다.
내가 세운 가설과 실제 데이터가 얼마나 다른가(거리가 얼마나 되는가)를 계산한다.
( H(x) - y )^2 : 선과 실제 데이터의 차이
제곱하는 이유는, 음수가 되지 않도록 하고, 차이가 클수록 제곱하여 차이를 더 크게 표현 가능하기 때문이다.
선과 각 데이터(점)의 차이의 제곱을 모두 더해 평균을 낸 것이 cost function.
이 값을 가장 작게 하는 W와 b를 구하는 것, 즉 cost를 최소화하는 것이 Linear Regression의 학습의 목표다.
'ML & DL' 카테고리의 다른 글
학습시 loss / val_loss가 비정상적으로 높을 때 (1) | 2021.10.12 |
---|---|
[강화학습] Lec 01 : Introduction (0) | 2021.09.29 |
[모두를 위한 딥러닝] Lec 01 (0) | 2021.09.28 |
[모두를 위한 딥러닝] Lec 00 (0) | 2021.09.28 |