- 선형회귀(Linear Regression)의 비용을 최소화하는 방법을 코드로 알아보자.
- 선형회귀(Linear Regression), 가설(Hypothesis), 비용함수(Cost function), 경사하강법(Gradient Descent), 블록함수(Convex function)
편차 제곱의 평균이 cost이다.
cost 함수를 파이썬으로 구현해보자.
W 값의 -3 부터 5 까지 15 구간으로 쪼개 이에 대응하는 cost 값을 보면
값이 감소하다 다시 증가하는 것을 볼 수 있다.
Gradient descent 도 Tensorflow 코드로 옮겨보면 위와 같다.
descent 가 새로운 W 값.
Gradient descent 식을 추가하여 코드 구현.
random_seed 초기화.
결과를 출력하면 cost 와 W 모두 특정한 값으로 수렴함을 알 수 있다.
'컴공' 카테고리의 다른 글
1. 자료 모으기와 화면에 표시하기 (0) | 2021.03.26 |
---|---|
Statistical Learning with Python (0) | 2021.03.09 |
Linear Regression and How to minimize cost (0) | 2021.01.25 |
Simple Linear Regression 를 TensorFlow 로 구현하기 (0) | 2021.01.25 |
Simple Linear Regression (0) | 2021.01.25 |