Moglobin's
article thumbnail

- 선형회귀(Linear Regression)의 비용을 최소화하는 방법을 코드로 알아보자.

- 선형회귀(Linear Regression), 가설(Hypothesis), 비용함수(Cost function), 경사하강법(Gradient Descent), 블록함수(Convex function)

 

 

편차 제곱의 평균이 cost이다.

cost 함수를 파이썬으로 구현해보자.

 

W 값의 -3 부터 5 까지 15 구간으로 쪼개 이에 대응하는 cost 값을 보면

값이 감소하다 다시 증가하는 것을 볼 수 있다.

 

Gradient descent 도 Tensorflow 코드로 옮겨보면 위와 같다.

descent 가 새로운 W 값.

 

Gradient descent 식을 추가하여 코드 구현.

random_seed 초기화.

 

결과를 출력하면 cost 와 W 모두 특정한 값으로 수렴함을 알 수 있다.

 

profile

Moglobin's

@슈플로프

Take your time 🍋