본문 바로가기

전체 글

(34)
Sklearn-LinearRegression 간단한 예제로 알아보기(자주사용하는 함수들) Sklearn-LinearRegression Sklearn-LinearRegression이란 Ordinary least squares Linear Regression. 즉 선형회귀 제곱 식에 의한 선형회귀 모델 중 하나 이다. 이 글은 Sklearn LinearRegression에 대한 설명과 자주 사용 하는 함수들을 설명 하고자 만든 글이다. 유튜버 top 1000명에 대한 구독, 좋아요, 알람, 댓글 수의 데이터를 가지고 있을때 이들의 상관 관계는 위 그림과 같이 나타 났고, 그중 Likes, Visits 가 강한 상관 관계가 있어 선형 회귀 모델을 만들어 이들을 예측 해보고자 하였다. train, test = train_test_split(df,train_size=0.7,test_size=0.3, ..
미분과 편미분 - 설명과 예제 미분 미분이란 어떤 함수의 순간적인 움직임을 이야기 하는데 아래의 예시를 통해 알아보자. ※ 실제로 소비량이 마이너스인 경우가 있는 없지만 이를 Standard Scaling 하였다고 가정하면 가능하다. 아무튼 이때 소비량이 2인 경우 행복지수는 4, 소비량이 4인경우 행복지수는 16인것을 확인 할수 있는데 이 두점을 연결하면 오른쪽 그림과 같은 직선이 그려진다. 이 직선의 기울기는 x가 2증가할때 y는 12를 증가하게 되어 기울기가 6이 된다는 것을 알 수 있다. 그렇다면 돌아가서 미분이란 위에서 순간적인 움직임 이라고 하였다. 아래의 그림처럼 점 두개가 붙어 질수록 기울기가 바뀌는것을 볼수 있는데 이를 통해 두점이 하나의 점과 유사하게 보일정도로 (그림에서는 주황색점과 노란색 점) 무한소에 가깝게 차..
경사하강법(Gradient Descent) 경사 하강법 이란? 경사 하강법이란 머신러닝에서 사용되는 개념으로 프로그래밍을 활용하여 통계학을 접근 할 때 무언가를 예측 하기 위해 사용되는 방법중 하나이다. 머신 러닝에서 경사 하강법을 사용하는 이유 ■ 머신러닝은 방대한 데이터량(빅데이터)를 활용하여 모델을 만들어야되고 독립변수가 하나가 아닌 여러개의 독립변수가 존재하는 다중회귀분석의 경우 계산식이 복잡하여 계산을 하기가 어려움 ■ 미분계수의 계산 과정보다 경사하강법의 구현이 쉬움 경사하강법의 Local optimum(지역 최적점)을 찾게 되는 흐름 단순 선형회귀를 예로 들어 단순선형 회귀 모델은 Y = ax + b 라는 2차 방정식으로 표현이 가능하다. a가 기울기를 뜻하고 b가 절편을 뜻한다. 위의 그래프를 예로 들어 보자. 위의 모델에서 가장 ..