일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Kaggle
- 카카오
- level 1
- 튜닝
- level 2
- 오라클
- 데이터 분석
- python3
- 실기
- sklearn
- oracle
- R
- matplotlib
- 코딩테스트
- 프로그래머스
- Numpy
- 실습
- 빅데이터 분석 기사
- 알고리즘
- Oracel
- Python
- pandas
- 머신러닝
- 빅분기
- 파이썬
- SQL
- seaborn
- Today
- Total
라일락 꽃이 피는 날
[빅분기 실기] 인공신경망 본문
인공신경망
인간의 뉴런구조와 활성화 작동원리를 이용하여 input(자극)과 output(반응)의 연관을 구현한 알고리즘
중간에 은닉층(hidden layers)과 노드(node)를 두어 특성치로부터 분류와 회귀를 더 잘할 수 있도록 함
[주요 하이퍼파라미터]
- hidden_layer_sizes : 은닉층 개수
- activation : 활성화 함수 ex) linear, sigmoid, relu, tanh
- solver : 옵티마이저 ex) sgd, adam
- 노드 개수
- 학습율 (learning rate)
Part 1. 분류 (Classification)
1. 분석 데이터 준비
import pandas as pd
# 유방암 예측 분류 데이터
data1=pd.read_csv('breast-cancer-wisconsin.csv', encoding='utf-8')
X=data1[data1.columns[1:10]]
y=data1[["Class"]]
1-2. train-test 데이터셋 나누기
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test=train_test_split(X, y, stratify=y, random_state=42)
1-3. Min-Max 정규화
from sklearn.preprocessing import MinMaxScaler
scaler=MinMaxScaler()
scaler.fit(X_train)
X_scaled_train=scaler.transform(X_train)
X_scaled_test=scaler.transform(X_test)
2. 기본모델 적용
2-1. 훈련 데이터
from sklearn.neural_network import MLPClassifier
model=MLPClassifier()
model.fit(X_scaled_train, y_train)
pred_train=model.predict(X_scaled_train)
model.score(X_scaled_train, y_train) # 0.97265625
① 오차행렬 (confusion matrix)
from sklearn.metrics import confusion_matrix
confusion_train=confusion_matrix(y_train, pred_train)
print("훈련데이터 오차행렬:\n", confusion_train)
정상(0) 중 6명이 오분류, 환자(1) 중 8명이 오분류되었다.
② 분류예측 레포트 (classification report)
from sklearn.metrics import classification_report
cfreport_train=classification_report(y_train, pred_train)
print("분류예측 레포트:\n", cfreport_train)
정밀도(precision) = 0.97, 재현율(recall) = 0.97
2-2. 테스트 데이터
pred_test=model.predict(X_scaled_test)
model.score(X_scaled_test, y_test) # 0.9590643274853801
① 오차행렬 (confusion matrix)
confusion_test=confusion_matrix(y_test, pred_test)
print("테스트데이터 오차행렬:\n", confusion_test)
정상(0) 중 5명이 오분류, 환자(1) 중 2명이 오분류되었다.
② 분류예측 레포트 (classification report)
cfreport_test=classification_report(y_test, pred_test)
print("분류예측 레포트:\n", cfreport_test)
정밀도(precision) = 0.95, 재현율(recall) = 0.96
3. 하이퍼파라미터 튜닝
3-1. Grid Search
param_grid={'hidden_layer_sizes': [10, 30, 50, 100],
'solver': ['sgd', 'adam'],
'activation': ['tanh', 'relu']}
다양한 하이퍼파라미터 중 hidden_layer_sizes (은닉총수), solver(옵티마이저), activation(활성화함수) 를 튜닝한다.
from sklearn.model_selection import GridSearchCV
grid_search=GridSearchCV(MLPClassifier(), param_grid, cv=5)
grid_search.fit(X_scaled_train, y_train)
print("Best Parameter: {}".format(grid_search.best_params_))
print("Best Score: {:.4f}".format(grid_search.best_score_))
print("TestSet Score: {:.4f}".format(grid_search.score(X_scaled_test, y_test)))
최적의 activation은 tanh, hidden_layer_sizes는 100, solver는 adam의 조합으로,
이때 훈련 데이터의 정확도는 97.9%, 테스트 데이터의 정확도는 95.9% 이다.
3-2. Random Search
from scipy.stats import randint
param_distribs={'hidden_layer_sizes': randint(low=10, high=100),
'solver': ['sgd', 'adam'],
'activation': ['tanh', 'relu']}
solver와 activation은 동일하게 2가지로 하고 hidden_layer_sizes를 10~100 사이의 범위에서
10번(n_iter) 무작위 추출하는 방식을 적용한다.
from sklearn.model_selection import RandomizedSearchCV
random_search=RandomizedSearchCV(GaussianNB(),
param_distributions=param_distribs, n_iter=100, cv=5)
random_search.fit(X_scaled_train, y_train)
print("Best Parameter: {}".format(random_search.best_params_))
print("Best Score: {:.4f}".format(random_search.best_score_))
print("TestSet Score: {:.4f}".format(random_search.score(X_scaled_test, y_test)))
최적의 activation은 relu, hidden_layer_sizes는 68, solver는 adam의 조합으로,
이때 훈련 데이터의 정확도는 97.3%, 테스트 데이터의 정확도는 95.9% 이다.
Part 2. 회귀 (Regression)
1. 분석 데이터 준비
# 주택 가격 데이터
data2=pd.read_csv('house_price.csv', encoding='utf-8')
X=data2[data2.columns[1:5]]
y=data2[["house_value"]]
1-2. train-test 데이터셋 나누기
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test=train_test_split(X, y, random_state=42)
1-3. Min-Max 정규화
from sklearn.preprocessing import MinMaxScaler
scaler=MinMaxScaler()
scaler.fit(X_train)
X_scaled_train=scaler.transform(X_train)
X_scaled_test=scaler.transform(X_test)
2. 기본모델 적용
2-1. 훈련 데이터
from sklearn.neural_network import MLPRegressor
model=MLPRegressor()
model.fit(X_scaled_train, y_train)
pred_train=model.predict(X_scaled_train)
model.score(X_scaled_train, y_train) # -2.8006239432716575
정확도가 -280%로 나타난 것은 매우 잘못된 결과다.
2-2. 테스트 데이터
pred_test=model.predict(X_scaled_test)
model.score(X_scaled_test, y_test) # -2.758166270245026
테스트 데이터의 정확도 역시 -276%로 이상하다.
① RMSE (Root Mean Squared Error)
import numpy as np
from sklearn.metrics import mean_squared_error
MSE_train = mean_squared_error(y_train, pred_train)
MSE_test = mean_squared_error(y_test, pred_test)
print("훈련 데이터 RMSE:", np.sqrt(MSE_train))
print("테스트 데이터 RMSE:", np.sqrt(MSE_test))
오차는 훈련 데이터와 테스트 데이터 모두 다른 알고리즘에 비해 매우 크다.
3. 튜닝모델
이 모델은 하이퍼파라미터가 매우 다양하여 최적 조합을 찾는 것이 힘들다.
따라서 은닉층을 3개로 두어 각각 64개의 노드를 구성하는 조금 깊은 모델을 만든다.
3-1. 훈련 데이터
from sklearn.neural_network import MLPRegressor
model=MLPRegressor(hidden_layer_sizes=(64,64,64),activation="relu" ,random_state=1, max_iter=2000)
model.fit(X_scaled_train, y_train)
pred_train=model.predict(X_scaled_train)
model.score(X_scaled_train, y_train) # 0.5661979037463138
분석 결과 56.6%의 정확도로 이전보다 좋은 결과가 나온다.
3-2. 테스트 데이터
pred_test=model.predict(X_scaled_test)
model.score(X_scaled_test, y_test) # 0.5840866843135079
테스트 데이터의 정확도도 58.4%로 좋게 나타나고 있다.
① RMSE (Root Mean Squared Error)
import numpy as np
from sklearn.metrics import mean_squared_error
MSE_train = mean_squared_error(y_train, pred_train)
MSE_test = mean_squared_error(y_test, pred_test)
print("훈련 데이터 RMSE:", np.sqrt(MSE_train))
print("테스트 데이터 RMSE:", np.sqrt(MSE_test))
오차 역시 앞선 모델들보다 다소 작게 나타난다.
'데이터 분석 > 빅데이터 분석 기사' 카테고리의 다른 글
[빅분기 실기] 의사결정나무 (Decision Tree) (0) | 2022.06.18 |
---|---|
[빅분기 실기] 서포트 벡터머신 (SVM) (0) | 2022.06.18 |
[빅분기 실기] 나이브 베이즈 (Naive Bayes) (0) | 2022.06.16 |
[빅분기 실기] K-최근접 이웃법 (KNN) (0) | 2022.06.16 |
[빅분기 실기] 로지스틱 회귀 모델 (0) | 2022.06.16 |