Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 결정계수
- Python
- DataFrame
- SQL on 하둡
- 병렬 쿼리 시스템
- 분포
- Sawzall
- 다중공선성
- k-means
- 유사도
- list
- 교차검증
- DBSCAN
- 데이터프레임
- join
- pca
- merge
- SPLIT
- 분산분석
- 밀도기반
- T-검정
- hive
- 하둡
- p-value
- dict
- cross validation
- 딕셔너리
- 가설검정
- pig
- distribution
Archives
- Today
- Total
목록성능향상 (1)
one of a kind scene

K-fold cross validation 언제사용? - 모델이 잘 적합(fitting) 됐는지 확인할 때 1) 주로 over-fitting 여부를 확인할 때 사용 2) 데이터의 양이 충분하지 않을 때(=적을 때) 모델의 성능에 대한 신뢰도를 확보하기 위해 사용 k번 모두 모델의 성능이 일정하면 → 모델의 성능에 대한 신뢰도가 확보됨 - 모델의 성능 향상 1) k번 학습을 통해 만들어진 k개의 모델을 활용하여 앙상블(Ensemble)모델을 만든다면, 모델의 성능향상을 기대할 수 있음(예 : Bagging, Boosting) 2) k번 학습을 통해 만들어진 k개의 모델에서 나온 parameter들의 평균값으로 완벽하진 않지만 납득할 수 있는 parameter값을 찾을 수 있음 장점? - data set을 ..
데이터 분석 이론/데이터 사이언스
2020. 2. 2. 23:57