본문으로 이동

배깅: 두 판 사이의 차이

위키백과, 우리 모두의 백과사전.
내용 삭제됨 내용 추가됨
TedBot (토론 | 기여)
잔글 봇: 그림 추가
6번째 줄: 6번째 줄:
== 설명 ==
== 설명 ==
크기 n인 훈련 집합({{lang|en|training set}}) <math>D</math>가 주어졌을 때, 배깅은 [[단순 무작위 추출법|복원 표본추출]]({{lang|en|sampling with replacement}}) 방법과 균등 확률분포를 이용해 각각의 크기가 ''n′ 인 m개의'' 새로운 훈련 집합 <math>D_i(i = 1,2,\cdots,m)</math>을 생성한다. 복원 표본추출 이기 때문에 일부 관측 데이터는 각 <math>D_i</math>에 반복해서 나타날 수 있다. 이러한 샘플을 부트스트랩({{lang|en|bootstrap}}) 샘플이라 한다. ''m''개의 모델은 ''m''개의 부트스트랩 샘플들을 이용해 만들어지고 결과를 평균([[회귀분석]]의 경우) 또는 투표([[분류]]의 경우)를 통해 결합한다.
크기 n인 훈련 집합({{lang|en|training set}}) <math>D</math>가 주어졌을 때, 배깅은 [[단순 무작위 추출법|복원 표본추출]]({{lang|en|sampling with replacement}}) 방법과 균등 확률분포를 이용해 각각의 크기가 ''n′ 인 m개의'' 새로운 훈련 집합 <math>D_i(i = 1,2,\cdots,m)</math>을 생성한다. 복원 표본추출 이기 때문에 일부 관측 데이터는 각 <math>D_i</math>에 반복해서 나타날 수 있다. 이러한 샘플을 부트스트랩({{lang|en|bootstrap}}) 샘플이라 한다. ''m''개의 모델은 ''m''개의 부트스트랩 샘플들을 이용해 만들어지고 결과를 평균([[회귀분석]]의 경우) 또는 투표([[분류]]의 경우)를 통해 결합한다.

== 같이 보기 ==
* [[부스팅]]
* [[부트스트랩 (통계학)]]
* [[교차타당도]]
* [[랜덤 포레스트]]
* [[예측 분석]]


== 각주 및 참고자료 ==
== 각주 및 참고자료 ==
{{참고 자료 시작}}
{{각주}}
* {{cite journal
| last = Breiman
| first = Leo
| author-link = Leo Breiman
| title = Bagging predictors
| journal = [[Machine Learning (journal)|Machine Learning]]
| volume = 24
| issue = 2
| pages = 123–140
| year = 1996
| citeseerx = 10.1.1.32.9399
| doi = 10.1007/BF00058655
| s2cid = 47328136
}}
* {{cite journal
| last = Alfaro
| first = E., Gámez, M. and García, N.
| title = adabag: An R package for classification with AdaBoost.M1, AdaBoost-SAMME and Bagging
| year = 2012
| url = https://cran.r-project.org/package=adabag
}}
* {{cite journal
| last = Kotsiantis
| first = Sotiris
| title = Bagging and boosting variants for handling classifications problems: a survey
| journal = Knowledge Eng. Review
| volume = 29
| issue = 1
| year = 2014
| pages = 78–100
| doi = 10.1017/S0269888913000313
| s2cid = 27301684
}}
* {{cite book |first1=Bradley |last1=Boehmke |first2=Brandon |last2=Greenwell |chapter=Bagging |pages=191–202 |title=Hands-On Machine Learning with R |publisher=Chapman & Hall |year=2019 |isbn=978-1-138-49568-5 }}
{{참고 자료 끝}}


{{전거 통제}}
{{전거 통제}}

2024년 3월 24일 (일) 09:03 판

배깅(영어: bagging)은 bootstrap aggregating의 줄임말로 통계적 분류회귀 분석에서 사용되는 기계 학습 알고리즘의 안정성과 정확도를 향상시키기 위해 고안된 일종의 앙상블 학습법메타 알고리즘이다. 또한 배깅은 분산을 줄이고 과적합(overfitting)을 피하도록 해준다. 결정 트리 학습법이나 랜덤 포레스트에만 적용되는 것이 일반적이기는 하나, 그 외의 다른 방법들과 함께 사용할 수 있다.

설명

크기 n인 훈련 집합(training set) 가 주어졌을 때, 배깅은 복원 표본추출(sampling with replacement) 방법과 균등 확률분포를 이용해 각각의 크기가 n′ 인 m개의 새로운 훈련 집합 을 생성한다. 복원 표본추출 이기 때문에 일부 관측 데이터는 각 에 반복해서 나타날 수 있다. 이러한 샘플을 부트스트랩(bootstrap) 샘플이라 한다. m개의 모델은 m개의 부트스트랩 샘플들을 이용해 만들어지고 결과를 평균(회귀분석의 경우) 또는 투표(분류의 경우)를 통해 결합한다.

같이 보기

각주 및 참고자료