토론:나이브 베이즈 분류

문서 내용이 다른 언어로는 지원되지 않습니다.
위키백과, 우리 모두의 백과사전.
 이 문서는 다음 위키프로젝트의 범위 안에 있습니다.

2015년 4월 9일의 삭제 신청 이의[편집]

(문서가 삭제되면 안 되는 이유를 적어 주세요) --143.248.55.218 (토론) 2015년 4월 10일 (금) 00:54 (KST)[답변]

현재 학교에서 Term_Project로 팀별로 머신러닝에서 하나의 토픽을 선정하여 위키페이지를 만들고 있습니다.

여러명의 학생이 팀으로 진행하고, 위키에 남아있는 히스토리를 바탕으로 평가를 받게 됩니다..

다른 문서에서 작업을 할 경우에 이러한 히스토리의 파악이 어려울 수 있을 것 같습니다.

5월 1일까지 작업을 완료할 계획인데, 필요하시다면, 일단 페이지가 존재할 수 있을 정도로 정의를 적도록 하겠습니다.


작성 계획은, 일단 빠른 시일내로 영어 wiki의 내용을 번역해 가면서 옮겨서 정리할 예정이고, 그 후에 추가적인 내용을 첨부하여

기여할 계획에 있습니다.


감사합니다.

외부 링크 수정됨 (2022년 1월)[편집]

안녕하세요 편집자 여러분,

나이브 베이즈 분류에서 1개의 링크를 수정했습니다. 제 편집을 검토해 주세요. 질문이 있거나, 봇이 이 문서나 링크를 무시하기를 바라신다면 간단한 자주 묻는 질문에서 더 많은 정보를 찾아보세요. 다음 변경사항을 적용했습니다:

봇의 문제를 수정하는 것에 관해서는 자주 묻는 질문을 참조해 주세요.

감사합니다.—InternetArchiveBot (버그를 제보하기) 2022년 1월 17일 (월) 01:42 (KST)[답변]

외부 링크 수정됨 (2022년 3월)[편집]

안녕하세요 편집자 여러분,

나이브 베이즈 분류에서 1개의 링크를 수정했습니다. 제 편집을 검토해 주세요. 질문이 있거나, 봇이 이 문서나 링크를 무시하기를 바라신다면 간단한 자주 묻는 질문에서 더 많은 정보를 찾아보세요. 다음 변경사항을 적용했습니다:

봇의 문제를 수정하는 것에 관해서는 자주 묻는 질문을 참조해 주세요.

감사합니다.—InternetArchiveBot (버그를 제보하기) 2022년 3월 14일 (월) 22:20 (KST)[답변]

[4]번 참조에 대한 오류가 있습니다.[편집]

해당 논문(An Empirical Comparison of Supervised Learning Algorithms)의 7번 결론에서 나이브 베이즈 알고리즘은 나쁜(poorest)의 성능을 보인다고 합니다. 원문 첨부합니다.


With excellent performance on all eight metrics, calibrated boosted trees were the best learning algorithm overall. Random forests are close second, followed by uncalibrated bagged trees, calibrated SVMs, and uncalibrated neural nets. The models that performed poorest were naive bayes, logistic regression, decision trees, and boosted stumps. Mlbot1000j (토론) 2024년 2월 19일 (월) 14:32 (KST)[답변]