본문 바로가기

데이터 다루기/머신러닝 이론

[머신러닝] Bayesian Learning 기초

728x90
반응형

안녕하세요. 이번 포스팅에서는 베이지안 학습의 기초에 대해서 배워보도록 하겠습니다.

머신러닝을 깊숙히 이해하기 위해서는 베이즈 확률론이 필수라고 할 수 있습니다.

기초적인 확률론을 배워보자면 P(A)는 이벤트 A가 일어날 확률을 의미합니다.

그리고 P(A|B)는 이벤트 B가 일어났을 때, 이벤트 A가 일어날 확률을 의미합니다.

다음으로, 알아야 할 개념은 사전확률과 사후확률입니다.

사전확률이란 아무런 정보도 없을 때의 가설에 대한 확률입니다.

예를들어서, A라는 사람이 있는데, 친구 B가 "A가 감기에 걸렸을 확률은 50%일 것이야."라는 가설을 세울 수 있습니다.

이 때, 사전확률은 A가 감기에 걸렸을 확률은 = 1/2로 정의됩니다.

그런데 이 후, 새로운 정보가 들어왔습니다.

B가 오늘 아침에, A가 콧물이 계속 나고, 기침을 하고 약을 먹고 있는 것을 관측하게 되었습니다.

그러면 B는 처음 세웠던 가설에서 더 확신을 할 수 있게됩니다.

B는 이제 "A가 감기에 걸렸을 확률은 80%일 것이야."라는 가설로 다시 세울 수 있습니다.

이 때, 정의되는 것이 사후확률로 A가 감기에 걸렸을 확률은 = 4/5가 됩니다.

이를 수학적으로 표기해보겠습니다.

반응형