독립 (확률론)

위키백과, 우리 모두의 백과사전.
이동: 둘러보기, 검색

사건독립이라는 것은, 둘 중 하나의 사건이 일어날 확률이 다른 사건이 일어날 확률에 영향을 미치지 않는다는 것을 의미한다. 예를 들어서, 주사위를 두 번 던지는 경우 첫 번째에 1이 나오는 사건은 두 번째에 1이 나올 확률에 독립적이다.

정의[편집]

두 사건 A, B에 대해, 만약 P(A)P(B) = P(A \cap B)인 경우 독립이라고 정의한다.

사건들의 집합 \mathcal{C}에 대해, 임의의 유한개의 사건 A_1, \cdots, A_n \in \mathcal{C}P(A_1)P(A_2)\cdots P(A_n) = P(A_1 \cap A_2 \cap \cdots A_n)인 경우는 사건들이 상호 독립이라고 정의한다. 이 정의는 사건들의 수가 무한한 경우에도 마찬가지로 정의한다.

확률변수에 대해서는 다음과 같이 정의한다. 두 확률변수 X, Y에 대해, 모든 a, b \in \mathbb{R}에 대해 두 사건 [X \le a], [Y \le b]가 독립인 경우 두 확률변수는 독립이라고 정의한다.

상호 독립에 대해서도 마찬가지로 정의한다. 확률변수들의 집합 \mathcal{X}이 있을 때, 임의의 유한개의 확률변수 X_1, \cdots, X_n \in \mathcal{X}에 대해서 [X_i \le a_i]가 독립인 경우 전체 확률변수들이 상호 독립이다.

σ-대수에 대해서도 비슷한 방식으로 정의한다. 두 σ-대수 \mathcal{B}_1, \mathcal{B}_2에 대해, 모든 A_1 \in \mathcal{B}_1, A_2 \in \mathcal{B}_2가 독립이면 두 σ-대수는 독립이다. 상호 독립도 마찬가지로 정의한다.