확률과 통계 공식은 크게 두 묶음입니다. 확률 공식은 사건이 일어날 가능성을 계산할 때 쓰고, 통계 공식은 이미 모인 데이터를 평균과 분산처럼 요약할 때 씁니다. 이 페이지에서는 자주 쓰는 식을 빠르게 정리하고, 언제 써야 하는지까지 같이 설명합니다.

핵심만 먼저 말하면, 확률에서는 여사건, 합사건, 조건부확률, 독립을 구분해야 하고, 통계에서는 평균, 분산, 표준편차와 함께 모집단인지 표본인지 먼저 확인해야 합니다. 공식을 틀리는 이유 대부분은 계산 실수보다 조건을 놓치는 데서 나옵니다.

확률과 통계 공식을 보기 전에 먼저 구분할 것

"앞으로 어떤 일이 일어날 가능성은 얼마인가?"를 묻는다면 확률입니다. "이미 얻은 데이터가 얼마나 크고 얼마나 퍼져 있는가?"를 묻는다면 통계입니다.

확률에서는 사건 사이의 관계가 먼저입니다. 서로 겹치는지, 독립인지, 이미 어떤 조건을 알고 있는지에 따라 식이 달라집니다. 통계에서는 데이터의 종류가 먼저입니다. 모집단 전체를 다 아는지, 일부 표본만 있는지에 따라 분산 공식이 달라집니다.

자주 쓰는 확률 공식 정리

모든 경우가 서로 같은 가능성을 가질 때만, 고전적 확률을 다음처럼 쓸 수 있습니다.

P(A)=A가 일어나는 경우의 수전체 경우의 수P(A) = \frac{\text{A가 일어나는 경우의 수}}{\text{전체 경우의 수}}

공정한 주사위처럼 각 결과가 동등하게 가능한 경우에는 바로 적용할 수 있습니다. 결과마다 가능성이 다르면 이 식만으로는 충분하지 않습니다.

여사건 공식은 "적어도 하나"나 "하나도 일어나지 않음"을 계산할 때 특히 자주 씁니다.

P(Ac)=1P(A)P(A^c) = 1 - P(A)

두 사건의 합사건은 겹치는 부분을 한 번 빼 주어야 합니다.

P(AB)=P(A)+P(B)P(AB)P(A \cup B) = P(A) + P(B) - P(A \cap B)

만약 AABB가 서로 배반이라서 동시에 일어날 수 없다면 P(AB)=0P(A \cap B) = 0이므로 그냥 더하면 됩니다.

조건부확률은 "이미 BB가 일어났다고 알고 있을 때"의 확률입니다.

P(AB)=P(AB)P(B)for P(B)>0P(A \mid B) = \frac{P(A \cap B)}{P(B)} \quad \text{for } P(B) > 0

독립인 경우에는 교집합 확률이 곱으로 단순해집니다.

P(AB)=P(A)P(B)P(A \cap B) = P(A)P(B)

이 식은 독립일 때만 맞습니다. 서로 영향을 주는 사건인데도 무조건 곱하면 틀립니다.

자주 쓰는 통계 공식 정리

평균은 데이터의 중심을 가장 기본적으로 보여 줍니다. 표본 평균은

xˉ=x1+x2++xnn\bar{x} = \frac{x_1 + x_2 + \cdots + x_n}{n}

입니다.

분산은 데이터가 평균에서 얼마나 퍼져 있는지 나타냅니다. 모집단 전체를 다 알고 있다면

σ2=1Ni=1N(xiμ)2\sigma^2 = \frac{1}{N}\sum_{i=1}^{N}(x_i-\mu)^2

를 쓰고, 모집단의 일부만 뽑은 표본이라면 보통

s2=1n1i=1n(xixˉ)2s^2 = \frac{1}{n-1}\sum_{i=1}^{n}(x_i-\bar{x})^2

를 씁니다.

표준편차는 분산의 제곱근입니다.

σ=σ2,s=s2\sigma = \sqrt{\sigma^2}, \qquad s = \sqrt{s^2}

표준편차는 원래 데이터와 단위가 같아서 해석이 더 직관적입니다. 반면 분산은 계산에는 편리하지만 단위가 제곱되어 있어 읽을 때는 조금 덜 직관적입니다.

한 번에 이해되는 worked example

동전을 두 번 던져 앞면의 개수를 XX라고 하겠습니다. 가능한 결과는 HHHH, HTHT, THTH, TTTT 네 가지이고, 공정한 동전이라면 각 경우의 확률은 같습니다.

따라서

P(X=0)=14,P(X=1)=24=12,P(X=2)=14P(X = 0) = \frac{1}{4}, \qquad P(X = 1) = \frac{2}{4} = \frac{1}{2}, \qquad P(X = 2) = \frac{1}{4}

입니다.

여기까지는 확률 공식의 역할입니다. 이제 이 분포를 통계적으로 요약해 보면, 평균값인 기댓값은

E[X]=014+112+214=1E[X] = 0 \cdot \frac{1}{4} + 1 \cdot \frac{1}{2} + 2 \cdot \frac{1}{4} = 1

이 됩니다. 두 번 던질 때 앞면 수의 평균적인 크기가 11이라는 뜻입니다.

분산은 평균에서 얼마나 흔들리는지를 봅니다.

Var(X)=(01)214+(11)212+(21)214=12\mathrm{Var}(X) = (0-1)^2 \cdot \frac{1}{4} + (1-1)^2 \cdot \frac{1}{2} + (2-1)^2 \cdot \frac{1}{4} = \frac{1}{2}

이 예제 하나만으로도 흐름이 보입니다. 먼저 확률로 결과의 분포를 만들고, 그다음 평균과 분산으로 그 분포의 중심과 퍼짐을 요약합니다.

확률과 통계 공식을 틀리게 쓰는 대표 실수

  1. 서로 배반인 사건과 독립인 사건을 같은 뜻으로 생각하는 실수. 둘은 전혀 다른 개념입니다.
  2. 조건부확률인데도 그냥 P(AB)=P(A)P(B)P(A \cap B) = P(A)P(B)를 쓰는 실수. 독립 조건이 없으면 성립하지 않습니다.
  3. 모집단 분산과 표본분산을 섞는 실수. 전체 데이터인지 일부 표본인지 먼저 정해야 합니다.
  4. 분산과 표준편차를 같은 값처럼 읽는 실수. 표준편차는 분산에 제곱근을 취한 값입니다.
  5. 모든 경우의 수를 셀 때 각 경우가 정말 같은 가능성인지 확인하지 않는 실수.

확률 공식과 통계 공식을 언제 쓰나

확률 공식은 미래의 불확실한 결과를 다룰 때 씁니다. 카드 뽑기, 주사위, 검사 정확도, 조건이 붙은 사건처럼 "가능성"을 묻는 문제라면 사건 관계를 먼저 정리한 뒤 확률 공식을 적용합니다.

통계 공식은 이미 모인 데이터를 요약할 때 씁니다. 시험 점수, 실험 기록, 방문자 수처럼 관측값이 있을 때는 평균으로 중심을 보고, 분산이나 표준편차로 퍼짐을 봅니다.

둘이 함께 쓰이는 경우도 많습니다. 예측 모델이나 실험 설계에서는 확률로 가능한 결과를 세우고, 통계로 실제 데이터를 요약하고 비교합니다.

공식은 식만 말고 조건까지 같이 외우기

확률과 통계 공식을 외울 때는 식만 따로 외우기보다 "언제 가능한가"를 같이 붙여 두는 편이 훨씬 안전합니다. 예를 들어 P(A)=유리한 경우전체 경우P(A) = \frac{\text{유리한 경우}}{\text{전체 경우}}는 모든 경우가 동등하게 가능할 때만 바로 쓸 수 있고, P(AB)=P(A)P(B)P(A \cap B) = P(A)P(B)는 독립일 때만 쓸 수 있습니다.

비슷한 문제를 직접 바꿔 풀어 보는 것이 가장 빠릅니다. 동전 대신 주사위나 카드로 조건을 바꿔 보고, 평균만 묻는지 분산까지 묻는지 스스로 구분해 보세요. 비슷한 문제를 한 번 더 풀어 보고 싶다면, 이번에는 조건부확률이 들어간 사례나 작은 데이터 표본에서 분산을 계산하는 문제로 자기 버전을 시험해 보는 것이 자연스러운 다음 단계입니다.

문제 풀이가 필요하신가요?

문제를 올리면 검증된 단계별 풀이를 몇 초 만에 받을 수 있습니다.

GPAI Solver 열기 →