통계를 처음 배울 때 정규분포 그래프를 보고 이런 생각을 했습니다. 왜 하필 이 종 모양인지, 그리고 왜 이게 그렇게 중요한지 이해가 안 됐습니다. 교수님은 "자연에서 많이 나타난다"라고 하셨는데 그게 왜인지는 설명이 없었어요. 중심극한정리를 공부하면서 그 이유를 알게 됐습니다. 정규분포는 그냥 자주 나타나는 게 아니라 수학적으로 반드시 나타날 수밖에 없는 구조였습니다.
정규분포와 중심극한정리는 통계학의 핵심입니다. 이 두 개념을 이해하면 왜 표본으로 전체를 추정할 수 있는지, AI 모델에서 왜 정규분포 가정이 자주 등장하는지가 자연스럽게 연결됩니다. 실제 숫자로 따라가 보겠습니다.

정규분포란 무엇인가
정규분포는 평균을 중심으로 좌우 대칭인 종 모양 분포입니다. 사람 키, 시험 점수, 측정 오차처럼 현실에서 자주 나타납니다. 평균에서 멀어질수록 데이터가 드물고, 평균 근처에 데이터가 몰려있습니다.
정규분포를 결정하는 변수는 두 가지입니다. 평균(μ)과 표준편차(σ)입니다. 평균은 분포의 중심 위치를 결정하고 표준편차는 분포의 너비를 결정합니다. 표준편차가 크면 데이터가 넓게 퍼지고, 작으면 평균 근처에 몰립니다.
평균 ± 1σ 구간: 전체 데이터의 약 68%
평균 ± 2σ 구간: 전체 데이터의 약 95%
평균 ± 3σ 구간: 전체 데이터의 약 99.7%
예시 - 성인 남성 키 N(175, 6²):
169~181cm 구간에 약 68% 존재
163~187cm 구간에 약 95% 존재
157~193cm 구간에 약 99.7% 존재
이 68-95-99.7 규칙은 실무에서 자주 씁니다. 어떤 값이 평균에서 표준편차 2배 이상 벗어났다면 전체의 5% 미만에 해당하는 이상치일 가능성이 높다는 식으로 판단할 수 있습니다.
정규분포의 수식과 핵심 성질
정규분포의 확률밀도함수는 이렇습니다.
복잡해 보이지만 핵심은 지수 부분입니다. -(x-μ)²/2σ²는 x가 평균 μ에서 멀어질수록 지수값이 커지면서 확률이 빠르게 줄어드는 구조입니다. 평균에서 멀어질수록 데이터가 드물어지는 종 모양이 이 수식에서 나옵니다.
앞의 1/σ√2π는 전체 면적이 1이 되도록 하는 정규화 상수입니다. 확률의 총합이 1이어야 하니까요. 이 공식에서 μ와 σ² 두 개의 숫자만 알면 분포 전체가 결정됩니다.
표준 정규분포와 Z 점수
정규분포마다 평균과 표준편차가 달라서 직접 비교하기 어렵습니다. 이걸 해결하는 게 표준화입니다. 어떤 정규분포든 평균 0, 표준편차 1인 표준 정규분포 N(0,1)로 변환할 수 있습니다.
Z 점수는 원래 값이 평균에서 표준편차 몇 배 떨어져 있는지를 나타냅니다. 예를 들어 평균이 70점, 표준편차가 10점인 시험에서 85점을 받았다면 Z = (85-70)/10 = 1.5입니다. 평균보다 표준편차 1.5배 위에 있다는 뜻입니다.
시험 A: 평균 70점, 표준편차 10점 → 85점 획득
Z = (85-70)/10 = 1.5
시험 B: 평균 500점, 표준편차 100점 → 650점 획득
Z = (650-500)/100 = 1.5
두 시험 모두 Z=1.5 → 상위 약 6.7%로 동등한 성적
표준 정규분포 Z값별 백분위:
Z=0.0 → 상위 50%
Z=1.0 → 상위 15.9%
Z=1.5 → 상위 6.7%
Z=2.0 → 상위 2.3%
Z=3.0 → 상위 0.13%
중심극한정리란 무엇인가
중심극한정리(Central Limit Theorem, CLT)는 통계학에서 가장 강력한 정리 중 하나입니다. 한 문장으로 요약하면 이렇습니다.
이게 왜 놀라운 걸까요. 원래 데이터가 균등분포든, 지수분포든, 이상한 형태든 상관없습니다. 표본을 여러 번 뽑아서 각 표본의 평균을 구하면, 그 평균들이 정규분포를 따릅니다. 모집단의 형태에 관계없이 보편적으로 성립합니다.
표본 크기가 클수록 정규분포에 더 빠르게 수렴합니다. 일반적으로 n=30 이상이면 충분하다고 봅니다. 모집단이 이미 정규분포에 가깝다면 더 작은 표본으로도 성립합니다.
중심극한정리 직접 확인해보기
주사위 굴리기로 직접 확인해 보겠습니다. 주사위 한 개의 눈은 1~6으로 균등분포입니다. 종 모양과 전혀 다릅니다.
각 눈이 나올 확률 = 1/6 ≈ 16.7%
평균 = 3.5, 분산 = 2.917
→ 전혀 정규분포 아님
주사위 2개 평균 - 삼각형 분포:
평균 1.0이 나올 확률: 1/36 = 2.8%
평균 3.5가 나올 확률: 6/36 = 16.7%
→ 가운데가 높아지기 시작
주사위 10개 평균 - 거의 정규분포:
평균 ≈ 3.5, 표준편차 ≈ 0.54
→ 3.5 근처에 집중, 종 모양 뚜렷
주사위 30개 평균 - 정규분포에 수렴:
평균 ≈ 3.5, 표준편차 ≈ 0.31
N(3.5, 0.31²)에 매우 가까움
표본 평균의 표준편차 공식:
σ_표본평균 = σ_모집단 / √n
= √2.917 / √30 ≈ 0.31 ✅
주사위 30개를 동시에 굴려서 평균을 구하는 실험을 10000번 반복하면 그 결과가 N(3.5, 0.31²)에 거의 정확히 들어맞습니다. 원래 분포가 균등분포였는데도요. 이게 중심극한정리의 핵심입니다.
왜 표본으로 전체를 추정할 수 있는가
중심극한정리가 중요한 이유는 여기에 있습니다. 전체 모집단을 다 조사하는 건 현실적으로 불가능한 경우가 많습니다. 전 국민의 평균 소득을 알고 싶다면 5000만 명을 다 조사해야 할까요.
중심극한정리 덕분에 표본 1000명만 조사해도 됩니다. 표본 평균이 정규분포를 따른다는 걸 알기 때문에 신뢰구간을 계산할 수 있습니다.
표본 크기 n = 1000명
표본 평균 x̄ = 350만원
표본 표준편차 s = 100만원
표본 평균의 표준오차 = s/√n = 100/√1000 ≈ 3.16만원
95% 신뢰구간 = x̄ ± 1.96 × 표준오차
= 350 ± 1.96 × 3.16
= 350 ± 6.19
= [343.81만원, 356.19만원]
해석: 1000명을 표본으로 뽑았을 때
전체 모집단 평균이 343.81~356.19만원에
있을 확률이 95%
1000명으로 5000만 명의 평균을 6만 원 오차 범위 안에서 추정할 수 있습니다. 이게 가능한 이유가 중심극한정리입니다. 표본 평균이 정규분포를 따른다는 보장이 있어서 1.96이라는 Z값을 쓸 수 있는 겁니다.
AI와 머신러닝에서 정규분포가 등장하는 이유
머신러닝에서 정규분포 가정이 자주 나오는 이유가 중심극한정리와 연결됩니다. 현실의 복잡한 현상들이 수많은 작은 독립적 요인들의 합으로 이루어지는 경우가 많고, 이런 합은 중심극한정리에 의해 정규분포에 수렴하기 때문입니다.
| 머신러닝 상황 | 정규분포 등장 이유 | 실제 적용 |
|---|---|---|
| 가중치 초기화 | 극단값 없이 고른 시작점 필요 | N(0, 0.01²)으로 초기화 |
| 오차 분포 가정 | 측정 오차가 정규분포 따름 | 선형회귀 MSE 손실 함수 유도 |
| 데이터 증강 | 자연스러운 노이즈 추가 | 정규 분포 노이즈로 과적합 방지 |
| 배치 정규화 | 활성화 값을 정규분포로 조정 | 학습 안정화, 기울기 소실 방지 |
| 이상치 탐지 | 정규분포 벗어난 값 = 이상치 | Z점수 3 이상인 데이터 제거 |
선형회귀에서 MSE 손실 함수를 쓰는 이유도 정규분포 가정과 연결됩니다. 오차가 정규분포를 따른다고 가정하면 최대우도추정(MLE)으로 파라미터를 추정할 때 MSE 최소화와 수학적으로 동일해집니다. 이전 글에서 다룬 엔트로피, 경사하강법, MLE가 모두 정규분포 가정 위에서 연결됩니다.
통계를 처음 배울 때 정규분포가 왜 중요한지 몰랐는데, 결국 중심극한정리가 그 답이었습니다. 모집단이 어떤 형태든 표본 평균은 정규분포로 수렴한다는 수학적 보장이 있기 때문에, 우리는 표본으로 전체를 추정하고, 모델의 오차를 분석하고, 이상치를 판단할 수 있습니다.
'데이터 과학 수학' 카테고리의 다른 글
| 주성분 분석(PCA): 복잡한 데이터에서 핵심만 남기는 기술 (0) | 2026.04.24 |
|---|---|
| 넷플릭스는 어떻게 내 취향을 아는가, 특이값 분해(SVD)의 원리 (0) | 2026.04.22 |
| 마음을 읽는 행렬, 협업 필터링(Collaborative Filtering)과 유사도의 수학 (0) | 2026.04.21 |
| 혼돈 속의 이정표, 블랙-숄즈 모델(Black-Scholes)과 금융 수학의 본질 (0) | 2026.04.20 |
| 파동 속의 재료를 찾아라, 푸리에 변환(Fourier Transform)과 신호 처리의 수학 (0) | 2026.04.19 |