나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2024-09-20 06:33:01

체비쇼프 부등식

절대부등식
Inequalities
{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px)"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin: -5px -1px -11px; word-break: keep-all"
코시-슈바르츠 부등식 산술·기하 평균 부등식
[math(\left({a_n})({b_n}\right)\ge\left({a_n}{b_n}\right))] [math(\frac{a_n+b_n}{n}\ge\sqrt[n]{{a_n}{b_n}})]
젠센 부등식 영 부등식
[math(\lambda_n f\left(x_n\right)\ge f\left({\lambda_n}{x_n}\right))] [math(ab \leq \frac{a^p}{p}+\frac{b^q}{q})]
횔더 부등식 민코프스키 부등식
[math(\|fg\|_1\le\|f\|_p\|g\|_q)] [math(\|f+g\|_p\le\|f\|_p+\|g\|_p)]
마르코프 부등식 체비쇼프 부등식
[math(\frac{E(X)}k\ge{\rm P}(X\ge k))] [math(P(|X-\mu|<k\sigma)\geq1-\frac1{k^2})]
슈르 부등식
[math(a\left(x-y\right)\left(x-z\right)+b\left(y-z\right)\left(y-x\right)+c\left(z-x\right)\left(z-y\right)\geq0)]
합 기호는 아인슈타인 합 규약을 일부 사용해 단축하였다. }}}}}}}}}

통계학
Statistics
{{{#!wiki style="margin:0 -10px -5px; min-height:calc(1.5em + 5px); word-break: keep-all"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px"
<colbgcolor=#4d4d4d><colcolor=#fff> 수리통계학 기반 실해석학 (측도론) · 선형대수학 · 이산수학
확률론 사건 · 가능성 · 확률 변수 · 확률 분포 (표본 분포 · 정규 분포 · 이항 분포 · 푸아송 분포 · 카이제곱분포 · t분포 · Z분포 · F-분포 · 결합확률분포) · 확률밀도함수 · 확률질량함수 · 조건부확률 · 조건부기댓값 · 조건부분산 · 전체 확률의 법칙 · 베이즈 정리 · 도박사의 오류 · 도박꾼의 파산 · 몬티 홀 문제 · 뷔퐁의 바늘 · 마르코프 부등식 · 체비쇼프 부등식 · 큰 수의 법칙 (무한 원숭이 정리) · 중심극한정리 · 벤포드의 법칙
통계량 평균 (산술 평균 · 기하 평균 · 조화 평균 · 멱평균 · 대수 평균) · 기댓값 · 편차 (절대 편차 · 표준 편차) · 분산 (공분산) · 결정계수 · 변동계수 · 상관계수 · 대푯값 · 자유도
추론통계학 가설 · 변인 · 추정량 · 점추정 · 신뢰 구간 · 상관관계와 인과관계 · 실험통계학 · p-해킹 · 통계의 함정 · 그레인저 인과관계 · 신뢰도와 타당도
통계적 방법 회귀 분석 · 최소제곱법 · 분산 분석 · 주성분 분석 (요인 분석) · 시계열 분석 · 패널 분석 · 2SLS · 생존 분석 · GARCH · 비모수통계학 · 준모수통계학 · 기계학습 (군집 분석 · 분류 분석) · 위상 데이터분석 · 외삽법 · 메타 분석 · 모델링 (구조방정식)
기술통계학 · 자료 시각화 도표 (그림그래프 · 막대그래프 · 선 그래프 · 원 그래프 · 상자 수염 그림 · 줄기와 잎 그림 · 산포도 · 산점도 · 히스토그램 · 도수분포표) · 그래프 왜곡 · 이상점 }}}}}}}}}

1. 개요2. 증명3. 기타

1. 개요

Chebyshev inequality

러시아의 수학자 파프누티 체비쇼프(Pafnuty Chebyshev[1])가 발견한 절대부등식으로, 그의 이름을 땄다. 확률 분포를 정확히 모를 때 해당 확률 분포의 평균표준 편차의 값만으로 특정한 확률의 최솟값만큼은 알아낼 수 있는 부등식이다.

확률 분포의 평균을 [math(\mu)], 표준편차를 [math(\sigma)]라 하면 다음이 성립한다. 이를 체비쇼프 부등식이라고 한다. 단, [math(k)]는 양의 상수이다.

[math(\begin{aligned}P[|X-\mu|<k\sigma]&=P[\mu-k\sigma<X<\mu+k\sigma]\\&\geq1-\dfrac1{k^2}\end{aligned})]

예를 들어 [math(k=2)]이면, 확률변수 [math(X)]가 [math(\mu\pm 2\sigma)] 내에 있을 확률은 확률 분포에 관계없이 [math(1-1/{2^2}=3/4)] 이상이다.

마르코프 부등식을 기본으로 한다고 할 수 있다.

2. 증명

지시함수의 활용으로 다음처럼 증명할 수 있다.

[math(\begin{aligned} P[|X-\mu|\ge k\sigma] &= \mathbb{E} [ 1_{|X-\mu|\ge k \sigma} ] \\&\le \mathbb{E} \left[ \mathbf{1}_{|X-\mu| \ge k \sigma} \cdot \frac{|X-\mu|^2}{k^2 \sigma^2} \right] \\ &\le \frac{1}{k^2 \sigma^2} \mathbb{E} [ |X-\mu|^2 ] \\&= \frac{1}{k^2} \end{aligned})]

연속확률변수에 대해서 비슷한 아이디어의 증명을 다음과 같이 풀어쓸 수 있다. 확률 분포의 평균을 [math(\mu)], 표준편차를 [math(\sigma)], 함수를 [math(f(x))]라 하면
[math(\begin{aligned}\sigma^2&=E[(X-\mu)^2]=\displaystyle\int_{-\infty}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&=\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&\geq\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x \quad \biggl(\because\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x\geq 0\biggr) \end{aligned})][2]
한편 [math((x-\mu)^2\geq k^2\sigma^2\,(\leftrightarrow\,x\leq\mu-k\sigma\,\textsf{or}\,x\geq\mu+k\sigma))]일 때는 다음이 성립한다.
[math(\begin{aligned}\sigma^2&\geq\displaystyle\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&\geq\int_{-\infty}^{\mu-k\sigma}k^2\sigma^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}k^2\sigma^2f(x)\,{\rm d}x\end{aligned})]
양 끝 식을 [math(k^2\sigma^2)]으로 나누면
[math(\begin{aligned}\dfrac1{k^2}\geq\displaystyle\int_{-\infty}^{\mu-k\sigma}f(x)\,{\rm d}x&+\int_{\mu+k\sigma}^{\infty}f(x)\,{\rm d}x \quad (\because k^2\sigma^2\geq 0)\end{aligned})]
[math(f(x))]는 확률 밀도 함수이기 때문에 [math(\int_{-\infty}^{\infty}f(x)\,{\rm d}x=1)]이므로
[math(\begin{aligned}1-\dfrac1{k^2}\leq\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}f(x)\,{\rm d}x&=P[\mu-k\sigma\leq X\leq\mu+k\sigma]\\&=P[|X-\mu|<k\sigma]\end{aligned})]

3. 기타


[math(\begin{aligned}P[|X-\mu| \ge z] \le \frac{\|X-\mu\|_p}{z^p} \end{aligned})]

[1] 영어권에서 표기법이 중구난방인 이름 중 하나로 꼽힌다. 과거 표기법 중에 Cheyshev, Tchebychef, Tschebyscheff 등등 다 있다. 한국어로 옮길 때 체비프, 체비프 등으로 잘못 전사되는 일도 많은 편.[2] [math(\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}f(x)\,{\rm d}x)]는 확률의 값이므로 0 이상이고 [math((x-\mu)^2\geq 0)]이므로 [math(\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x\geq 0)]이다.[3] 확률변수 [math(X)]에 대한 정보로 [math(f(X))]에 대한 부등식을 이끌어낸다고 생각할 때, 체비쇼프 부등식은 [math(f(x) = \mathbf{1}_{|x-\mu|>k \sigma})]의 경우로 간주할 수 있지만, 저 계단 함수는 볼록이 아니다. 즉, 체비쇼프 부등식은 이런 유형의 문제에서 젠센 부등식과는 본질적으로 다른 접근을 취한다고 볼 수도 있다.