절대부등식 Inequalities | ||
{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px)" {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin: -5px -1px -11px; word-break: keep-all" | 코시-슈바르츠 부등식 | 산술·기하 평균 부등식 |
[math(\left({a_n})({b_n}\right)\ge\left({a_n}{b_n}\right))] | [math(\frac{a_n+b_n}{n}\ge\sqrt[n]{{a_n}{b_n}})] | |
젠센 부등식 | 영 부등식 | |
[math(\lambda_n f\left(x_n\right)\ge f\left({\lambda_n}{x_n}\right))] | [math(ab \leq \frac{a^p}{p}+\frac{b^q}{q})] | |
횔더 부등식 | 민코프스키 부등식 | |
[math(\|fg\|_1\le\|f\|_p\|g\|_q)] | [math(\|f+g\|_p\le\|f\|_p+\|g\|_p)] | |
마르코프 부등식 | 체비쇼프 부등식 | |
[math(\frac{E(X)}k\ge{\rm P}(X\ge k))] | [math(P(|X-\mu|<k\sigma)\geq1-\frac1{k^2})] | |
슈르 부등식 | ||
[math(a\left(x-y\right)\left(x-z\right)+b\left(y-z\right)\left(y-x\right)+c\left(z-x\right)\left(z-y\right)\geq0)] | ||
합 기호는 아인슈타인 합 규약을 일부 사용해 단축하였다. | }}}}}}}}} |
통계학 Statistics | |||
{{{#!wiki style="margin:0 -10px -5px; min-height:calc(1.5em + 5px); word-break: keep-all" {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin:-5px -1px -11px" | <colbgcolor=#4d4d4d><colcolor=#fff> 수리통계학 | 기반 | 실해석학 (측도론) · 선형대수학 · 이산수학 |
확률론 | 사건 · 가능성 · 확률 변수 · 확률 분포 (표본 분포 · 정규 분포 · 이항 분포 · 푸아송 분포 · 카이제곱분포 · t분포 · Z분포 · F-분포 · 결합확률분포) · 확률밀도함수 · 확률질량함수 · 조건부확률 · 조건부기댓값 · 조건부분산 · 전체 확률의 법칙 · 베이즈 정리 · 도박사의 오류 · 도박꾼의 파산 · 몬티 홀 문제 · 뷔퐁의 바늘 · 마르코프 부등식 · 체비쇼프 부등식 · 큰 수의 법칙 (무한 원숭이 정리) · 중심극한정리 · 벤포드의 법칙 | ||
통계량 | 평균 (산술 평균 · 기하 평균 · 조화 평균 · 멱평균 · 대수 평균) · 기댓값 · 편차 (절대 편차 · 표준 편차) · 분산 (공분산) · 결정계수 · 변동계수 · 상관계수 · 대푯값 · 자유도 | ||
추론통계학 | 가설 · 변인 · 추정량 · 점추정 · 신뢰 구간 · 상관관계와 인과관계 · 실험통계학 · p-해킹 · 통계의 함정 · 그레인저 인과관계 · 신뢰도와 타당도 | ||
통계적 방법 | 회귀 분석 · 최소제곱법 · 분산 분석 · 주성분 분석 (요인 분석) · 시계열 분석 · 패널 분석 · 2SLS · 생존 분석 · GARCH · 비모수통계학 · 준모수통계학 · 기계학습 (군집 분석 · 분류 분석) · 위상 데이터분석 · 외삽법 · 메타 분석 · 모델링 (구조방정식) | ||
기술통계학 · 자료 시각화 | 도표 (그림그래프 · 막대그래프 · 선 그래프 · 원 그래프 · 상자 수염 그림 · 줄기와 잎 그림 · 산포도 · 산점도 · 히스토그램 · 도수분포표) · 그래프 왜곡 · 이상점 | }}}}}}}}} |
1. 개요
Chebyshev inequality러시아의 수학자 파프누티 체비쇼프(Pafnuty Chebyshev[1])가 발견한 절대부등식으로, 그의 이름을 땄다. 확률 분포를 정확히 모를 때 해당 확률 분포의 평균과 표준 편차의 값만으로 특정한 확률의 최솟값만큼은 알아낼 수 있는 부등식이다.
확률 분포의 평균을 [math(\mu)], 표준편차를 [math(\sigma)]라 하면 다음이 성립한다. 이를 체비쇼프 부등식이라고 한다. 단, [math(k)]는 양의 상수이다.
[math(\begin{aligned}P[|X-\mu|<k\sigma]&=P[\mu-k\sigma<X<\mu+k\sigma]\\&\geq1-\dfrac1{k^2}\end{aligned})]
예를 들어 [math(k=2)]이면, 확률변수 [math(X)]가 [math(\mu\pm 2\sigma)] 내에 있을 확률은 확률 분포에 관계없이 [math(1-1/{2^2}=3/4)] 이상이다.
마르코프 부등식을 기본으로 한다고 할 수 있다.
2. 증명
지시함수의 활용으로 다음처럼 증명할 수 있다.[math(\begin{aligned} P[|X-\mu|\ge k\sigma] &= \mathbb{E} [ 1_{|X-\mu|\ge k \sigma} ] \\&\le \mathbb{E} \left[ \mathbf{1}_{|X-\mu| \ge k \sigma} \cdot \frac{|X-\mu|^2}{k^2 \sigma^2} \right] \\ &\le \frac{1}{k^2 \sigma^2} \mathbb{E} [ |X-\mu|^2 ] \\&= \frac{1}{k^2} \end{aligned})]
연속확률변수에 대해서 비슷한 아이디어의 증명을 다음과 같이 풀어쓸 수 있다. 확률 분포의 평균을 [math(\mu)], 표준편차를 [math(\sigma)], 함수를 [math(f(x))]라 하면
[math(\begin{aligned}\sigma^2&=E[(X-\mu)^2]=\displaystyle\int_{-\infty}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&=\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&\geq\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x \quad \biggl(\because\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x\geq 0\biggr) \end{aligned})][2] |
[math(\begin{aligned}\sigma^2&\geq\displaystyle\int_{-\infty}^{\mu-k\sigma}(x-\mu)^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}(x-\mu)^2f(x)\,{\rm d}x\\&\geq\int_{-\infty}^{\mu-k\sigma}k^2\sigma^2f(x)\,{\rm d}x+\int_{\mu+k\sigma}^{\infty}k^2\sigma^2f(x)\,{\rm d}x\end{aligned})] |
[math(\begin{aligned}\dfrac1{k^2}\geq\displaystyle\int_{-\infty}^{\mu-k\sigma}f(x)\,{\rm d}x&+\int_{\mu+k\sigma}^{\infty}f(x)\,{\rm d}x \quad (\because k^2\sigma^2\geq 0)\end{aligned})] |
[math(\begin{aligned}1-\dfrac1{k^2}\leq\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}f(x)\,{\rm d}x&=P[\mu-k\sigma\leq X\leq\mu+k\sigma]\\&=P[|X-\mu|<k\sigma]\end{aligned})] |
3. 기타
- 확률변수가 [math(1/(2k^2))]의 확률로 값 [math(\mu \pm k\sigma)]를 가지고, 나머지 확률로 값 [math(\mu)]를 가지면 등호가 성립한다.
- 체비쇼프 부등식은 다양한 확률부등식의 기초이긴 하지만 실전에선 최약체(...)로 평가받는데, 확률론을 조금만 배우면 Hoeffding's inequality, Chernoff bound 등 훨씬 강한 유계를 주는 확률부등식들을 배우기 때문이다. 물론 모든 확률분포에 대해 성립하는 범용적인 부등식이 강력한 유계를 줄 수 있을 리도 없고, 실전에선 주로 등장하는 모종의 확률변수에 한정적으로 적용되는 특별한 부등식을 개발해 쓰는 것이니 이는 당연하다. 오히려 이런 대부분의 확률부등식들을 증명하기 위해서 이 체비쇼프 부등식과 젠센 부등식이 기본으로 사용되고, 이 둘의 역할을 서로 다른 것으로 대체할 수 없다는 점 때문에[3] 중요성이 꽤나 큰 부등식이다.
- [math(L^p)]-공간 버전으로 다음과 같은 일반화를 생각할 수 있다. 이때 체비쇼프 부등식은 [math(p=2)], [math(z=k\sigma)]인 경우이다.
[math(\begin{aligned}P[|X-\mu| \ge z] \le \frac{\|X-\mu\|_p}{z^p} \end{aligned})]
- 경시대회 등에 주로 등장하는 체비쇼프 합 부등식과는 다르다.
- 프란체스코 파올로 칸텔리가 이 부등식을 이용해 한 쪽만 알고 싶을때 사용할 수 있는 부등식을 정리했다.
[1] 영어권에서 표기법이 중구난방인 이름 중 하나로 꼽힌다. 과거 표기법 중에 Cheyshev, Tchebychef, Tschebyscheff 등등 다 있다. 한국어로 옮길 때 체비셰프, 체비쉐프 등으로 잘못 전사되는 일도 많은 편.[2] [math(\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}f(x)\,{\rm d}x)]는 확률의 값이므로 0 이상이고 [math((x-\mu)^2\geq 0)]이므로 [math(\displaystyle\int_{\mu-k\sigma}^{\mu+k\sigma}(x-\mu)^2f(x)\,{\rm d}x\geq 0)]이다.[3] 확률변수 [math(X)]에 대한 정보로 [math(f(X))]에 대한 부등식을 이끌어낸다고 생각할 때, 체비쇼프 부등식은 [math(f(x) = \mathbf{1}_{|x-\mu|>k \sigma})]의 경우로 간주할 수 있지만, 저 계단 함수는 볼록이 아니다. 즉, 체비쇼프 부등식은 이런 유형의 문제에서 젠센 부등식과는 본질적으로 다른 접근을 취한다고 볼 수도 있다.