نابرابری چبیشف

از testwiki
پرش به ناوبری پرش به جستجو
در این عکس نطریه چبیشف مشاهده میشود

در نظریه احتمالات، نابرابری چبیشف، تضمین می‌کند که در هر نمونه تصادفی یا توزیع احتمال، «تقریباً تمامی» مقادیر، در نزدیکی میانگین خواهند بود. به‌طور دقیقتر این قضیه بیان می‌کند که حداکثر مقادیری که در هر توزیع می‌تواند بیش از k برابر انحراف معیار با میانگین فاصله داشته باشد،1k2 است. این نامساوی بسیار کاربردی است، چون می‌تواند برای هر توزیع دلخواهی به کار برده شود (جز مواردی که میانگین و واریانس نامعلوم اند). به عنوان مثال از این نامساوی برای اثبات قانون ضعیف اعداد بزرگ استفاده می‌شود.

عنوان نامساوی از نام ریاضیدان روسی پافنوتی چبیشف، گرفته شده‌است، اگرچه در ابتدا نامساوی توسط دوست و همکلاسش فرموله شد. این نامساوی را می‌توان به صورت کاملاً کلی با کمک نظریه اندازه، بیان کرد.

شرح مسئله

شرح با نظریه اندازه

اگر (X،  Σ،  μ) یک فضای اندازه و ƒ یک تابع اندازه پذیر با مقادیر حقیقی گسترش یافته، تعریف شده بر X باشد، آنگاه:

الگو:چپ‌چین

μ({xX:|f(x)|t})1t2Xf2dμ.

الگو:پایان چپ‌چین

به‌طور کلی، اگر g یک تابع اندازه پذیر با مقادیر حقیقی گسترش یافته، نامنفی و غیر نزولی روی برد ƒ باشد، آنگاه:

الگو:چپ‌چین

μ({xX:f(x)t})1g(t)Xgfdμ.

الگو:پایان چپ‌چین

با تعریف (g(t به صورت:

الگو:چپ‌چین

g(t)={t2if t00otherwise,

الگو:پایان چپ‌چین

و استفاده از |ƒ| به جای ƒ، در رابطه قبل، حاصل می‌شود.

شرح احتمالی

اگر X متغیری تصادفی با امید ریاضی μ و واریانس نامتناهی σ2 باشد، برای هر مقدار حقیقی الگو:Nowrap، داریم:

الگو:چپ‌چین

Pr(|Xμ|kσ)1k2.

الگو:پایان چپ‌چین

که تنها حالت الگو:Nowrap ارزش استنباطی دارد (در حالت الگو:Nowrap عبارت سمت راست بیشتر از یک خواهد شد که معنادار نیست، مسلماً طبق اصول احتمال، احتمال هر پدیده بیشتر از یک نیست). به عنوان مثال در حالت: k=2 نتیجه می‌شود، دست کم نیمی از مقادیر توزیع X بین (μ-√۲ σ، μ+√۲ σ) قرار خواهند گرفت.

به دلیل عمومی بودن فرضیات قضیه (تنها فرض لازم، معلوم بودن گشتاورهای اول و دوم است)، نسبت به حالتی که معلومات بیشتری از توزیع داریم (مثلاً معلوم بودن. سایر گشتاورها)، این نابرابری، کران‌های عریض تری ایجاد می‌کند. (و در نتیجه در حالت دوم دقیقترین کران نیست).

بعنوان مثال، فرض کنید دسته‌ای مجله داریم که به‌طور متوسط محتوی ۱۰۰۰ کلمه‌اند و انحراف معیاری برابر ۲۰۰ کلمه دارند. در اینصورت می‌توان نتیجه گرفت، نسبت مجلاتی که حاوی ۶۰۰ تا ۱۴۰۰ کلمه‌اند (یعنی بین k = 2 برابر انحراف معیار از میانگین) نمی‌تواند کمتر از 34 باشد. چون طبق نابرابری چبیشف بیش از 1/k&sup2=۱/۴ مجله خارج از محدودهٔ فوق قرار نمی‌گیرند. اما اگر علاوه بر اطلاعات بالا بدانیم که توزیع کلمات نرمالاست، می‌توانیم بگوییم ۷۵ درصد از مقادیر مابین ۷۷۰ و ۱۲۳۰ قرار دارند (همچنان که انتظار می‌رفت، نابرابری اخیر دقیقتر است).

همانگونه که در مثال فوق نشان داده شد، کران‌های نابرابری چبیشف، عموماً دقت نسبی لازم را ندارند. با این حال، کران‌های ارائه شده در نابرابری چبیشف نمی‌توانند در حالت کلی، بهبود یابند. مثالاً، برای هر k ≥ 1 با متغیر زیر که مقادیر کران را اختیار می‌کند: الگو:چپ‌چین

X={1,with probability 12k20,with probability 11k21,with probability 12k2

الگو:پایان چپ‌چین برای این توزیع میانگین μ = ۰ و انحراف معیار σ=1/k داریم: الگو:چپ‌چین

Pr(|Xμ|kσ)=Pr(|X|1)=1k2.

الگو:پایان چپ‌چین تساوی برای هر توزیعی که تبدیل خطی متغیر بالا است، رخ می‌دهد؛ و در سایر حالات، تنها نابرابری صریح صادق است.

سایر اشکال: نابرابری یک-طرفهٔ چبیشف

نابرابری چبیشف به شکل یک-طرفه با k> 0 به صورت زیر است:[۱] الگو:چپ‌چین

Pr(Xμkσ)11+k2.

الگو:پایان چپ‌چین شکل یک-طرفهٔ نابرابری چبیشف، نابرابری کانتلی نامیده می‌شود.

استفاده در تعیین فاصلهٔ بین میانگین و میانه

با استفاده از شکل یک-طرفهٔ نابرابری چبیشف، می‌توان نشان داد که برای هر توزیع احتمال با امید ریاضی و میانه تعریف شده، فاصلهٔ بین میانگین و میانه هرگز بیشتر از یک انحراف معیار نیست. به زبان ریاضی، اگر μ، m وσ به ترتیب، میانه، میانگین و واریانس توزیع باشند، داریم: الگو:چپ‌چین

|μm|σ.

الگو:پایان چپ‌چین توجه کنید که به فرض متناهی بودن واریانس (یا معادل آن به فرض وجود واریانس) نیازی نیست.

اثبات با نابرابری چبیشف

با فرض k = 1 با استفاده از شکل یک-طرفهٔ نابرابری چبیشف: الگو:چپ‌چین

Pr(Xμσ)12.

الگو:پایان چپ‌چین با تغییر علامت X و μ داریم: الگو:چپ‌چین

Pr(Xμσ)12.

الگو:پایان چپ‌چین فاصلهٔ میانه تا میانگین حداکثر یک انحراف معیار است.

اثبات با نابرابری جنسن

با دو بار استفاده از نابرابری جنسن، داریم: الگو:چپ‌چین

|μm|=|E(Xm)|E(|Xm|)E(|Xμ|)=E((Xμ)2)E((Xμ)2)=σ.

الگو:پایان چپ‌چین نابرابری اول با استفاده از نابرابری جنسن (حالت تابع کوژ) با بکار بردن تابع قدرمطلق (که تابعی کوژ است) بدست می‌آید. نابرابری دوم به دلیل این است که میانه تابع انحراف مطلق را کمینه می‌کند.

aE(|Xa|).

نابرابری سوم با استفاده از نابرابری جنسن (حالت تابع کاو) با بکار بردن تابع ریشه دوم (که تابعی کاو است) بدست می‌آید.

اثبات (حالت دو سویه نابرابری چبیشف)

اثبات با نظریه اندازه

فرض کنید At به صورت: {At  := {x ∈ X | ƒ(x) ≥ t تعریف شود و فرض کنید: 1At، تابع مشخصه مجموعهٔ  At باشد. داریم: الگو:چپ‌چین

0g(t)1Atgf1Atgf,

الگو:پایان چپ‌چین بنابراین: الگو:چپ‌چین

g(t)μ(At)=Xg(t)1AtdμAtgfdμXgfdμ.

الگو:پایان چپ‌چین نابرابری مورد نظر با تقسیم نابرابری بالا بر (g(tبه دست می‌آید.

اثبات احتمالی

طبق نابرابری مارکف برای هر متغیر تصادفی حقیقی مقدار Y و هر عدد مثبت a، داریم: Pr(|Y| > a) ≤ E(|Y|)/a. یک راه ساده برای اثبات نابرابری چبیشف قراردادن متغیر تصادفی Y = (X − μ)2 و مقدار a = (σk)2 در نابرابری مارکوف است.

برای اثبات مستقیم، فرض کنید برای هر پیشامد A متغیر تصادفی نشانگر IA باشد (یعنی IA اگر A رخ دهد مقدار ۱ و در غیر اینصورت مقدار صفر می‌گیرد) داریم: الگو:چپ‌چین

Pr(|Xμ|kσ)=E(I|Xμ|kσ)=E(I[(Xμ)/(kσ)]21)E((Xμkσ)2)=1k2E((Xμ)2)σ2=1k2.

الگو:پایان چپ‌چین

منابع

الگو:پانویس

  1. Grimmett and Stirzaker, problem 7.11.9. اثبات‌های دیگر الگو:Webarchive.