نابرابری هوفدینگ

از testwiki
پرش به ناوبری پرش به جستجو

در نظریه احتمال، نابرابری هوفدینگ (Hoeffding's inequality) ابزاری قدرتمند جهت محدود کردن جمع تعدادی متغیر تصادفی مستقل کراندار (Mn=X1+X2+...+Xn) است که کاربردهای وسیعی در یادگیری ماشین دارد. نابرابری هوفدینگ توسط واسیلی هوفدینگ در سال ۱۹۶۳ ثابت شد.[۱]

مقدمه

یکی از سوالات اساسی در احتمالات، آمار و یادگیری ماشین از این قرار است:

متغیر تصادفی Z ، با امید ریاضی E[Z] را در نظر بگیرید. می‌خواهیم بدانیم که Z چه مقدار از میانگین خود فاصله دارد، یا به زبان ریاضی می‌خواهیم

الگو:چپ چین

P(Z>E[Z]+t) و P(Z<E[Z]t)

الگو:پایان چپ چین را به ازای t>0 حساب کنیم. در مواقعی که با چنین سوالاتی مواجه می‌شویم نیاز داریم که احتمال‌های بالا را به طریقی محدود کنیم، این محدود سازی از طریق نابرابری‌هایی مانند نابرابری مارکف، نابرابری هوفدینگ، نابرابری چبیشف و تعداد زیادی دیگر از نابرابری‌های مشابه انجام می‌شود.

توضیح صورت‌های مختلف نابرابری هوفدینگ

اگر الگو:ریاضی.. , Xn متغیر تصادفی مستقل محدود به بازه [۰٬۱]: الگو:ریاضی باشند و X را به صورت زیر تعریف کنیم:

X=1n(X1++Xn).

اولین نابرابری هوفدینگ به شرح زیر خواهد بود(0t)

(XE[X]t)e2nt2

نابرابری بعدی در اصل تعمیم نابرابری اول است. اگر الگو:ریاضی.. , Xn متغیر تصادفی مستقل و aiXibi باشند این بار خواهیم داشت:

(XE[X]t)exp(2n2t2i=1n(biai)2)(|XE[X]|t)2exp(2n2t2i=1n(biai)2)

اثبات

قضیه را برای ai=a و bi=b ثابت می‌کنیم. (یعنی ai و bi به ازای تمامی i‌ها یکسان است) بنابراین صورت مسئله به صورت زیر در می‌آید:

فرض کنید Z1,...,Zn متغیرهای تصادفی مستقل کراندار با [a,b]Zi برای تمامی iها باشند. در این صورت خواهیم داشت:

الگو:چپ چین

P(1ni=1n(ZiE[Zi])t)exp(2nt2(ba)2)

الگو:پایان چپ چین و الگو:چپ چین

P(1ni=1n(ZiE[Zi])t)exp(2nt2(ba)2)

الگو:پایان چپ چین

این قضیه را با ترکیبی از (۱) کران چرنوف و (۲) یک لم کلاسیک به نام لم هافدینگ که الان آن را بیان می‌کنیم، ثابت می‌کنیم.
  • لم هافدینگ:(Hoeffding's lemma)
برای Z یک متغیر تصادفی مستقل کراندار با [a,b]Z است. در این صورت خواهیم داشت:
به ازای هر λ
الگو:چپ چین

E[exp(λ(ZE[Z]))]exp(λ2(ba)28) الگو:پایان چپ چین حال با استفاده از این لم به اثبات کران بالای نابرابری هوفدینگ (یعنیP(1ni=1n(ZiE[Zi])t)exp(2nt2(ba)2))می‌پردازیم. (اثبات برای کران پایین دقیقاً به همین شکل است) در مرحلهٔ اول از کران چرنوف استفاده می‌کنیم:

الگو:چپ چین

P(1ni=1n(ZiE[Zi])t)=P(i=1n(ZiE[Zi])nt)

E[exp(λi=1n(ZiE[Zi]))]eλnt
=(i=1nE[eλ(ZiE[Zi])])eλnt

(i=1neλ2(ba)28))eλnt الگو:پایان چپ چین که نامساوی آخر از لم هوفدینگ نتیجه شد. با بازنویسی و کمینه کردن نامساوی آخر روی λ0 خواهیم داشت:

الگو:چپ چین

P(1ni=1n(ZiE[Zi])t)minλ0exp(nλ2(ba)28λnt)=exp(2nt2(ba)2) الگو:پایان چپ چین که همان نابرابری هوفدینگ است.

کاربرد ها

  • قانون اعداد بزرگ[۲]
قانون اعداد بزرگ یکی از معروف ترین نتیجه در نظریه احتمالات است. این قانون بیان میکند که در صورتی که یک آزمایش را به n بار انجام دهیم و از نتایج آن میانگین بگیریم، این میانگین در حد n به سمت بینهایت به امید ریاضی متغیر تصادفی میل میکند.این قانون توسط نابرابری هوفدینگ (و البته نابرابری های ساده دیگر) اثبات میشود.
فرض کنید X=X1+...+Xnn در این صورت خواهیم داشت:
الگو:چپ چین

limnP(tXE[X]t)=

=limn(1P(XE[X]t)P(XE[X]t))limn(1exp(2nt2(ba)2)exp(2nt2(ba)2))=1
limnP(tXE[X]t)=1

الگو:پایان چپ چین با توجه به اینکه نامساوی بدست آمده به ازای همهٔ مقادیر مثبت t برقرار است پس می‌توان نتیجه گرفت که حد X برابر E[X] خواهد شد.

  • بازه ی اطمینان
نابرابری هوفدینگ ابزاری کارآمد برای آنالیز تعداد نمونه های مورد نیاز برای دستیابی به بازه اطمینان است. از نابرابری هوفدینگ داریم:

الگو:چپ چین P(XE[X]t)e2nt2 الگو:پایان چپ چین و به‌طور متقارن: الگو:چپ چین P(XE[X]t)e2nt2 الگو:پایان چپ چین و با ترکیب دو معادلهٔ بالا می‌توانیم نا معادلهٔ دو طرفهٔ زیر را بدست آوریم: الگو:چپ چین P(|XE[X]|t)2e2nt2 الگو:پایان چپ چین این احتمال می‌تواند به عنوان میزان بزرگی α (احتمال به وجود آمدن خطا) برای بازهٔ اطمینان حول E[X] با اندازهٔ 2t در نظر گرفته شود: الگو:چپ چین α=P(X[E[X]t,E[X]+t])2e2nt2 الگو:پایان چپ چین که با حل معادلهٔ بالا بر حسب n خواهیم داشت: الگو:چپ چین nlog(2/α)2t2 الگو:پایان چپ چین بنابراین متوجه شدیم که برای دستیابی به بازه اطمینان (1α)، E[X]±t نیاز به حداقل log(2/α)2t2 نمونه داریم.

پانویس

الگو:پانویس

منابع

[۳] [۴] [۵] الگو:پانویس