قضیه گوس-مارکوف

از testwiki
نسخهٔ تاریخ ۲۶ اوت ۲۰۲۲، ساعت ۱۲:۲۳ توسط imported>Erfan.K1383 (پانویس: افزودن)
(تفاوت) → نسخهٔ قدیمی‌تر | نمایش نسخهٔ فعلی (تفاوت) | نسخهٔ جدیدتر ← (تفاوت)
پرش به ناوبری پرش به جستجو

الگو:تحلیل رگرسیون در علم آمار، قضیه گوس-مارکف الگو:انگلیسی بیان می‌کند که در یک مدل خطی که خطاهای آن امید ریاضی صفر داشته، ناهمبسته بوده، و واریانسهای مساوی دارند، بهترین برآوردگر خطی نااریب برای ضرایب سیستم برابر برآوردگر کمترین مربعات می‌باشد.[۱][۲] شرح مدل خطی به صورت دقیقتر اینگونه‌است که الگو:وسط‌چین  E(ee)=σ2I.  E(e)=0,  Y=Xβ+e, الگو:پایان بطوری که  X ماتریس مدل بوده که معلوم و ثابت است،  β برداری نامعلوم با ابعاد p×1 در فضای  Rp است. بردار  e نیز بردار خطا می‌باشد.[۱] در اینجا بهترین به معنای آن است که برآوردگر مورد نظر کمترین واریانس را در مقایسه با سایر برآوردگرهای خطی، داشته باشد. لازم نیست جمله‌های خطا توزیع طبیعی داشته باشند یا توزیع مستقل و یکسان داشته باشند و فرض ضروری ناهمبسته بودن و واریانس همسانی جمله‌های خطا می‌باشد. این قضیه به افتخار کارل فریدریش گاوس و آندری مارکوف نام‌گذاری شده‌است.

صورت قضیه

تساوی زیر را که به شکل ماتریسی نوشته شده‌است، در نظر بگیرید: الگو:چپ‌چین y=Xβ+ε,(y,εn,βK and Xn×K) الگو:پایان چپ‌چین که فرم باز شدهٔ آن به شکل زیر در می‌آید: الگو:چپ‌چین yi=j=1KβjXij+εii=1,2,,n الگو:پایان چپ‌چین در اینجا βj پارامترهای غیر تصادفی و غیرقابل مشاهده می‌باشند، Xij متغیرهای توضیحی خوانده می‌شوند که غیرتصادفی و قابل مشاهده می‌باشند،yi و εi تصادفی می‌باشند. متغیرهای تصادفی εi «خطا» یا «اغتشاش» نامیده می‌شوند و باید بین آن‌ها و جمله‌های باقی‌مانده تمایز قائل شد. توجه کنید معمولاً با معرفی متغیر Xi(K+1)=1 در مدل رگرسیون خطی، جملهٔ ثابت βK+1 را به مدل اضافه می‌کنند. قضیهٔ گاوس-مارکوف سه فرض اساسی در مورد متغیرهای تصادفی εi دارد:

  • همهٔ آن‌ها دارای میانگین صفر می‌باشند:

الگو:چپ‌چین E[εi]=0الگو:پایان چپ‌چین

الگو:چپ‌چین Var(εi)=σ2< الگو:پایان چپ‌چین

الگو:چپ‌چین Cov(εi,εj)=0,ij الگو:پایان چپ‌چین برآوردگر خطی βj یک ترکیب خطی به شکل زیر می‌باشد:

الگو:چپ‌چین β^j=c1jy1++cnjyn الگو:پایان چپ‌چین ضرایب cij در معادلهٔ بالا مستقل از ضرایب βj می‌باشند زیرا همان‌طور که گفته شد βj قابل مشاهده نیستند ولی می‌توانند تابعی از مقادیر Xij باشند زیرا این داده‌ها قابل مشاهده می‌باشند. یک برآوردگر، نااریب می‌باشد اگر و تنها اگر الگو:چپ‌چین E(β^j)=βj الگو:پایان چپ‌چین عبارت j=1Kλjβjرا که یک ترکیب خطی از ضرایب می‌باشد، در نظر بگیرید، میانگین مربعات خطا به شکل زیر تعریف می‌شود: الگو:چپ‌چین E[(j=1Kλj(β^jβj))2] الگو:پایان چپ‌چین توجه کنید چون در اینجا برآوردگر تمام پارامترها نااریب می‌باشند در نتیجه عبارت بالا معادل واریانس ترکیب خطی مذکور می‌باشد. بهترین برآوردگر خطی نااریب بردار پارامترهای βj بدین معناست که ترکیب خطی پارامترها به ازای هر بردار λ، دارای کمترین میانگین مربعات خطا می‌باشد. این شرط معادل این است که عبارت زیر یک ماتریس مثبت نیمه معین باشد: الگو:چپ‌چین Var(β~j)Var(βj) الگو:پایان چپ‌چین که در آن β~j یک برآوردگر خطی نااریب می‌باشد. برآوردگر حداقل مربعات معمولی تابعی از X، y و X(ترانهادهٔ ماتریس X) به فرم زیر می‌باشد: الگو:چپ‌چین β^j=(XX)1Xy الگو:پایان چپ‌چین ایدهٔ اصلی اثبات این است که برآوردگر حداقل مربعات معمولی با هر برآوردگر خطی نااریب دیگر ناهمسبته می‌باشد. در ادامه به اثبات قضیه می‌پردازیم.

اثبات[۳]

β~=Cy به عنوان برآوردگر خطی β در نظر بگیرید، ماتریس C را می‌توان اینگونه C=(XX)1X+D نوشت، که در آنD یک ماتریس K×n و غیر صفر می‌باشد. در ادامهٔ اثبات نشان می‌دهیم واریانس این برآوردگر نمی‌تواند کمتر از واریانس برآوردگر حداقل مربعات معمولی β^ باشد. الگو:چپ‌چین

E[β~]=E[Cy]=E[((XX)1X+D)(Xβ+ε)]=((XX)1X+D)Xβ+((XX)1X+D)E[ε]=((XX)1X+D)XβE[ε]=0=(XX)1XXβ+DXβ=(IK+DX)β.

الگو:پایان چپ‌چین شرط نااریب بودن برآوردگر بالا تنها در صورتی برقرار است که DX=0 باشد؛ بنابراین:

Var(β~)=Var(Cy)=C Var(y)C=σ2CC=σ2((XX)1X+D)(X(XX)1+D)=σ2((XX)1XX(XX)1+(XX)1XD+DX(XX)1+DD)=σ2(XX)1+σ2(XX)1(DX)+σ2DX(XX)1+σ2DD=σ2(XX)1+σ2DDDX=0=Var(β^)+σ2DDσ2(XX)1=Var(β^)

چون DD یک ماتریس مثبت نیمه معین می‌باشد بنابراین Var(β~) نمی‌تواند کمتر از Var(β^) باشد و اثبات کامل می‌شود.

جستارهای وابسته

پانویس

الگو:پانویس

  1. Davison, Russell, MacKinnon, David. Econometric Theory And Methods Canada: Oxford university press, 2004.
  2. ویکی‌پدیای انگلیسی

عرفان کریمی http://qed.econ.queensu.ca/ETM/data/