مدل خطی تعمیم‌یافته

از testwiki
پرش به ناوبری پرش به جستجو

الگو:تحلیل رگرسیون

مدل خطی تعمیم‌یافته الگو:انگلیسی تعمیم رگرسیون خطی است برای داده‌هایی که توزیع نرمال ندارند. به عنوان مثال، پیش‌بینی تعداد خرابی، که کمیتی گسسته‌است، یا زمان انتظار، که کمیتی مثبت‌است، را می‌توان به کمک مدل خطی تعمیم‌یافته انجام داد. این مدل ها توسط John Nelder و Robert Wedderburn با هدف ساخت یک روش واحد برای مدل های آماری متفاوت مانند رگرسیون خطی، رگرسیون لجستیک، رگرسیون پواسون ارائه شد. این روش ها از MLE برای تخمین پارامتر هایشان استفاده می‌کنند. ایده کلی این روش این است که به جای فرض بر روی توابع مختلف در رگرسیون های ذکر شده ما با دانستن توزیع داده ها (صرفا شکل توزیع و نه متغیر های آن) که عموما یک فرض منطقی که از مسئله به دست می‌آید، تخمین خود برای مدل را به دست می آوریم.

این مدل از سه جزء تشکیل‌یافته‌است:[۱]

الف) توزیعی برای متغیر پاسخ 𝐲، که معمولاً از خانواده نمایی با بیش‌پراکندگی d(τ) انتخاب می‌شود:

fY(𝐲|θ,τ)=h(𝐲,τ)exp(𝐛(θ)T𝐓(y)A(θ)d(τ)).

بیش‌پراکندگی برای مدل‌سازی واریانس‌های بالا و پایین به‌کار می‌رود.

ب) پیش‌بینی خطی براساس متغیر کنترل 𝐗:

η=𝐗β.

ج) تابع پیوند g که یک تابع اکیداً یکنواست و دو مؤلفه بالا را به هم ارتباط می‌دهد:

η=g(𝔼[𝐘])=𝐗β.

مثال

می‌خواهیم ثابت کنیم که با ۳ فرض بالا و با دانستن توزیع منطقی یک سری داده می‌توان روابط رگرسیون لجستیک را بدون فرض خاصی بر روی تابع سیگموید بدست آورد.[۲] مسئله رگرسیون لجستیک یک طبقه بندی دو کلاسه (باینری) است. ما به دنبال y{0,1} برای نقاط مجموعه داده های خود هستیم. با توجه به نوع مسئله به صورت منطقی می‌توانیم فرض کنیم که داده های ما از یک توزیع برنولی تولید می‌شوند. کافی است توزیع برنولی را به صورت خاصی از توزیع خانواده نمایی بنویسیم. فرض کنید توزیع ما به صورت Bernoulli(ϕ) می‌باشد.

=ϕ hθ(x)=E[y|x;θ]

11+eη=

11+eθTx=

در نتیجه با فرض مدل خطی تعمیم یافته ، این که تابع پیش بینی رگرسیون لجستیک، همان تابع سیگموید است [۳] را ثابت کردیم. نکته قابل ذکر این است که ما فرضی بر روی تابع فرض خود یا hθ(x) نگذاشتیم و تمامی این نتایج از خطی فرض کردن پارامتر η نتیجه می‌شوند. مدل های خطی تعمیم یافته به همین هدف درست شدند که روش های مختلف رگرسیون را به یک پارامترسازی و مدلسازی تبدیل کنند.

توابع پیوند

همانطور که در مثال بالا و در تعریف مدل های تعمیم یافته خطی گفته شد، برای به دست آوردن رابطه بین پارامتر η و 𝔼[𝐘] ما نیاز به تابع پیوند داریم. این توابع با استفاده از توزیع فرض شده بر روی داده ها به دست می آیند. در جدول زیر توابع پیوند برای توزیع های معروف ذکر شده است.[۴][۵]

برخی توزیع های معروف به همراه تابع پیوند
توزیع دامنه توزیع نام تابع پیوند تابع پیوند, 𝐗β=g(μ) تابع میانگین
نرمال حقیقی: (,+) همانی 𝐗β=μ μ=𝐗β
نمایی حقیقی: (0,+) منفی معکوس 𝐗β=μ1 μ=(𝐗β)1
گاما
گاوسی معکوس حقیقی: (0,+) مجذور معکوس 𝐗β=μ2 μ=(𝐗β)1/2
پوآسون صحیح: 0,1,2, لگاریتم 𝐗β=ln(μ) μ=exp(𝐗β)
برنولی صحیح: {0,1} لاجیت 𝐗β=ln(μ1μ) μ=exp(𝐗β)1+exp(𝐗β)=11+exp(𝐗β)
باینومیال صحیح: 0,1,,N 𝐗β=ln(μnμ)
چندجمله ای K بردار از اعداد صحیح: [0,N] 𝐗β=ln(μ1μ)

محدب بودن مدل های خطی تعمیم یافته

مدل های خطی تعمیم یافته ویژگی هایی دارند که استفاده از آن ها را بسیار راحت می کند. امید ریاضی و واریانس Y از روابط زیر پیروی می کند که a پارامتر توزیع خانواده نمایی است.

E[Y|X;θ]=aη

Var[Y|X;θ]=2aη2

با استفاده از این دو رابطه می توان ثابت کرد که این مدل ها محدب هستند. اثبات این قضیه به صورت زیر است.

l(θ)=i=1mlogp(y(i)|x(i);θ)

=i=1mlogb(y(i))θTx(i)y(i)+a(θTx(i))

lθj=i=1m[a(θTx(i))y(i)]xj(i)

Hjk=2lθjθk=i=1ma'(θTx(i))xj(i)xk(i)

zTHz=i=1mj=1nk=1na'(θTx(i))xj(i)xk(i)zjzk

i=1ma(θTx(i))[(x(i))Tz]2

a(θ<mo stretchy="false" fromhbox="1">)</mo>=Var(Y|X;theta)0zTHz0

جستارهای وابسته

منابع

الگو:آمار