فرایند مارکوف

از testwiki
پرش به ناوبری پرش به جستجو

به زبان ساده، فرایند مارکوف یعنی محل بعدی یک متغیر تصادفی بدون حافظه را فقط با دانستن محل فعلی آن می‌توان براورد.

قضیه

ریاضیدان روسی به نام آندری مارکوف اندیشید که قدم بعدی یک مجنون در یک محوطه باز، فقط به قدم فعلی او وابسته است. سپس فرایند مارکوف را تعریف و کمی سازی کرد.

فرایند مارکف

دنباله‌ای از متغیرهای تصادفی را در نظر گرفته و فرض کنید مجموعه مقادیر ممکن که این متغیرها انتخاب می‌کنند برابر با  0,1,... باشد. اگر  xn را به عنوان حالتی از یک سیستم در لحظه  n در نظر گرفته و چنین تفسیر کنیم که سیستم در لحظه  n در حالت  i است هرگاه  xn=i باشد آنگاه دنباله متغیرهای تصادفی اصطلاحاً تشکیل یک زنجیر مارکف می‌دهد. اگر هروقت سیستم در حالت  i است با احتمال ثابتی که ان را  pij می‌نامیم به حالت  j تغییر حالت دهد. برای همه مقادیر  i0,i1,... داریم : Pr{Xn+1=j Xn=i,Xn1=in1,...,X0=i0}

اگر این احتمال‌ها را درون یک ماتریس قرار دهیم ماتریسی به شکل زیر بدست میآد که به آن ماتریس احتمال انتقال transition probability matrix یا ماتریس مارکف گویند. P=[pij]اگر به سطر i+۱ ام نگاه کنید توزیع احتمال X_{n+۱} را به شرط آنکه X_n =i باشد به شما نشان می‌دهد.

مثال

۱ - مجموع متغیرهای تصادفی و مستقل همتوزیع (قدم زدن تصادفی کلی): فر ض کنید i0,Xi مستقل و همتوزیع باشد Pr{Xi=j}=aj,j=0,1,...,±1 باشند اگر فرض کنید Sn=i=1nXi,S0=0 آنگاه {Sn,n0} یک فرایند مارکف است که برای آن Pij=aji قدم تصادفی کلی گوییم این نوع قدم زدن در مسایل بسیاری کار برد دارند برای مثال در مدل بندی بردهای قمارباز یا در قیمت‌های متوالی شرکت معینی که در بازار سهام فهرست شده‌اند. هم چنین در تحلیل سیستم‌های صف بندی ورشکستگی کاربرد دارند. ۲-قدم زدن تصادفی ساده: قدم زدن Sn,n0که در آن

Sn=i=1nXi

را قدم زدن تصادفی ساده گوییم اگر Pیی موجود باشد به قسمی که

                           Pr(Xi=1)=p,Pr(Xi=1)=1p,0<p<1

بنابراین در فرایند قدم زدن تصادفی همیشه۱ پله با احتمالP به بالا می‌رود و با احتمال 1P به پایین می‌آید. قضیه: اگر Xn زنجیر مارکف گسسته زمان باشد به‌علاوه اگر P ماتریس احتمال انتقال ۱ مرحله‌ای باشد نشان می‌دهیم که Pn ماتریس احتمال انتقال n مرحله‌ای خواهد بود. اثبات: اثبات به روش استقراست ابتدا برای n=۲ ثابت می‌کنیم

Pij(2)=Pr{Xk+2 Xk=i}=Pr{Xk+2,Xk=i}Pr{Xk=i}=l=1Pr{Xk+2=j,Xk+1=l,Xk=i}Pr{Xk=i}=l=1Pr{Xk+2=j,Xk+1=l,Xk=i}Pr{Xk+1=l,Xk=i}×Pr{Xk+1=l,Xk=i}Pr{Xk=i}

با توجه به خاصیت مارکف هر مرحله فقط به یکی قبل از خود بستگی دارد =l=1Pr{Xk+2=j Xk+1=l}×Pr{Xk+1=l Xk=i}=l=1PilPlj=Pij(2)

حال اگر فرض کنیم که این رابطه برای n=k درست باشد آن را برای k+۱ ثابت می‌کنیم.

Pn+1=(Pij(n+1))Pij(n+1)=Pr{Xn+k+1 Xk=i}=Pr{Xn+k+1,Xk=i}Pr{Xk=i}=l=1Pr{Xn+k+1=j,Xk+n=l,Xk=i}Pr{Xk=i}=l=1Pr{Xn+k+1=j,Xk+n=l,Xk=i}Pr{Xk+n=l,Xk=i}×Pr{Xk+n=l,Xk=i}Pr{Xk=i}=l=1Pr{Xk+n+1=j Xk+n=l}×Pr{Xk+n=l Xk=i}=l=1Pil(n)Plj=P(n)P=PnP=Pn+1

برابری چپمن – کولموگروف

اگر احتمال تغییر وضعیت n مرحله‌ای را برابر Pij(n) بگیریم داریم: P(m)P(n)=P(n+m)

اثبات: با توجه به قضیه بالا داریم: P(m)P(n)=PmPn=Pm+n=P(m+n)

دسته‌بندی وضعیت‌های زنجیر مارکف

۱- وضعیت‌های در دسترس (Accessible State)

وضعیت j در دسترس وضعیت i نامیم و با
ij
نشان می‌دهیم اگر و تنها اگر
n0,1,...s.tPijn0

اگر n0,1,2,...Pijn=0

j در دسترس i است.

۲- وضعیت‌های مرتبط(Communicate State)

وضعیت iوj را مرتبط می‌نامیم اگر و تنها اگر j در دسترس iو iدر دسترس j باشد مرتبط بودن را با نماد مشخص می‌کنیم

قضیه

مرتبط بودن یک رابطه هم‌ارزی است.

اثبات: iS بدیهی است ii چونPii0=1>0 مرتبط بودن دارای خاصیت بازتابی است. ijn{0,1,...}Pijn>0m{0,1,...}Pijm>0ji

مرتبط بودن دارای خاصیت تقارنی است.
ij,jk

n{0,1,..}Pijn>0n1{0,1,...}Pjkn1>0

m{0,1,...}Pjim>0n2{0,1,..}Pkjn2>0
می‌دانیم
Pikn+n1=l=1PilnPlkn1PijnPjkn1>0
Pkim+n2=l=1PklmPlin2PkjmPjin2>0

ik بنا بر این مرتبط بودن یک کلاس هم‌ارزی است.

منابع

الگو:پانویس الگو:چپ‌چین

  • Weisstein, Eric W. "Markov Process." From MathWorld—A Wolfram Web Resource.

A first course in stochastic processes , samuel karlin academic press1969

الگو:پایان چپ‌چین فرایندهای تصادفی / شلدون. م. راس/ترجمه عین‌الله پاشا / مرکز نشر دانشگاهی تهران/۱۳۸۵ الگو:داده‌های کتابخانه‌ای

الگو:ریاضی-خرد