مستقل شرطی

از testwiki
پرش به ناوبری پرش به جستجو

در نظریه احتمال، استقلال شرطی شرایطی را توصیف می‌کند که در هنگام ارزیابی قطعیت یک فرضیه یک مشاهده بی‌ربط یا اضافی است. استقلال شرطی معمولاً بر حسب احتمال شرطی نوشته می‌شود، به عنوان یک مورد خاص که در آن احتمال رخداد یک رویداد با توجه به یک مشاهده غیر اطلاعاتی برابر با احتمال رخداد بدون آن مشاهده است. اگر A رخداد مورد نظر ما باشد و B و C مشاهدات باشند، استقلال شرطی را می‌توان به صورت زیر بیان کرد:

P(A|B,C)=P(A|C)

که P(A|B,C) احتمال A پس از مشاهده B و C است. از آنجایی که احتمال رخداد A به شرط C همان احتمال A با توجه به هر دو مشاهده B و C است، این برابری بیانگر آن است که B هیچ کمکی به قطعیت A نمی‌کند. در این مورد، گفته می‌شود که A و B مشروط به C مستقل هستند، به صورت نمادین نوشته شده‌است: (AB|C) .

مفهوم استقلال شرطی برای نظریه‌های استنتاج آماری مبتنی بر گراف ضروری است، زیرا یک رابطه ریاضی بین مجموعه‌ای از گزاره‌های شرطی و یک گرافوئید برقرار می‌کند.

استقلال شرطی رویدادها

اجازه دهید A ، B ، و C رویداد هایمان باشد. گفته می‌شود که A و B مشروط به C مستقل هستند اگر و تنها اگر P(C)>0 و:

P(AB,C)=P(AC)

این ویژگی اغلب نوشته می‌شود: (ABC) .

به‌طور معادل، استقلال شرطی ممکن است به صورت زیر بیان شود:

P(A,B|C)=P(A|C)P(B|C)

جایی که P(A,B|C) احتمال مشترک A و B به شرط C است. این فرمول جایگزین بیان می‌کند که A به شرط C و B به شرط C رویدادهای مستقل هستند.

اثبات تعریف معادل ارائه شده

P(A,BC)=P(AC)P(BC)
P(A,B,C)P(C)=(P(A,C)P(C))(P(B,C)P(C)) (تعریف احتمال شرطی)
P(A,B,C)=P(A,C)P(B,C)P(C) (P(C) را در هر دو طرف ضرب کنید)
P(A,B,C)P(B,C)=P(A,C)P(C) (P(B,C) را در هر دو طرف تقسیم کنید)
P(AB,C)=P(AC) (تعریف احتمال شرطی)

جعبه‌های رنگی

هر سلول میتواند در گروه رویداد های مختلفی قرار بگیرد که رنگ آن را مشخص میکنند. رویداد R ، B و Y به ترتیب با نواحی سایه دار الگو:قلم رنگ، الگو:قلم رنگ و الگو:قلم رنگ نشان داده می‌شوند. همپوشانی بین رویدادها R و B الگو:قلم رنگ سایه دار شده‌است.

این دو نمونه است که استقلال مشروط را نشان می‌دهد.

احتمال این رویدادها نسبت ناحیه سایه دار هر کدام به کل مساحت است. در هر دو مثال R و B به شرط Y مستقل داده شده‌اند زیرا:

Pr(R,BY)=Pr(RY)Pr(BY)[۱]

اما به شرط [not Y] مستقل نیستند زیرا:

Pr(R,Bnot Y)=Pr(Rnot Y)Pr(Bnot Y)

آب و هوا و تأخیر

فرض کنید دو رویداد A و B این باشند که دو نفر به موقع برای شام به خانه برسند و سومین رویداد درنوردید شهر توسط یک طوفان برفی باشد. در حالی که هر دو فرد در صورت وقوع طوفان به احتمال کمتری به موقع برای شام به خانه می‌رسند، این دو رویداد (A و B) همچنان مستقل از یکدیگر خواهند بود؛ یعنی دانستن اینکه اولی دیر رسیده‌است به شما نمی‌گوید که آیا فرد دیگر دیر خواهد رسید یا نه. البته در اینجا فرض شده‌است آنها در محله‌های مختلف زندگی کنند، مسافت‌های مختلفی را طی کنند و از روش‌های مختلف حمل و نقل استفاده کنند و اگر بدانیم آنها در یک محله زندگی می‌کنند، از حمل و نقل یکسان استفاده می‌کنند و در یک مکان کار می‌کنند، آنگاه این دو رویداد به صورت شرطی مستقل نیستند.

ریختن تاس

استقلال شرطی به ماهیت رویداد سوم بستگی دارد. اگر دو تاس بیندازید، ممکن است فرض شود که دو تاس مستقل از یکدیگر رفتار می‌کنند. با نگاه کردن به نتایج یک تاس نمی‌توانید در مورد نتیجه دومی صحبت کنید. (یعنی دو تاس مستقل هستند) با این حال، اگر نتیجه اولین تاس ۳ باشد، و شخصی در مورد رویداد سوم به شما بگوید - که مجموع دو نتیجه زوج است - در این صورت این واحد اطلاعات اضافی گزینه‌های نتیجه دوم را به یک عدد فرد محدود می‌کند. به عبارت دیگر، دو رویداد می‌توانند مستقل باشند، اما به‌طور مشروط مستقل نیستند.

قد و دایره لغات

قد و دایره لغات وابسته هستند زیرا افراد بسیار کوچک معمولاً کودک هستند و به خاطر واژگان اولیه خود شناخته می‌شوند. اما دانستن اینکه دو نفر ۱۹ ساله هستند (یعنی مشروط به سن) دلیلی وجود ندارد که فکر کنیم دایره لغات یک نفر بزرگتر است اگر به ما گفته شود قد آنها بلندتر است.

سنسور ضد حریق

یک سنسور ضد حریق را در نظر بگیرید که در صورت وجود دود در یک اتاق هشدار می‌دهد. حال رویداد A را هشدار دادن دستگاه، رویداد B را وجود آتش در اتاق و رویداد C را وجود دود در اتاق در نظر بگیرید. آیا رویداد A و B مستقل‌اند؟ خیر؛ زیرا در صورت دانستن رخداد هر کدام، احتمال رخ دادن دیگری افزایش پیدا می‌کند.

فرض کنید به ما گفته شود که رویداد C رخ داده‌است. حال آیا رویداد A و B مستقل‌اند؟ بله؛ زیرا در صورت دانستن رخداد هر کدام، احتمال رخ دادن دیگری تغییری نمی‌کند.

استقلال شرطی متغیرهای تصادفی

دو متغیر تصادفی

X

و

Y

با توجه به سومین متغیر تصادفی گسسته

Z

، به صورت شرطی مستقل هستند اگر و تنها اگر آنها در توزیع احتمال شرطی خود به شرط

Z

مستقل باشند. به این معنا که،

X

و

Y

به شرط

Z

مستقل هستند اگر و فقط اگر، با توجه به هر مقدار از

Z

، توزیع احتمال

X

برای همه مقادیر

Y

و توزیع احتمال

Y

برای همه مقادیر

X

باشند؛ یعنی:

جایی که

FX,YZ=z(x,y)=Pr(Xx,YyZ=z)

تابع توزیع تجمعی

X

و

Y

به شرط

Z

است.

دو رویداد R و B با توجه به جبر σ Σ به صورت شرطی مستقل هستند اگر

Pr(R,BΣ)=Pr(RΣ)Pr(BΣ) a.s.

جایی که Pr(AΣ) نشان دهنده انتظار مشروط تابع شاخص رویداد است A ، χA ، با توجه به جبر سیگما Σ . به این معنا که،

Pr(AΣ):=E[χAΣ].

دو متغیر تصادفی X و Y با توجه به جبر σ یا Σ به صورت شرطی مستقل هستند اگر معادله بالا برای به ازای هر R که در σ(X) و B که در σ(Y) صدق کند.

دو متغیر تصادفی X و Y با توجه به یک متغیر تصادفی، مشروط به W مستقل هستند اگر آنها به شرط (W)σ مستقل باشند که (W)σ جبر σ تولید شده توسط W است؛ یعنی:

XYW یا XYW

این خوانده می‌شود " X مستقل از Y است به شرط W "؛ شرطی شدن برای کل رویداد به صورت زیر اعمال می‌شود: "(X مستقل از Y) به شرط W ".

(XY)W

اگر W مجموعه ای از مقادیر قابل شمارش را فرض شود، این معادل استقلال شرطی X و Y برای رویدادهای به شکل [W=w] است. استقلال شرطی بیش از دو رویداد یا بیش از دو متغیر تصادفی به‌طور مشابه تعریف می‌شود.

دو مثال زیر این را نشان می‌دهد XY نه دلالت دارد و نه به وسیله (XY)W . اول، فرض کنید W با احتمال ۰٫۵ برار ۰ و در غیر این صورت ۱ است. زمانی که W = ۰ است X و Y را دو رویداد مستقل فرض کنید که هر کدام دارای مقدار ۰ با احتمال ۰٫۹۹ و در غیر این صورت مقدار ۱ هستند. زمانی W=1 ، X و Y دوباره مستقل هستند، اما این بار مقدار ۱ را با احتمال ۰٫۹۹ می‌گیرند. پس (XY)W برقرار است. ولی X و Y وابسته هستند، زیرا Pr(X = 0) < Pr(X = 0| Y = ۰). این به این دلیل است که Pr(X = ۰) = ۰٫۵، اما اگر Y = ۰ پس به احتمال بسیار زیاد W = ۰ و بنابراین X = ۰ است و می‌رسیم به Pr(X = 0| Y = ۰) > ۰٫۵.

برای مثال دوم، فرض کنید XY ، هر کدام مقادیر ۰ و ۱ را با احتمال ۰٫۵ می‌گیرند. اجازه دهید W محصول XY باشد. پس از آن زمانی که W=0 ، Pr(X = ۰) = ۲/۳، اما Pr(X = 0| Y = ۰) = ۱/۲، بنابراین (XY)W نادرست است این نیز نمونه ای از Explaining Away است. با توجه به آموزش کوین مورفی[۲] X و Y ارزش‌های «مغز» و «ورزشی» را در نظر بگیرید.

استقلال شرطی بردارهای تصادفی

دو بردار تصادفی 𝐗=(X1,,Xl)T و 𝐘=(Y1,,Ym)T با توجه به بردار تصادفی سوم 𝐙=(Z1,,Zn)T ، به صورت شرطی مستقل هستند اگر و فقط در صورتی که آنها در توزیع تجمعی مشروط به 𝐙 خود مستقل باشند.

جایی که 𝐱=(x1,,xl)T ، 𝐲=(y1,,ym)T و 𝐳=(z1,,zn)T و توزیع‌های تجمعی مشروط به صورت زیر تعریف می‌شوند.

F𝐗,𝐘𝐙=𝐳(𝐱,𝐲)=Pr(X1x1,,Xlxl,Y1y1,,YmymZ1=z1,,Zn=zn)F𝐗𝐙=𝐳(𝐱)=Pr(X1x1,,XlxlZ1=z1,,Zn=zn)F𝐘𝐙=𝐳(𝐲)=Pr(Y1y1,,YmymZ1=z1,,Zn=zn)

موارد استفاده در استنتاج بیزی

فرض کنید p نسبت رأی دهندگانی باشد که در رفراندوم پیش روی «آری» خواهند داد. در انجام یک نظرسنجی ، n رای‌دهنده را به‌طور تصادفی از بین جمعیت انتخاب می‌شوند.X i میتواد ۰ یا ۱ باشد و نشان می‌دهد آیا رای‌دهنده iام رای «بله» می‌دهد یا نه.

در یک رویکرد بیزی به استنتاج آماری، یک توزیع احتمال را به p اختصاص می‌دهیم، و احتمالات را به‌عنوان درجاتی از اعتقاد به این که p در هر بازه‌ای است تفسیر کنیم. که یک احتمال به آن اختصاص داده شده‌است. در آن مدل، متغیرهای تصادفی X 1، …، X n مستقل نیستند، اما با توجه به مقدار p به صورت شرطی مستقل هستند. به‌طور خاص، اگر تعداد زیادی از X‌ها برابر با ۱ مشاهده شود، این به معنای احتمال شرطی بالا است، با توجه به آن مشاهده، که p نزدیک به ۱ است، و بنابراین احتمال شرطی بالا، با توجه به آن مشاهده، که X بعدی که باید مشاهده شود برابر با ۱ خواهد بود.

قوانین استقلال مشروط

مجموعه ای از قواعد حاکم بر بیانیه‌های استقلال مشروط از تعریف اصلی مشتق شده‌است.[۳][۴]

این قواعد توسط پرل و پاز "Axioms Graphoid " نامیده شدند[۵] زیرا در گراف‌ها وجود دارند، جایی که XAB به این معنا تفسیر می‌شود: "همه مسیرها از X تا A توسط مجموعه B قطع می‌شوند ".

تقارن

XYYX

تجزیه

XA,B and {XAXB

اثبات

  • pX,A,B(x,a,b)=pX(x)pA,B(a,b) (معنی XA,B)
  • BpX,A,B(x,a,b)db=BpX(x)pA,B(a,b)db (متغیر B را با ادغام کردن آن نادیده بگیرید)
  • pX,A(x,a)=pX(x)pA(a)

اثبات

اتحادیه ضعیف

XA,B and {XABXBA

اثبات

  • بر اساس فرض، Pr(X)=Pr(XA,B) .
  • به دلیل خاصیت تجزیه XB ، Pr(X)=Pr(XB) .
  • از ترکیب دو برابری فوق به دست می‌آید Pr(XB)=Pr(XA,B) ، که برقرار می‌کند XAB .

شرط دوم را می‌توان به همین ترتیب اثبات کرد.

اختصار

XABXB} and XA,B

اثبات

این خاصیت را می‌توان با توجه ثابت کرد Pr(XA,B)=Pr(XB)=Pr(X) ، که هر برابری آن توسط XAB و XB ، به ترتیب.

تقاطع

برای توزیع‌های احتمال کاملاً مثبت،[۴] موارد زیر نیز صادق است:

XYZ,WXWZ,Y} and XW,YZ

با فرض:

P(X|Z,W,Y)=P(X|Z,W)P(X|Z,W,Y)=P(X|Z,Y)P(X|Z,Y)=P(X|Z,W)

با استفاده از این برابری، همراه با قانون احتمال کل در P(X|Z) اعمال می‌شود:

P(X|Z)=wWP(X|Z,W=w)P(W=w|Z)=wWP(X|Y,Z)P(W=w|Z)=P(X|Z,Y)wWP(W=w|Z)=P(X|Z,Y)

از آنجا که P(X|Z,W,Y)=P(X|Z,Y) و P(X|Z,Y)=P(X|Z) ، نتیجه می‌شود که P(X|Z,W,Y)=P(X|Z)XY,W|Z .

نکته فنی: از آنجایی که این مفاهیم برای هر فضای احتمالی صدق می‌کنند، اگر کسی یک جهان فرعی را با شرطی کردن همه چیز بر روی متغیر دیگری در نظر بگیرد، همچنان پابرجا خواهد بود. ک. مثلاً، XYYX همچنین به این معنی است که XYKYXK .

جستارهای وابسته

منابع

الگو:پانویس

پیوند به بیرون

الگو:Commonscat-inline

  1. To see that this is the case, one needs to realise that Pr(RB | Y) is the probability of an overlap of R and B (the purple shaded area) in the Y area. Since, in the picture on the left, there are two squares where R and B overlap within the Y area, and the Y area has twelve squares, Pr(RB | Y) = الگو:Sfrac = الگو:Sfrac. Similarly, Pr(R | Y) = الگو:Sfrac = الگو:Sfrac and Pr(B | Y) = الگو:Sfrac = الگو:Sfrac.
  2. الگو:Cite web
  3. الگو:Cite journal
  4. ۴٫۰ ۴٫۱ J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  5. الگو:Cite web