آنتروپی شرطی

از testwiki
نسخهٔ تاریخ ۳۰ آوریل ۲۰۲۴، ساعت ۱۸:۲۵ توسط imported>Maya.gh.hs
(تفاوت) → نسخهٔ قدیمی‌تر | نمایش نسخهٔ فعلی (تفاوت) | نسخهٔ جدیدتر ← (تفاوت)
پرش به ناوبری پرش به جستجو
X . قسمت بنفش نیز اطلاعات متقابل بین (I(X;Y می باشد

در نظریه اطلاعات ، آنتروپی شرطی مقدار اطلاعاتی را اندازه می گیرد که نیاز هست تا خروجی یک متغیر تصادفی Y را توصیف کند به شرط اینکه مقدار یک متغیر تصادفی دیگر X  مشخص باشد.  در اینجا اطلاعات با معیار شنون ، nats یا  hartleys اندازه گرفته می‌شود . آنتروپی  Y به شرط  X به صورت  H(Y|X) نمایش داده می شود.

تعریف

اگر H(Y|X=x)آنتروپی متغیر Y به شرط متغیر  X که مقدار مشخص  x را میگیرد باشد ، آنگاه H(Y|X) نتیجه متوسط گیری روی تمام مقادیر ممکن برای X است.

متغیر تصادفی گسسته  X با تصویر 𝒳 و Y با تصویر 𝒴 با فرض مشخص بودن X ، آنتروپی شرطی Y به شرط X به صورت زیر تعریف می شود: (مستقیما ،عبارت زیر می‌تواند به صورت حمع وزن دار H(Y|X=x) روی تمام مقادیر ممکن  x با استفاده وزن های p(x) تعبیر شود. )[۱]

H(Y|X) x𝒳p(x)H(Y|X=x)=x𝒳p(x)y𝒴p(y|x)logp(y|x)=x𝒳y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(x,y)p(x).=x𝒳,y𝒴p(x,y)logp(x)p(x,y).

توجه : توجه شود که عبارات (0log0) و (0log(c/0)) برای یک c>0 و ثابت باید برابرصفر قرار داده شود.

H(Y|X)=0اگر و تنها اگر مقدار Y به طور کامل به دانستن مقدار X مشخص شود. برعکس H(Y|X)=H(Y) اگر و تنها اگر Y وX دو  متغیر تصادفی مستقل باشند.

قاعده زنجیره ای 

سیستم ترکیبی که توسط دو متغیر تصادفی X و Y با آنتروپی مشترک H(X,Y) مشخص می‌شود را فرض کنید. مقدار H(X,Y) بیت برای توصیف دقیق حالت این سیستم نیاز است. حال اگر ما در ابتدا مقدار X را یاد بگیرم در حقیقت H(X) بیت از اطلاعات را بدست آورده ایم. زمانی که X شناخته شده باشد ، تنها به H(X,Y)H(X) بیت برای توصیف حالت سیستم نیاز است. این مقدار دقیقاً برابر H(Y|X) است که قاعده ی زنجیره ای مربوط به آنتروپی شرطی را نتیجه می دهد :

H(Y|X)=H(X,Y)H(X).

قاعده ی زنجیری از تعریف آنتروپی شرطی بالا نتیجه می شود:

H(Y|X)=x𝒳,y𝒴p(x,y)log(p(x)p(x,y))=x𝒳,y𝒴p(x,y)log(p(x,y))+x𝒳,y𝒴p(x,y)log(p(x))=H(X,Y)+x𝒳p(x)log(p(x))=H(X,Y)H(X).

به طور کلی ، قاعده زنچیری برای چندین متغیر تصادفی نتیجه می دهد :

H(X1,X2,,Xn)=i=1nH(Xi|X1,,Xi1)

این یک فرم شبیه به قاعده زنجیری در نظریه آمار و احتمال دارد ، به جز اینکه به جای ضرب از جمع استفاده شده.

قانون Bayes

قانون بیز در مورد آنتروپی شرطی بیان می کند که :

H(Y|X)=H(X|Y)H(X)+H(Y).

اثبات:الگو:سخH(Y|X)=H(X,Y)H(X) و H(X|Y)=H(Y,X)H(Y). از تقارن داریم که  H(X,Y)=H(Y,X). تقاضل دو معادله ، قانون بیز را نتیجه می دهد .

اگر Y با فرض مشخص بودن X از  Z مستقل شرطی باشد ، داریم:

H(Y|X,Z)=H(Y|X).

تعمیم به نظریه کوانتومی

در نظریه کوانتومی اطلاعات ، آنتروپی شرطی به  آنتروپی کوانتومی شرطی تعمیم داده می شود. این نمونه ی تعمیم یافته برخلاف مقدار کلاسیک آن می‌تواند مقدار منفی به خود بگیرد . از آنچایی که  H(X,Y)H(Y,X) قانون بیز برای آنروپی کوانتومی شرطی صادق نیست.الگو:مدرک

خواص دیگر

برای هرX و Y:

H(Y|X)H(Y)H(X,Y)=H(X|Y)+H(Y|X)+I(X;Y),H(X,Y)=H(X)+H(Y)I(X;Y),I(X;Y)H(X),

که در آنI(X;Y) اطلاعات متقابل بین X و Y هست.

برای دو متغیر مستقل X و Y :

H(Y|X)=H(Y) and H(X|Y)=H(X)

اگر چه آنتروپی شرطی خاصH(X|Y=y) می‌تواند کمتر یا بیشتر ازH(X) باشد،H(X|Y)هرگز نمی‌تواند بیش ازH(X) باشد.

همچنین نگاه کنید

منابع

الگو:پانویس