آنتروپی مشترک

از testwiki
پرش به ناوبری پرش به جستجو

در نظریه اطلاعات، آنتروپی مشترک معیاری است برای بیان میزان ابهام در مورد مجموعه‌ای از متغیرهای تصادفی.

یک نمودار ون که به‌طور نمادین رابطه معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان می‌دهد.

تعریف

آنتروپی (شانون) مشترک دو متغیر تصادفی X و Y (بر حسب بیت) به صورت زیر تعریف می گردد:

H(X,Y)=xyP(x,y)log2[P(x,y)]

که در آن x و y نشان دهنده مقدارهایی هستند که متغیرهای تصادفی X و Y اختیار می‌کنند و P(x,y) نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر P(x,y)=0 باشد، مقدار P(x,y)log2[P(x,y)] برابر صفر تعریف می‌شود.

برای تعداد بیشتر متغیرهای تصادفی، تعریف به صورت زیر تعمیم می یابد:

H(X1,...,Xn)=x1...xnP(x1,...,xn)log2[P(x1,...,xn)]

که در آن x1,...,xn نشان دهنده مقدارهایی هستند که متغیرهای تصادفی X1,...,Xn اختیار می‌کنند و P(x1,...,xn) نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر P(x1,...,xn)=0 باشد، مقدار P(x1,...,xn)log2[P(x1,...,xn)] برابر صفر تعریف می‌شود.

خواص

بزرگتر مساوی آنتروپی‌های تکی

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی بزرگتر یا مساوی تک تک آنتروپی‌های هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد، یعنی:

H(X,Y)max[H(X),H(Y)]

H(X1,...,Xn)max[H(X1),...,H(Xn)]

کوچکتر مساوی مجموع آنتروپی‌های تکی

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی کوچکتر یا مساوی مجموع آنتروپی‌های تکی هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد. نامساوی‌های زیر تنها در صورتی تبدیل به تساوی می‌شوند که X و Y از لحاظ آماری از یکدیگر مستقل باشند.

H(X,Y)H(X)+H(Y)

H(X1,...,Xn)H(X1)+...+H(Xn)

رابطه با دیگر معیارهای نظریه اطلاعات

آنتروپی مشترک با آنتروپی شرطی به صورت روابط زیر رابطه دارند:

H(X|Y)=H(Y,X)H(Y)

و

H(X1,,Xn)=k=1nH(Xk|Xk1,,X1)

همچنین آنتروپی مشترک به صورت زیر دارای رابطه با mutual information می‌باشد

I(X;Y)=H(X)+H(Y)H(X,Y)

منابع

الگو:پانویس