استنتاج الگوریتمی

از testwiki
نسخهٔ تاریخ ۱۳ مارس ۲۰۲۵، ساعت ۰۴:۴۴ توسط imported>DarafshBot (تصحیح خطاهای رایج با استفاده از AWB)
(تفاوت) → نسخهٔ قدیمی‌تر | نمایش نسخهٔ فعلی (تفاوت) | نسخهٔ جدیدتر ← (تفاوت)
پرش به ناوبری پرش به جستجو

استنتاج الگوریتمی پیشرفت‌های جدیدی را در روش‌های استنباط آماری حاصل می‌کند تا توسط دستگاه‌های محاسباتی قوی که به طور گسترده در دسترس هر تحلیلگر داده ای است، امکان‌پذیر باشد. سنگ بنای این رشته شامل تئوری یادگیری محاسباتی ، محاسبات دانه ای ، بیوانفورماتیک است و برای مدت ها پیش، احتمال ساختاری الگو:Harvard citation نیز جزء این دسته بود . تمرکز اصلی بر روی الگوریتم‌هایی است که آمار را بر اساس یک پدیده تصادفی ریشه‌یابی می‌کنند و مقدار داده‌هایی را که باید از آنها تغذیه شود تا نتایج قابل اعتمادی بدست آید، محاسبه می‌کنند. این موضوع علاقه ریاضیدانان را از مطالعه قوانین توزیع به ویژگی های عملکردی آمار و علاقه دانشمندان کامپیوتر را از الگوریتم های پردازش داده ها به اطلاعاتی که آنها پردازش می کنند تغییر داد.

مسئله استنتاج پارامتریکی فیشر

در مورد شناسایی پارامترهای یک قانون توزیع، خواننده آگاه ممکن است مناقشات طولانی را در اواسط قرن بیستم در مورد تفسیر تنوع آن ها از نظر توزیع اعتباری الگو:Harvard citation، احتمالات ساختاری الگو:Harvard citation، پیشین/پسین هاالگو:Harvard citation و . . . به یاد آورد. از دیدگاه معرفت‌شناسی ، این امر مستلزم اختلاف نظر در مورد ماهیت احتمال بود: آیا این ویژگی فیزیکی پدیده‌ها است که از طریق متغیرهای تصادفی توصیف می شود یا یک روش برای سنتز داده ها درباره یک پدیده است؟ فیشر با انتخاب دومین مورد، قانون توزیع اعتباری پارامترهای یک متغیر تصادفی معین را که توسط نمونه ای از مشخصات آن استنباط کرد تعریف می کند . برای مثال، او با این قانون محاسبه می‌کند: «احتمالی که μ (میانگین یک متغیر گوسی – یادداشت omeur) کمتر از هر مقدار تخصیص داده شده باشد یا احتمالی که بین هر مقدار تخصیص داده شده باشد، یا به طور خلاصه، توزیع احتمال آن در نمونه در نظر گرفته شده».

راه حل کلاسیک

فیشر سخت مبارزه کرد تا از تفاوت و برتری مفهوم خود از توزیع پارامتر در مقایسه با مفاهیم مشابه ای چون توزیع پسین بیز، احتمال سازنده فرزر و فواصل اطمینان نیمن دفاع کند. برای نیم قرن، فواصل اطمینان نیمن برای تمام اهداف عملی برنده شد و ماهیت پدیدارشناختی احتمالات را اعتبار بخشید. با این دیدگاه، وقتی با یک متغیر گوسی سروکار دارید، میانگین μ توسط ویژگی‌های فیزیکی پدیده‌ای که مشاهده می‌کنید در واقع در جایی که مشاهدات، عملگرهای تصادفی هستند ثابت می‌شود. بنابراین مقادیر مشاهده‌شده، مشخصات یک نمونه تصادفی هستند. به دلیل تصادفی بودن آن‌ها، می‌توانید فواصل زمانی خاص نمونه حاوی μ ثابت را با احتمال معینی که نشان دهنده اطمینان است، محاسبه کنید.

مثال

فرض کنید X، متغیری گوسی [۱] با پارامتر μ و σ2 است و {X1,,Xm} نمونه ای که از آن گرفته شده است، می باشد . کار با آماره :

Sμ=i=1mXi

و

Sσ2=i=1m(XiX)2, where X=Sμm

میانگین نمونه است، پی می بریم که

T=SμmμSσ2m1m=XμSσ2/(m(m1))

از توزیع تی-استیودنت الگو:Harvard citation با پارامتر (درجه های آزادی) m - 1 پیروی می کند، به طوری که

fT(t)=Γ(m/2)Γ((m1)/2)1π(m1)(1+t2m1)m/2.

T را بین دو چندک اندازه گیری کرده و عبارت آن را به عنوان تابعی از μ نمایش دهید و فواصل اطمینان را برای μ بدست آورید.

با مشخصات نمونه:

𝐱={7.14,6.3,3.9,6.46,0.2,2.94,4.14,4.69,6.02,1.58}

با داشتن m = 10، آماره sμ=43.37 و sσ2=46.07 را محاسبه می کنید، و فاصله اطمینان 0.90 را برای μ با حدود (3.03,5.65) بدست می آورید.

استنتاج توابع با کمک کامپیوتر

از دیدگاه مدل سازی، اختلاف کلی مانند دوراهی مرغ و تخم مرغ به نظر می رسد:

اول داده های ثابت و توزیع احتمال ویژگی آنها به عنوان یک نتیجه و یا اول ویژگی های ثابت و توزیع احتمال داده های مشاهده شده به عنوان نتیجه در نظر می گیریم. راه حل کلاسیک یک مزیت و یک اشکال دارد. زمانی که مردم هنوز محاسبات را با کاغذ و مداد انجام می‌دادند، از مورد اول به ویژه استقبال شد. فی النفسه، کار محاسبه فاصله اطمینان نیمن برای پارامتر ثابت θ سخت است: شما θ را نمی‌دانید، اما به دنبال از بین بردن فاصله‌ای با احتمالی بسیار کم شکست هستید. راه حل تحلیلی برای تعداد بسیار محدودی از موارد تئوری، قابل اجرا است. درمقابل، طیف وسیعی از نمونه‌ها را می‌توان سریع به روشی تقریبی با قضیه حد مرکزی از نظر فاصله اطمینان حول یک توزیع گوسی حل کرد - این خود یک مزیت محسوب می شود. مشکل در این است که قضیه حد مرکزی زمانی قابل اعمال خواهد بود که حجم نمونه به اندازه کافی بزرگ باشد. بنابراین برای نمونه مربوط به نمونه های استنتاج نوین کاربرد بسیار کمی دارد. در واقع مشکل به خودی خود در اندازه نمونه نیست بلکه این اندازه به دلیل پیچیدگی مسئله استنتاج به اندازه کافی بزرگ نیست.

منابع

الگو:پانویس

  1. By default, capital letters (such as U, X) will denote random variables and small letters (u, x) their corresponding specifications.