ماشین بولتزمن محدود شده

یک ماشین بولتزمن محدود (RBM) یک شبکه عصبی مصنوعی تصادفی مولد است که میتواند توزیع احتمال از مجموعه ورودیهای بیاموزد.
RBMها ابتدا با نام هارمونیوم توسط پل اسمولنسکی در سال ۱۹۸۶ اختراع شدند، و در اواسط سال ۲۰۰۰، پس از آنکه جفری هینتون و همکارانش که الگوریتمهای یادگیری سریع را برایش اختراع کردند، به شهرت رسیدند. RBMها کاربردهایی در کاهش ابعاد،[۱] طبقهبندی، پالایش گروهی، یادگیری ویژگی، مدل عناوین[۲] و حتی سیستم چندپیکره کوانتومی پیدا کردهاند.[۳][۴] بسته کاربرد، آنها را میتوان به دو روش تحت نظارت یا بدون نظارت آموزش داد.
همانطور که از نام آنها پیداست، RBMها گونه ای از ماشینهای بولتزمن هستند، با این محدودیت که نورونهای آنها باید یک نمودار دوبخشی تشکیل دهند به این معنا که یک جفت نورون از هر دو بخش (که معمولاً به عنوان واحد «مرئی» و واحد «پنهان» نامیده میشود) ممکن است یک ارتباط متقارن داشته باشد. ولی هیچ ارتباطی بین واحدهای درون یک بخش وجود ندارد.
در مقابل، ماشینهای بولتزمن «نامحدود» میتوانند اتصالاتی بین واحدهای پنهان داشته باشند. این محدودیت باعث کارآمدتر شدن الگوریتمهای آموزشی (نسبت به کلاس عمومی ماشینهای بولتزمن) میشود؛ این امر به ویژه برای الگوریتم واگرایی متضاد
گرادیان کاهشی، صادق است.[۵]
ماشینهای محدود بولتزمن را میتوان در شبکههای یادگیری عمیق نیز استفاده کرد. بهویژه، شبکههای باور عمیق را میتوان با «انباشته کردن» RBMها ایجاد کرد و با تنظیم دقیق شبکه عمیق (با نزول گرادیان و انتشار پسانداز) میتوان آن را بهبود داد.[۶]
ساختار
نوع استاندارد RBM دارای واحدهای پنهان و مرئی با ارزش دودویی (بولی) است. این ماشین شامل ماتریسی از وزنها، از اندازه ، میباشد. هر عنصر ماتریس وزن نماینده یک یال بین یک واحد مرئی (ورودی) و یک واحد پنهان میباشد. علاوه بر این، وزنهای بایاس برای و برای وجود دارند.
با توجه به وزنها و بایاسها، "انرژی" یک پیکربندی (جفت بردار بولی) الگو:ریاضی به صورت زیر تعریف میشود.
یا در به صورت ماتریسی،
این تابع انرژی مشابه تابع شبکه هاپفیلد است. همانند ماشینهای بولتزمن عمومی، توزیع احتمال توأم برای بردارهای مرئی و پنهان بر حسب تابع انرژی به صورت زیر تعریف میشود،[۷]
که در آن یک تابع پارتیشن میباشد که به عنوان مجموع برای تمام پیکربندی تعریف میشود. این تعریف را میتواند به عنوان یک ثابت بهنجارسازی کننده تفسیر کرد تا اطمینان حاصل شود که مجموع احتمالات برابر با ۱ است. توزیع حاشیه ای یک بردار مرئی مجموع بر روی تمام پیکربندیهای لایه پنهان ممکن میباشد.[۷]
- ،
و بالعکس. از آنجایی که ساختار گراف زیربنایی RBM دو بخشی است (به این معنی که هیچ اتصال درون لایه ای وجود ندارد)، با توجه به فعال سازی واحدهای قابل مشاهده، فعال سازیهای واحد پنهان متقابلاً مستقل هستند. از طرف دیگر، فعالسازیهای واحد مرئی با توجه به فعالسازیهای واحد پنهان، متقابلاً مستقل هستند.[۵]
یعنی برای m واحد مرئی و n واحد پنهان، احتمال شرطی پیکربندی واحدهای مرئی الگو:Mvar، با توجه به پیکربندی واحدهای پنهان الگو:Mvar، برابر است با
- .
برعکس، احتمال شرطی الگو:Mvar با فرض الگو:Mvar برابر هست با
- .
احتمال فعال سازی فردی برابر است با
- و
جایی که نشان دهنده تابع سیگموئید لجستیک میباشد.
واحدهای مرئی ماشین محدود شده بولتزمن میتوانند توزیع چندجملهای داشته باشند، اگرچه واحدهای پنهان برنولی هستند.الگو:نیازمند شفافسازی در این مورد، تابع لجستیک برای واحدهای مرئی با تابع softmax جایگزین میشود.
که در آن K تعداد مقادیر گسستهای است که مقادیر مرئی دارند. آنها در مدلسازی موضوع،[۲] و سامانه توصیهگر به کار میروند.
ارتباط با مدلهای دیگر
ماشینهای بولتزمن محدود شده مورد خاصی از ماشینهای بولتزمن و میدان تصادفی مارکوفی میباشد.[۸][۹] مدل گرافیکی آنها با مدل تحلیل عاملی مطابقت دارد.[۱۰]
الگوریتم یادگیری
ماشینهای محدود بولتزمن آموزش داده میشوند که حاصل ضرب احتمالهای اختصاص داده شده به مجموعه به حداکثر برسانند.
یک راهنمای عملی برای آموزش RBMها توسط هینتون نوشته شدهاست که آن را میتوان در صفحه اصلی وی یافت.[۷]
ادبیات
جستارهای وابسته
- رمزگذار خودکار
- دستگاه هلمهولتز
منابع
- ↑ الگو:Cite journal
- ↑ ۲٫۰ ۲٫۱ Ruslan Salakhutdinov and Geoffrey Hinton (2010). Replicated softmax: an undirected topic model الگو:Webarchive. Neural Information Processing Systems 23.
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ ۵٫۰ ۵٫۱ Miguel Á. Carreira-Perpiñán and Geoffrey Hinton (2005). On contrastive divergence learning. Artificial Intelligence and Statistics.
- ↑ الگو:Cite journal
- ↑ ۷٫۰ ۷٫۱ ۷٫۲ Geoffrey Hinton (2010). A Practical Guide to Training Restricted Boltzmann Machines. UTML TR 2010–003, University of Toronto.
- ↑ الگو:Cite journal
- ↑ Asja Fischer and Christian Igel. Training Restricted Boltzmann Machines: An Introduction الگو:Webarchive. Pattern Recognition 47, pp. 25-39, 2014
- ↑ الگو:Cite journal
پیوند به بیرون
- Introduction to Restricted Boltzmann Machines. Edwin Chen's blog, July 18, 2011.
- الگو:Cite web. Deeplearning4j Documentation
- الگو:Cite web. Deeplearning4j Documentation
- Python implementation of Bernoulli RBM and tutorial
- SimpleRBM is a very small RBM code (24kB) useful for you to learn about how RBMs learn and work.
- Julia implementation of Restricted Boltzmann machines: https://github.com/cossio/RestrictedBoltzmannMachines.jl