ماشین بولتزمن محدود شده

از testwiki
پرش به ناوبری پرش به جستجو

الگو:یادگیری ماشین

نمودار یک ماشین بولتزمن محدود با سه واحد مرئی و چهار واحد پنهان (بدون واحد بایاس).

یک ماشین بولتزمن محدود (RBM) یک شبکه عصبی مصنوعی تصادفی مولد است که می‌تواند توزیع احتمال از مجموعه ورودی‌های بیاموزد.

RBMها ابتدا با نام هارمونیوم توسط پل اسمولنسکی در سال ۱۹۸۶ اختراع شدند، و در اواسط سال ۲۰۰۰، پس از آنکه جفری هینتون و همکارانش که الگوریتم‌های یادگیری سریع را برایش اختراع کردند، به شهرت رسیدند. RBMها کاربردهایی در کاهش ابعاد،[۱] طبقه‌بندی، پالایش گروهی، یادگیری ویژگی، مدل عناوین[۲] و حتی سیستم چندپیکره کوانتومی پیدا کرده‌اند.[۳][۴] بسته کاربرد، آنها را می‌توان به دو روش تحت نظارت یا بدون نظارت آموزش داد.

همان‌طور که از نام آنها پیداست، RBMها گونه ای از ماشین‌های بولتزمن هستند، با این محدودیت که نورون‌های آنها باید یک نمودار دوبخشی تشکیل دهند به این معنا که یک جفت نورون از هر دو بخش (که معمولاً به عنوان واحد «مرئی» و واحد «پنهان» نامیده می‌شود) ممکن است یک ارتباط متقارن داشته باشد. ولی هیچ ارتباطی بین واحدهای درون یک بخش وجود ندارد.

در مقابل، ماشین‌های بولتزمن «نامحدود» می‌توانند اتصالاتی بین واحدهای پنهان داشته باشند. این محدودیت باعث کارآمدتر شدن الگوریتم‌های آموزشی (نسبت به کلاس عمومی ماشین‌های بولتزمن) می‌شود؛ این امر به ویژه برای الگوریتم واگرایی متضاد

گرادیان کاهشی، صادق است.[۵]

ماشین‌های محدود بولتزمن را می‌توان در شبکه‌های یادگیری عمیق نیز استفاده کرد. به‌ویژه، شبکه‌های باور عمیق را می‌توان با «انباشته کردن» RBMها ایجاد کرد و با تنظیم دقیق شبکه عمیق (با نزول گرادیان و انتشار پس‌انداز) می‌توان آن را بهبود داد.[۶]

ساختار

نوع استاندارد RBM دارای واحدهای پنهان و مرئی با ارزش دودویی (بولی) است. این ماشین شامل ماتریسی از وزن‌ها، W از اندازه m×n، می‌باشد. هر عنصر ماتریس وزن (wi,j) نماینده یک یال بین یک واحد مرئی (ورودی) vi و یک واحد پنهان hj می‌باشد. علاوه بر این، وزن‌های بایاس ai برای vi و bj برای hj وجود دارند.

با توجه به وزن‌ها و بایاس‌ها، "انرژی" یک پیکربندی (جفت بردار بولی) الگو:ریاضی به صورت زیر تعریف می‌شود.

E(v,h)=iaivijbjhjijviwi,jhj

یا در به صورت ماتریسی،

E(v,h)=aTvbThvTWh.

این تابع انرژی مشابه تابع شبکه هاپفیلد است. همانند ماشین‌های بولتزمن عمومی، توزیع احتمال توأم برای بردارهای مرئی و پنهان بر حسب تابع انرژی به صورت زیر تعریف می‌شود،[۷]

P(v,h)=1ZeE(v,h)

که در آن Z یک تابع پارتیشن می‌باشد که به عنوان مجموع eE(v,h) برای تمام پیکربندی تعریف می‌شود. این تعریف را می‌تواند به عنوان یک ثابت بهنجارسازی کننده تفسیر کرد تا اطمینان حاصل شود که مجموع احتمالات برابر با ۱ است. توزیع حاشیه ای یک بردار مرئی مجموع P(v,h) بر روی تمام پیکربندی‌های لایه پنهان ممکن می‌باشد.[۷]

P(v)=1Z{h}eE(v,h) ،

و بالعکس. از آنجایی که ساختار گراف زیربنایی RBM دو بخشی است (به این معنی که هیچ اتصال درون لایه ای وجود ندارد)، با توجه به فعال سازی واحدهای قابل مشاهده، فعال سازی‌های واحد پنهان متقابلاً مستقل هستند. از طرف دیگر، فعال‌سازی‌های واحد مرئی با توجه به فعال‌سازی‌های واحد پنهان، متقابلاً مستقل هستند.[۵]

یعنی برای m واحد مرئی و n واحد پنهان، احتمال شرطی پیکربندی واحدهای مرئی الگو:Mvar، با توجه به پیکربندی واحدهای پنهان الگو:Mvar، برابر است با

P(v|h)=i=1mP(vi|h) .

برعکس، احتمال شرطی الگو:Mvar با فرض الگو:Mvar برابر هست با

P(h|v)=j=1nP(hj|v) .

احتمال فعال سازی فردی برابر است با

P(hj=1|v)=σ(bj+i=1mwi,jvi)
و
P(vi=1|h)=σ(ai+j=1nwi,jhj)

جایی که σ نشان دهنده تابع سیگموئید لجستیک می‌باشد.

واحدهای مرئی ماشین محدود شده بولتزمن می‌توانند توزیع چندجمله‌ای داشته باشند، اگرچه واحدهای پنهان برنولی هستند.الگو:نیازمند شفاف‌سازی در این مورد، تابع لجستیک برای واحدهای مرئی با تابع softmax جایگزین می‌شود.

P(vik=1|h)=exp(aik+ΣjWijkhj)Σk=1Kexp(aik+ΣjWijkhj)

که در آن K تعداد مقادیر گسسته‌ای است که مقادیر مرئی دارند. آنها در مدل‌سازی موضوع،[۲] و سامانه توصیه‌گر به کار می‌روند.

ارتباط با مدل‌های دیگر

ماشین‌های بولتزمن محدود شده مورد خاصی از ماشین‌های بولتزمن و میدان تصادفی مارکوفی می‌باشد.[۸][۹] مدل گرافیکی آن‌ها با مدل تحلیل عاملی مطابقت دارد.[۱۰]

الگوریتم یادگیری

ماشین‌های محدود بولتزمن آموزش داده می‌شوند که حاصل ضرب احتمال‌های اختصاص داده شده به مجموعه به حداکثر برسانند.

یک راهنمای عملی برای آموزش RBMها توسط هینتون نوشته شده‌است که آن را می‌توان در صفحه اصلی وی یافت.[۷]

ادبیات

جستارهای وابسته

منابع

  1. الگو:Cite journal
  2. ۲٫۰ ۲٫۱ Ruslan Salakhutdinov and Geoffrey Hinton (2010). Replicated softmax: an undirected topic model الگو:Webarchive. Neural Information Processing Systems 23.
  3. الگو:Cite journal
  4. الگو:Cite journal
  5. ۵٫۰ ۵٫۱ Miguel Á. Carreira-Perpiñán and Geoffrey Hinton (2005). On contrastive divergence learning. Artificial Intelligence and Statistics.
  6. الگو:Cite journal
  7. ۷٫۰ ۷٫۱ ۷٫۲ Geoffrey Hinton (2010). A Practical Guide to Training Restricted Boltzmann Machines. UTML TR 2010–003, University of Toronto.
  8. الگو:Cite journal
  9. Asja Fischer and Christian Igel. Training Restricted Boltzmann Machines: An Introduction الگو:Webarchive. Pattern Recognition 47, pp. 25-39, 2014
  10. الگو:Cite journal

پیوند به بیرون

الگو:مستند کردن