نرمال‌سازی دسته‌ای

از testwiki
نسخهٔ تاریخ ۸ اوت ۲۰۲۴، ساعت ۱۳:۳۸ توسط imported>Lvova (ویکی‌پدیا:ویکی‌پروژه تصحیح ویکی‌پدیا، typos fixed: آنرا ← آن را، بصورت ← به‌صورت (3)، بطور ← به‌طور، به طور ← ب با استفاده از AWB)
(تفاوت) → نسخهٔ قدیمی‌تر | نمایش نسخهٔ فعلی (تفاوت) | نسخهٔ جدیدتر ← (تفاوت)
پرش به ناوبری پرش به جستجو

نرمال سازی دسته ای یا batch normalization یک تکنیک است که روی ورودی هر لایه شبکه عصبی مصنوعی اعمال می شود که از طریق تغییر مرکز توزیع دیتاها یا تغییر دادن مقیاس آنها موجب سریعتر و پایدارتر شدن شبکه عصبی می شود.این تکنیک در سال 2015 توسط سرگئی یوفه وکریستین سگدی معرفی شد.[۱]

تاثیر کارایی این روش هنوز به‌طور دقیق مشخص نیست ولی باور دارند که موجب کاهش اثر شیفت توزیع داخلی یا internal covariate shift می شود. به این صورت که وقتی خروجی یک لایه شبکه میخواهد وارد ورودی شبکه دیگر بشود،به وسیله ی تابع فعال ساز ممکن است شکل توزیع به هم بخورد و هر بار این شکل توزیع در بهینه سازی پارامترهای لایه بعد نیز مؤثر باشد، ولی وقتی از نرمال سازی دسته ای استفاده می شود،اثر توزیع گرفته می شود.[۲] با این وجود نرمال سازی دسته ای موجب انفجار گرادیانت می شود که توسط اقداماتی از جمله اتصال پرشی در شبکه های باقی مانده یا residual network حل می شود.[۳] امروزه روش هایی از جمله گرادیانت کلیپینگ و تنظیم کننده هوشمند ابرپارامترها درکنار ویا بجای نرمال سازی دسته ای استفاده می شوند و ضعف های این روش را پوشش می دهند.[۳][۴]

اثر شیفت توزیع داخلی یا internal covariate shift

داده های آموزش
داده های تست

به تغییر توزیع ورودی در سیستم های یادگیری اثر شیفت توزیع می گوییم. حال اگر این اتفاق در سطح نورون ها در شبکه عصبی اتفاق بیفتد،آن را اثر شیفت توزیع داخلی می نامیم.

این موضوع در تمامی شبکه های عصبی به‌صورت کم و بیش وجود دارد ولی وقتی شبکه نورن ها طویل می شود، آنگاه نمود بیشتری پیدا می کند، درست مانند داستان یک کلاغ و چهل کلاغ. یکی از مثال های کلاسیک در این زمینه عبارت است از زمانی که در شبکه عصبی، داده های آموزش ما همگی به‌صورت سیاه و سفید باشد ولی در زمان تست داده هایی به‌صورت رنگی و ... بدهیم. این مسئله باعث می شود مدل ما کارایی خود را به دلیل مشکل اثر شیفت توزیع داخلی از دست بدهد.[۵] بنابراین، روش نرمال سازی دسته ای برای کاهش این جابجایی های ناخواسته برای سرعت بخشیدن به آموزش و تولید مدل های قابل اعتمادتر پیشنهاد شده است.

تغیر توزیع داده ها در طی لایه های شبکه عصبی

اعتقاد بر این است که علاوه بر کاهش تغییر متغیر داخلی، نرمال سازی دسته ای مزایای دیگری نیز به همراه دارد. با این عملیات اضافی، شبکه می‌تواند از نرخ یادگیری بالاتر بدون ناپدید شدن یا انفجار شیب استفاده کند. علاوه بر این، به نظر می‌رسد نرمال‌سازی دسته‌ای یک اثر منظم‌کننده دارد، به‌طوری که شبکه ویژگی‌های تعمیم آن را بهبود می‌بخشد، و بنابراین استفاده از حذف برای کاهش بیش‌برازش غیرضروری است. همچنین مشاهده شده است که با نرمال سازی دسته ای ، شبکه نسبت به طرح های مختلف اولیه سازی و نرخ های یادگیری انعطاف پذیرتر می شود.

روش کار

انتقال

در یک شبکه عصبی، نرمال سازی دسته ای از طریق یک مرحله نرمال سازی حاصل می شود که میانگین ها و واریانس های ورودی های هر لایه را ثابت(میانگین صفر و واریانس یک مرسوم است.) می کند. در حالت ایده‌آل، نرمال‌سازی در کل مجموعه داده های آموزش انجام می‌شود، اما گاهی اوقات که ما از روش های بهینه سازی مثلا بهینه سازی تصادفی استفاده می کنیم،این عمل ممکن نیست. بنابراین، نرمال سازی به دسته های کوچک یا به اصطلاح mini-batch در فرایند آموزش محدود می شود.

در معادلات زیر میانگین و واریانس هر دسته کوچک به دست آمده است.B نشان دهنده ی هر دسته کوچک و m نشان دهنده ی سایز آن است:

μB=1mi=1mxi و σB2=1mi=1m(xiμB)2.

برای یک لایه شبکه با بعد d ، ما در ورودی x=(x(1),...,x(d)) ،هر بعد را جداگانه نرمال سازی می کنیم:

x^i(k)=xi(k)μB(k)(σB(k))2+ϵ

ϵ یک عدد بسیار کوچک است که به منظور صفر نشدن مخرج در نظر گرفته می شود. همچنین زمانی که بخواهیم از دیتای نرمال شده به دیتای اصلی برگردیم،باید از تبدیل yi(k)=γ(k)x^i(k)+β(k) استفاده کنیم. که γ(k) و β(k) به صورت متوالی در طی آموزش،بهینه می شوند.

شمایی از پس انتشار در شبکه های عصبی

پس انتشار

پس انتشار به پدیده ای گفته می شود که در شبکه های عصبی از طریق محاسبه مقدار تابع هزینه و قاعده زنجیره ای سعی در بهینه سازی ضرایب نورون ها دارد.[۶] حال در این قسمت ما قصد داریم پیاده سازی نرمال سازی دسته ای را در آن نشان دهیم.lyi(k) وابسته به انتخاب تابع فعال ساز ما است:

lx^i(k)=lyi(k)γ(k) و lγ(k)=i=1mlyi(k)x^i(k) و lβ(k)=i=1mlyi(k)

lσB(k)2=i=1mlyi(k)(xi(k)μB(k))(γ(k)2(σB(k)2+ϵ)3/2) و lμB(k)=i=1mlyi(k)γ(k)σB(k)2+ϵ+lσB(k)21mi=1m(2)(xi(k)μB(k))

و در نهایت lxi(k)=lx^i(k)1σB(k)2+ϵ+lσB(k)22(xi(k)μB(k))m+lμB(k)1m

همچنین ببینید

توزیع نرمال

توزیع نرمال چند متغیره

منابع

الگو:پانویس

  1. الگو:Cite journal
  2. الگو:یادکرد وب
  3. ۳٫۰ ۳٫۱ الگو:Cite journal
  4. الگو:Cite journal
  5. https://deeplearning.ir/%d9%85%d8%b9%d8%b1%d9%81%db%8c-batchnormalization/
  6. Munro, P. (2011). Backpropagation. In: Sammut, C., Webb, G.I. (eds) Encyclopedia of Machine Learning. Springer, Boston, MA. https://doi.org/10.1007/978-0-387-30164-8_51