قانون دلتا

از testwiki
نسخهٔ تاریخ ۶ ژوئیهٔ ۲۰۲۴، ساعت ۰۳:۵۷ توسط imported>HujiBot (ربات: افزودن رده‌های همسنگ)
(تفاوت) → نسخهٔ قدیمی‌تر | نمایش نسخهٔ فعلی (تفاوت) | نسخهٔ جدیدتر ← (تفاوت)
پرش به ناوبری پرش به جستجو

در یادگیری ماشین، قانون دلتا یک قانون یادگیری گرادیان کاهشی برای به روز رسانی وزن ورودی ها به سلول عصبی مصنوعی در یک شبکه عصبی تک لایه است. می توان آن را به عنوان الگوریتم پس انتشار برای یک شبکه عصبی تک لایه با تابع خطای از دست رفتگی میانگین مربع استخراج کرد.

برای یک عصب j با عملکرد فعال سازی g(x)، قاعده دلتا برای نورون i-امین وزن عصب j از طریق زیر محاسبه می شود.

Δwji=α(tjyj)g(hj)xi

که در آن:

α یک ثابت کوچک به نام نرخ یادگیری است.

g(x) تابع فعال سازی عصب است.

g مشتق g است.

tj خروجی هدف است.

hj مجموع وزنی ورودی های عصب است.

yj خروجی واقعی است.

xi ورودی i-ام است.

نشان میدهد که hj=ixiwji و yj=g(hj)..

قانون دلتا معمولاً به شکل ساده شده برای یک عصب با تابع فعال سازی خطی به صورت زیر بیان می شود:

Δwji=α(tjyj)xi

در حالی که قانون دلتا شبیه به قانون بروزرسانی پرسپترون است، اشتقاق متفاوت است. پرسپترون از تابع پله‌ای هویساید به عنوان تابع فعال سازی g(h) استفاده می کند, و این بدان معنی است که g(h) در صفر وجود ندارد و در جاهای دیگر برابر با صفر است, که استفاده مستقیم از قانون دلتا را غیرممکن می کند.

اشتقاق قاعده دلتا

قانون دلتا با تلاش برای به حداقل رساندن خطا در خروجی شبکه عصبی از طریق گرادیان کاهشی مشتق شده است. خطای شبکه عصبی با خروجی های j را می توان به این صورت اندازه گیری کرد:

E=j12(tjyj)2.

در این مورد، ما می‌خواهیم از "فضای وزن" عصبی (فضای همه مقادیر ممکن وزن‌های عصب) متناسب با گرادیان تابع خطا نسبت به هر وزن حرکت کنیم. برای انجام این کار، مشتق جزئی خطا را با توجه به هر وزن محاسبه می کنیم. برای وزن i ام، این مشتق را می توان به صورت زیر نوشت:

Ewji

بدلیل اینکه فقط به نورون j ام توجه می کنیم، می‌توانیم در حالی که جمع را حذف می‌کنیم، فرمول خطای بالا را جایگزین کنیم:

Ewji=wji[12(tjyj)2]

سپس از قاعده زنجیره ای برای تقسیم آن به دو مشتق استفاده می کنیم:

Ewji=(12(tjyj)2)yjyjwji

برای بدست آوردن مشتق سمت چپ, تنها قانون قدرت و قانون زنجیره را اعمال می کنیم:

Ewji=(tjyj)yjwji

برای یافتن مشتق مناسب، دوباره قانون زنجیره را اعمال می‌کنیم، این بار با توجه به کل ورودی های hj,j:

Ewji=(tjyj)yjhjhjwji

توجه داشته باشید که خروجی j ام، yj، فقط تابع فعال سازی g است که به ورودی عصبی hj اعمال می شود. بنابراین می توانیم مشتق yj را با توجه به hj به سادگی مشتق اول g نوشت:

Ewji=(tjyj)g(hj)hjwji

بعد بازنویسی می کنیم hj در رابطه آخر به عنوان مجموع همه k وزن هر وزن wwjk برابر ورودی مربوطه x آن است:

Ewji=(tjyj)g(hj)wji[ixiwji]

زیرا ما فقط به این موضوع توجه داریم وزن i ام، تنها عبارت جمع که مرتبط است xiwji است:

(xiwji)wji=xi.

که معادله نهاییگرادیان را به ما می دهد:

Ewji=(tjyj)g(hj)xi

همانطور که در بالا ذکر شد، شیب نزول به ما می گوید که تغییر ما برای هر وزن باید متناسب با گرادیان باشد. انتخاب یک ثابت تناسب α و با حذف علامت منفی برای اینکه بتوانیم وزن را در جهت منفی گرادیان حرکت دهیم تا خطا را به حداقل برسانیم، به معادله هدف خود می رسیم:

Δwji=α(tjyj)g(hj)xi.

جستارهای وابسته

منابع

  1. راسل، اینگرید. "قانون دلتا". دانشگاه هارتفورد بایگانی شده از نسخه اصلی در 4 مارس 2016. بازیابی شده در 5 نوامبر 2012.