پیش‌نویس:منحنی یادگیری (یادگیری ماشین)

از testwiki
پرش به ناوبری پرش به جستجو
نمایش منحنی یادگیری اندازه مجموعه آموزشی در مقابل امتیاز آموزشی(کاهش) و امتیاز اعتبار سنجی متقابل


در یادگیری ماشین(ML)، یک منحنی یادگیری(یا منحنی آموزشی) یک نمایش ترسیمی است که نشان می دهد چگونه عملکرد یک مدل روی یک مجموعه آموزشی (و اغلب روی یک مجموعه ارزیابی) با تعداد گردش های آموزشی یا میزان داده های آموزشی تغییر می کند.[۱] معمولا، تعداد گردش های آموزشی یا اندازه مجموعه آموزشی روی بردار طولی، و مقدار تابع ضرر( و احتمالا شاخص های دیگری مانند امتیاز اعتبار سنجی متقابل) روی بردار عرضی نمایش داده می شوند.

مترادف ها عبارتند از منحنی خطا، منحنی تجربه، منحنی پیشرفت و منحنی تعمیم.[۲]

به طور انتزاعی تر، منحنی یادگیری تفاوت میان تلاش یادگیری و عملکرد پیشبینی شده را نشان می دهد؛ به طوری که تلاش یادگیری معمولا یعنی تعداد نمونه های آموزشی، و عملکرد پیشبینی شده یعنی دقت نمونه های ارزیابی.[۳]

منحنی های یادگیری استفاده های فراوانی در یادگیری ماشین دارند، از جمله:[۴][۵][۶]

  • انتخاب کردن پارامتر های مدل در حین طراحی،
  • تنظیم کردن بهینه سازی برای پیشرفت هم گرایی،
  • و شناخت مشکلاتی مانند برازش بیش از حد ( یا زیر برازش).

منحنی های یادگیری همچنین می توانند ابزاری برای تعیین این هستند که یک مدل چقدر میتواند از اضافه کردن داده آموزشی سود ببرد، و اینکه برای مدل خطای معیار تغییر مضر تر است یا خطای سوگیری. اگر هم امتیاز اعتبار سنجی و امتیاز آموزشی در مقداری مشخص هم گرا باشند، مدل دیگر سود به خصوصی از داده آموزشی بیشتر نمیبرد.

تعریف رسمی

هنگام ساختن یک تابع برای تقریب توزیع یک سری داده ضروریست که یک تابع ضرر L(fθ(X),Y) تعریف کنیم تا بسنجیم که خروجی مدل چقدر خوب است (برای مثال، میزان دقت کار های کلاس بندی یا میانگین مربع های خطا برای روش کاهشی). سپس یک روند بهینه سازی تعریف میکنیم که پارامتر های θ مدل را پیدا میکند به طوری که L(fθ(X),Y) کمینه سازی شده است و با θ* نشان داده می شود.

منحنی آموزش برای مقدار داده

اگر داده های آموزشی چنین باشد

{x1,x2,,xn},{y1,y2,yn}

و داده های اعتبار سنجی

{x1,x2,xm},{y1,y2,ym} ،

منحنی یادگیری نمودار دو منحنی را نشان می دهد

  1. iL(fθ*(Xi,Yi)(Xi),Yi)
  2. iL(fθ*(Xi,Yi)(Xi),Yi)

بطوری که

Xi={x1,x2,xi}

منحنی تمرین برای تعداد تکرار

بسیاری از الگوریتم های بهینه سازی دوره ای هستند، همان مرحله را (مانند پس انتشار) تکرار می کنند یا زمانی که رویه به یک مقدار بهینه همگرا شود. گرادیان کاهشی یک الگوریتم چنین است. اگر θi* تقریب بهینه شده θ پس از i مرحله باشد، یک منحنی آموزشی نشان دهنده

  1. iL(fθi*(X,Y)(X),Y)
  2. iL(fθi*(X,Y)(X),Y)

همچنین ببینید

مرجع ها