XGBoost

از testwiki
پرش به ناوبری پرش به جستجو

الگو:Infobox software XGBoost[۱] یک کتابخانه نرم‌افزار آزاد است که چارچوب تقویت گرادیان برای ++C، جاوا، پایتون،[۲] R,[۳] و جولیا،[۴] پرل[۵] و اسکالا را فراهم می‌کند. در لینوکس،[۶] ویندوز، مک‌اواس[۷] کار می‌کند. هدف ارائه یک کتابخانه «مقیاس‌پذیر، قابل‌حمل و توزیع‌شده» (gbm, GBRT, GBDT) است. علاوه بر اجرای یک ماشین واحد، همچنین از چارچوب‌های پردازش توزیع‌شده آپاچی اسپارک، آپاچی هدوپ، آپاچی فلینک و داسک (نرم‌افزار) پشتیبانی می‌کند.[۸][۹] این الگوریتم انتخاب بسیاری از تیم‌های برندهٔ شماری از رقابت‌های یادگیری ماشین بود و محبوبیت و توجه زیادی به دست آورده‌است.[۱۰]

تاریخچه

XGBoost در ابتدا به عنوان یک پروژه تحقیقاتی توسط تیانگی چن به عنوان بخشی از گروه یادگیری عمیق ماشینی توزیع‌شده آغاز شد.[۱۱] در ابتدا به عنوان یک برنامه ترمینال (terminal application) آغاز شد که می‌توانست با استفاده از یک فایل پیکربندی libsvm پیکربندی شود. پس از پیروزی در چالش یادگیری ماشین هیگز، به عنوان بخشی از چرخهٔ مسابقه شناخته شد. پس از آن بسته‌های زبان‌های پایتون و R ساخته شدند و اکنون برای بسیاری از زبان‌های دیگر مثل جولیا، Scala، جاوا و غیره بسته‌هایی دارد و در بین جامعه کگل که برای تعداد زیادی از رقابت‌ها از آن استفاده شده‌است، محبوب است.[۱۲]

خیلی زود با چندین بسته دیگر مورد استفاده قرار گرفت و در حال حاضر برای کاربران پایتون همراه با کتابخانهٔ scikit-learn و برای کاربران R همراه با بسته caret ارائه می‌شود.

الگوریتم

الگوریتم N داده آموزشیِ {(xi,yi)}i=1N، یک تابع مشتق‌پذیر هزینه L(y,F(x)) و یک نرخ یادگیریِ α به عنوان ورودی می‌گیرد و به این شکل مدل نهائی را می‌سازدː

  1. اولین مدل ضعیف عددی ثابت است که تابع هزینه را کمینه می‌کند:
    f^(0)(x)=argminθi=1NL(yi,θ).
  2. برای m=1 تا M:
    1. گرادیان و هسین به این شکل محاسبه می‌شوند
      g^m(xi)=[L(yi,f(xi))f(xi)]f(x)=f^(m1)(x).
      h^m(xi)=[2L(yi,f(xi))f(xi)2]f(x)=f^(m1)(x).
    2. مدل برای داده‌های {xi,g^m(xi)h^m(xi)}i=1N به این شکل یادگرفته می‌شود:
      ϕ^m=argminϕΦi=1N12h^m(xi)[g^m(xi)h^m(xi)ϕ(xi)]2.
      f^m(x)=αϕ^m(x).
    3. مدل به این شکل به روز می‌شود:
      f^(m)(x)=f^(m1)(x)+f^m(x).
  3. مدل نهائی عبارت است از f^(x)=f^(M)(x)=m=0Mf^m(x).

جوایز

  • جایزه جان چمبرز (۲۰۱۶)
  • جایزه High Energy Physics meets Machine Learning (2016)

جستارهای وابسته

منابع

الگو:پانویس