آدابوست

از testwiki
پرش به ناوبری پرش به جستجو

آدابوست الگو:به انگلیسی تطبیقی بوده و یک الگوریتم یادگیری ماشین است که توسط یاو فروند و رابرت شاپیر اختراع شد.[۱] تطبیقی بودن آدابوست به این معناست که مدلها یکی پس از دیگری ساخته شده و عملکرد مدل‌های قبلی بر روند مدل‌سازی مدل‌های پس از آن تأثیر می‌گذارد.[۲] در واقع آدابوست یک متا الگوریتم است که به منظور ارتقاء عملکرد، و رفع مشکل رده‌های نامتوازن[۳] همراه دیگر الگوریتم‌های یادگیری استفاده می‌شود. در این الگوریتم، طبقه‌بندی هر مرحله جدید به نفع نمونه‌های غلط طبقه‌بندی شده در مراحل قبل تنظیم می‌گردد. آدابوست نسبت به داده‌های نویزی و پرت حساس است؛ ولی نسبت به مشکل بیش برازش از بیشتر الگوریتم‌های یادگیری برتری دارد. طبقه‌بندی پایه که در اینجا استفاده می‌شود فقط کافیست از طبقه‌بندی تصادفی (۵۰٪) بهتر باشد و به این ترتیب عملکرد الگوریتم در تکرارهای بیشتر بهبود می‌یابد. حتی طبقه‌بندهای با خطای بالاتر از تصادفی با گرفتن ضریب منفی عملکرد کلی را بهبود می‌بخشند.[۱] در الگوریتم آدابوست در هر دور t=1,,T یک طبقه‌بند ضعیف اضافه می‌شود. در هر فراخوانی بر اساس اهمیت نمونه‌ها، وزن‌ها Dt بروز می‌شود. در هر دور وزن نمونه‌های غلط طبقه‌بندی شده افزایش و وزن نمونه‌های درست طبقه‌بندی شده کاهش داده می‌شود؛ بنابراین طبقه‌بند جدید تمرکز بر نمونه‌هایی که سخت‌تر یادگرفته می‌شوند، خواهند داشت.[۱] پس به‌طور خلاصه این الگوریتم منطبق بر یادگیری گروهی می‌باشد. به بیان ساده‌تر طرز کار این الگوریتم به این صورت است که عملکرد مدلهایی که به تنهایی ضعیف عمل می‌کنند را با یکدیگر ترکیب کرده و باعث بهبود عملکرد آنها می‌شود. پس در نظرگرفتن پیش‌بینی که مجموع چند الگوریتم یادگیری ضعیف ارائه می‌دهد می‌تواند در نهایت به اندازهٔ عملکرد یک الگوریتم قوی قابل اتکا باشد.[۲]

الگوریتم طبقه‌بندی دوگانه

داده شده‌ها:

  • مجموعه یادگیری: (x1,y1),,(xN,yN) که xiX,yiY={1,+1}
  • تعداد تکرارها: T

مقداردهی اولیه: D1(i)=1N,i=1,,N. برای t=1,,T

  • برای خانواده طبقه‌بندهای ضعیف ℋ طبقه‌بند ht را پیدا کن که میزان خطا نسبت به توزیع Dt کمینه شود، در این معادله I یک تابع نشانگر است:

الگو:وسط‌چین ht=argminhi=1NDt(i)I(yih(xi)) الگو:پایان وسط‌چین خطای ht را با ϵt نمایش می‌دهیم: الگو:وسط‌چین ϵt=i=1NDt(i)I(yiht(xi)) الگو:پایان وسط‌چین

  • اگر |0.5ϵt|β که β یک آستانه تعیین شده قبلی است، توقف انجام شود.
  • معمولاً مقدار αt=12ln1ϵtϵt برای αt در نظر گرفته می‌شود.
  • بروز رسانی:

الگو:وسط‌چین Dt+1(i)=Dt(i)exp(αtI(yiht(xi)))Zt الگو:پایان وسط‌چین

که Zt یک عامل نرمال‌سازی با مقدار iDt(i)exp(αtyiht(xi)) است که موجب می‌شود Dt+1 یک توزیع احتمالاتی مجاز را نشان دهد (مجموع روی همه x‌ها یک شود)
خروجی نهایی طبقه‌بند

الگو:وسط‌چین H(x)=sign(t=1Tαtht(x)) الگو:پایان وسط‌چین

توجه شود که معادله بروز رسانی توزیع Dt بگونه‌ای بروز می‌شود که

الگو:وسط‌چین

αtyiht(xi){<0,y(i)=ht(xi)>0,y(i)ht(xi)

الگو:پایان وسط‌چین بنابراین بعد از انتخاب بهینه طبقه‌بند ht برای توزیع Dt آندسته از نمونه‌ها xi که طبقه‌بند ht آن‌ها را غلط طبقه‌بندی می‌کند وزن بیشتری نسبت به بقیه داده می‌شود؛ بنابراین وقتی الگوریتم طبقه‌بندها را براساس توزیع Dt+1 تست می‌کند، طبقه‌بندی انتخاب می‌شود که نمونه‌های غلط طبقه‌بندی شده را بهتر تشخیص دهد.

مراحل الگوریتم آدابوست

الگوریتم آدابوست مطابق مراحل زیر به صورت مکرر کار می‌کند

  • در ابتدا برای این الگوریتم الزامی است یک زیرمجموعه آموزشی انتخاب شود.
  • با استفاده از مجموعه آموزشی که بر اساس پیش‌بینی صحیح آخرین آموزش ایجاد شده به صورت مکرر مدل یادگیری‌ماشینی آدابوست را آموزش می‌دهیم.
  • تمام نمونه‌های آموزشی در فرایند آموزش دارای وزنی خواهند بود که براساس خطای ناشی از مدل یادگیری‌ماشین به‌دست می‌آید. این الگوریتم وزن بالاتری را به مشاهداتی که به صورت اشتباه طبقه‌بندی شده‌اند اختصاص می‌دهد تا در تکرارهای بعدی این مشاهدات برای فرایند طبقه‌بندی احتمال بالاتری را به‌دست آورند.
  • در مرحله بعد طبقه‌بندهایی که آموزش دیده شده‌اند وزن‌دهی می‌شوند. هرچه طبقه‌بندی دقیق‌تر باشد وزن بالاتری خواهد داشت.
  • این مراحل تا زمانی تکرار می‌شوند که داده‌های آموزشی کامل و بدون هیچ خطایی توسط مدل آموزش ببیند.
  • برای انجام طبقه‌بندی کافی است یک رای به ازای هر الگوریتم یادگیری ساخته‌شده در نظر گرفته شود.[۴]

ایجاد مدل در پایتون

در این مرحله مطابق کد زیر کتابخانه‌های مورد نیاز را وارد می‌کنیم.

# Load libraries
from sklearn.ensemble import AdaBoostClassifier
from sklearn import datasets
# Import train_test_split function
from sklearn.model_selection import train_test_split
# Import scikit-learn metrics module for accuracy calculation
from sklearn import metrics

در مرحله بعد از یک مجموعه‌داده برای بررسی مدل روی آن استفاده می‌کنیم.

# Load data
iris = datasets.load_iris()
X = iris.data
y = iris.target

سپس مجموعه‌داده را به دو قسمت آموزش و تست تقسیم می‌کنیم.

# Split dataset into training set and test set
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3) # 70% training and 30% test

در نهایت یک مدل آدابوست روی مجموعه‌داده اجرا می‌کنیم.

# Create adaboost classifer object
abc = AdaBoostClassifier(n_estimators=۵۰,
  learning_rate=۱)
# Train Adaboost Classifer
model = abc.fit(X_train, y_train)
# Predict the response for test dataset
y_pred = model.predict(X_test)

[۴]

اثبات و فهم ریاضی آدابوست

عمل تقویت کردن را می‌توان به صورت حداقل کردن یک تابع هزینه محدب روی یک مجموعه محدب از توابع در نظر گرفت.[۵] به‌طور خاص تابعی که حداقل می‌شود نمایی است: الگو:وسط‌چین E=i=1Nexp(yi×fm(xi)) الگو:پایان وسط‌چین و ما به‌دنبال تابعی به شکل زیر هستیم:[۶] الگو:وسط‌چین fm(x)=12t=1mαtht(x) الگو:پایان وسط‌چین مجهولِ تابع هزینه E، fm() است که خود به α1,,αm,h1,,αm بستگی دارد. در نتیجه بهینه‌سازی تابع هزینه در نهایت باید نسبت به α1,,αm,h1,,hm صورت بگیرد.

حال برای راحتتر شدن کار فرض می‌کنیم که مقادیر α1,,αm1,h1,,hm1 ثابت هستند و هدف ما پیدا کردن αm و hm است. با این اوصاف تابع Eرا می‌توان به شکل پایین نوشت: الگو:وسط‌چین E=i=1Nexp(yi×(fm1(xi)+12αmhm(xi)))=i=1Nexp(yi×fm1(xi))exp(12yi×αmhm(xi)) الگو:پایان وسط‌چین اگر exp(yi×fm1(xi)) را با wi(m) نمایش دهیم، تابع هزینه ما به شکل پایین تغییر شکل خواهد داد:[۶] الگو:وسط‌چین E=i=1Nwi(m)e12yi×αmhm(xi) الگو:پایان وسط‌چین اگر مجموعه تمام داده‌هایی که توسط hm() به درستی پیش‌بینی می‌شوند را با Tm و مجموعه تمام داده‌هایی که توسط hm() نادرست پیش‌بینی می‌شوند را با Mm نمایش دهیم. تابع هزینه به شکل پایین تغییر خواهد کرد: الگو:وسط‌چین E=exp(αm2)iTmwi(m)+exp(αm2)iMmwi(m)=(exp(αm2)exp(αm2))i=1Nwi(m)I(hm(xi)yi)+exp(αm2)i=1Nwi(m) الگو:پایان وسط‌چین حال اگر E را نسبت به hm بهینه کنیم، از آنجا کهexp(αm2)i=1Nwi(m) و (exp(αm2)exp(αm2)) نسبت به hm ثابت هستند، فقط باید i=1Nwi(m)I(hm(xi)yi) را نسبت به hm کمینه کنیم؛ یعنی hm=argminhi=1Nwi(m)I(h(xi)yi)

بعد از پیدا کردن hm باید αm را پیدا کنیم اگر i=1Nwi(m)I(h(xi)yi)i=1Nwi(m) را ϵm بنامیم تابع هزینه ما تبدیل می‌شود به ((exp(αm2)exp(αm2))ϵm+exp(αm2))i=1Nwi(m)که اگر از آن نسبت به αm مشتق بگیریم و جواب را در نقطه صفر به‌دست بیاوریم به این جواب می‌رسیم: αm=12ln1ϵmϵm.

حال که αm و hm را پیدا کردیم باید ببینیم که wi(m+1) به چه شکل نسبت به wi(m) بروز می‌شود. wi(m+1) همان exp(yi×fm(xi)) است یعنی الگو:وسط‌چین wi(m+1)=exp(yi×fm(xi))=exp(yi×(fm1(xi)+12αmhm(xi)))=exp(yifm1(xi))exp(12yiαmhm(xi))=wi(m)exp(12yiαmhm(xi)) الگو:پایان وسط‌چین پس ارتباط wi(m+1) با wi(m) به این شکل خواهد بود:[۶] الگو:وسط‌چین wi(m+1)=wi(m)exp(12yiαmhm(xi)) الگو:پایان وسط‌چین از آنجا که yihm(xi)=12I(h(xi)yi) به‌روز کردن wi(m+1) به این شکل تغییر خواهد کرد: الگو:وسط‌چین wi(m+1)=wi(m)exp(αm2)exp(αmI(hm(xi)yi)) الگو:پایان وسط‌چین اگر تمام wi(m+1)‌ها را در یک مقدار ثابتی ضرب کنیم تأثیری در جواب نهایی ϵm+1 و αm+1 و hm+1 نخواهد داشت. ازین رو همیشه می‌توان مقدار آن‌ها را نرمال‌سازی کرد. با نرمال‌سازی wi(m+1) به معادله بازگشتی پایین می‌رسیم، در این معادله Zm=iwi(m) : الگو:وسط‌چین wi(m+1)=wi(m)exp(αmI(hm(xi)yi))Zm الگو:پایان وسط‌چین wi(m+1) همان Dm+1(i)است، و از آنجا که 12در جواب sign(fm(x)) تأثیری ندارد، می‌توان آن را حذف کرد. حال اگر m را همان T بگیریم به الگوریتم آدابوست خواهیم رسید.[۶]

جستارهای وابسته

منابع

الگو:پانویس

پیاده‌سازی‌ها

الگو:چپ‌چین

الگو:پایان چپ‌چین

پیوند به بیرون

الگو:چپ‌چین

الگو:پایان چپ‌چین

  1. ۱٫۰ ۱٫۱ ۱٫۲ Yoav Freund, Robert E. Schapire. "A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting", 1995
  2. ۲٫۰ ۲٫۱ https://towardsdatascience.com/adaboost-in-7-simple-steps-a89dc41ec4
  3. الگو:یادکرد وب
  4. ۴٫۰ ۴٫۱ https://www.datacamp.com/tutorial/adaboost-classifier-python
  5. T. Zhang, "Statistical behavior and consistency of classification methods based on convex risk minimization", Annals of Statistics 32 (1), pp. 56-85, 2004.
  6. ۶٫۰ ۶٫۱ ۶٫۲ ۶٫۳ الگو:یادکرد کتاب