یادگیری مشابه

از testwiki
پرش به ناوبری پرش به جستجو

یادگیری مشابه (به انگلیسی = Similarity learning) بخشی از یادگیری نظارت شده ماشینی در هوش مصنوعی است. هدف از یادگیری تابع شباهت این است که میزان شباهت یا مرتبط بودن دو شی را اندازه‌گیری کند. کاربرد این یادگیری در زمینه‌هایی اعم از رتبه‌بندی، در سیستم‌های توصیه، ردیابی هویت بصری، تأیید چهره و تأیید سخنران است.

همچنین یادگیری مشابه از نظرهای زیادی مرتبط با تحلیل رگرسیون و طبقه‌بندی آماری است.

راه اندازی

چهار روش راه اندازی برای یادگیری مشابه و یادگیری متریک وجود دارد.

یادگیری مشابه: تحلیل رگرسیونی
در این روش راه اندازی، جفت اشیاء (xi1,xi2)به همراه معیاری از شباهت میان آنها yiR به ما داده می‌شوند. هدف، یادگیری تابعی است که به صورت تقریبی برای هر نمونه سه‌گانه جدید (xi1,xi2,yi) نشان می‌دهد: f(xi1,xi2)yi که با به حداقل رساندن ضرر منظم به دست می‌آید:minWiloss(w;xi1,xi2,yi)+reg(w) .
یادگیری مشایه: طبقه‌بندی آماری
در این روش راه اندازی جفت اشیاء مشابه(xi,xi+) و اشیاء غیر مشابه (xi,xi) داده شده‌است. این معادل این است که هر جفت (xi1,xi2) همراه با یک برچسب باینریyi{0,1} داده می‌شود، که مشخص می‌کند این دو شی مشابه هستند یا خیر. در اینجا نیز هدف، یادگیری طبقه‌بندی کننده‌ای است که به ما نشان دهد آیا می‌تواند تصمیم بگیرد
یک جفت شی جدید مشابه هستند یا خیر.
یادگیری مشابه: رتبه بندی شده
در این روش راه اندازی، سه‌گانه ای از اشیاء (xi,xi+,xi) داده شده‌است که شباهت نسبی آنها از نظمی که از پیش تعیین شده پیروی می‌کند. این نظم می‌گوید: xi معروف است به این که بیشتر شبیه به xi+ است تا xi . هدف یادگیری یک تابع است مانند f به طوری که برای هر سه‌گانه جدید از اشیاء (x,x+,x) ، اطاعت کند از نامساوی زیر: f(x,x+)>f(x,x) (یادگیری متضاد). این روش شکل ضعیف تری از نظارت را نسبت به تحلیل رگرسیون نشان می‌دهد، زیرا به جای ارائه معیار دقیق شباهت، فقط باید ترتیب نسبی شباهت‌ها را ارائه کند. به همین دلیل، یادگیری مشابه رتبه‌بندی شده راحت تر در معیارهای بزرگ مورد استفاده قرار می‌گیرد.
هشینگ حساس به مکان (LSH)[۱]
در این روش، موارد ورودی را هش می‌کند تا موارد مانند هم که دارای احتمال زیاد تری هستند به همان «سطل» در حافظه نگاشت شوند (تعداد سطل‌ها کوچکتر از تعداد آیتم‌های ورودی ممکن است). اغلب در جستجو نزدیک‌ترین همسایه بر روی داده‌هایی با تعداد زیاد و در مقیاس بزرگ کاربرد دارد. به عنوان مثال، پایگاه‌های داده تصاویر، مجموعه اسناد، پایگاه‌های داده سری زمانی، و پایگاه‌های داده ژنوم استفاده می‌شود.[۲]

یک رویکرد رایج در یادگیری مشابه، مدل‌سازی تابع شباهت به صورت یک فرم دوخطی است. برای مثال، در مورد یادگیری مشابه: رتبه‌بندی شده، هدف یادگیری ماتریسی مانند W داست که تابع مشابه fW(x,z)=xTWz را پارامتری می‌کند. . هنگامی که داده‌های فراوانی وجود دارد، یک روش دیگر یادگیری یک شبکه سیامی است - یک مدل شبکه عمیق با به اشتراک گذاری پارامترها.

یادگیری متریک

یادگیری مشابه ارتباط نزدیکی با یادگیری متریک از راه دور دارد. وظیفه یادگیری متریک این است که میزان شباهت بین نمونه‌ها را با استفاده از تابع فاصله محاسبه کند. یک تابع متریک یا فاصله باید از چهار چیز بدیهی پیروی کند: غیر منفی بودن، هویت غیرقابل تشخیص‌ها، تقارن و زیرجمع‌ها (یا نابرابری مثلث). در عمل، الگوریتم‌های یادگیری متریک شرط هویت غیرقابل تشخیص‌ها را نادیده می‌گیرند و شبه متریک را یادمی‌گیرند.

در نظر داشته باشید که وقتی اشیاء xi برداری در Rd هستند و هر ماتریسی مانند W که نیمه مثبت معین و متقارن آن S+d است که شبه متریک فاصله را در فضای x از طریق فرمولDW(x1,x2)2=(x1x2)W(x1x2)

بتوان تعریف کرد.

اما در حالتی دیگر وقتی کهW یک ماتریس قطعی مثبت متقارن است، DW یک متریک یا ستجه (تابع فاصله) به‌شمار می‌رود.

لازم است ذکر شود که، مانند هر ماتریس نیمه معین مثبت متقارن دیگری WS+d می‌تواند به عنوان W=LL نیز تجزیه و تحلیل شود فقط در زمانی که شرط‌های LRe×d و erank(W) برقرار باشند.

همچنین تابع فاصله DW را که در بالا به آن اشاره کردیم می‌توان به صورت زیر نیز استفاده کرد:

DW(x1,x2)2=(x1x2)LL(x1x2)=L(x1x2)22 .

در نظر داشته باشید که فاصله DW(x1,x2)2=x1x222 مطابق فاصله اقلیدسی (وابسته به هندسه اقلیدسی) بین بردارهای ویژگی x1=Lx1 و x2=Lx2 است.

علاوه بر فرمول‌های بالا، فرمول‌های بسیار دیگری نیز برای یادگیری متریک مطرح شده‌اند.[۳][۴] برخی از رویکردهای شناخته شده و معروف برای یادگیری متریک شامل یادگیری از مقایسه‌های نسبی است[۵] که بر اساس از دست دادن سه‌گانه، نزدیک‌ترین همسایه حاشیه بزرگ،[۶] یادگیری متریک نظری اطلاعات (ITML) هستند.[۷]

در آمار و ریاضیات، در بعضی مواقع ماتریس کوواریانس داده‌ها برای تعریف یک متریک فاصله به نام فاصله ماهالانوبیس استفاده می‌شود.

کاربردها

یادگیری مشابه در بازیابی اطلاعات برای یادگیری رتبه‌بندی، در تأیید چهره یا شناسایی چهره،[۸][۹] و در سیستم‌های توصیه استفاده می‌شود. همچنین، بسیاری از رویکردهای یادگیری ماشینی بر معیارهای متریک تکیه دارند. این معیارها شامل یادگیری بدون نظارت مانند خوشه بندی است که اشیاء همانند و نزدیک به هم یا مشابه را با هم طبقه‌بندی می‌کند. همچنین شامل رویکردهای نظارت شده مانند الگوریتم K-نزدیکترین همسایه است که برای تصمیم‌گیری در مورد یک شی جدید نسبت به اشیاء نزدیک آن متکی است. پیشنهاد می‌شود که برای درک هرچه بهتر این رویکردها یادگیری متریک به عنوان یک مرحله پیش خوان مورد نظر قرار گیرد.

مقیاس پذیری

یادگیری متریک ویادگیری مشابه به سادگی و با ابعاد فضای ورودی به صورت درجه دوم مورد مقیاس قرار می‌گیرند، همان‌طور که به راحتی می‌توان از روی فرم دو خطی بودنfW(x,z)=xTWz متریک آموخته شده متوجه آن شد.

مقیاس بندی به ابعاد بالاتر را می‌توان با اعمال ساختار پراکندگی بر روی ماتریس مدل، همان‌طور که با HDSL,[۱۰] و با COMET انجام شد، به دست آورد.[۱۱]

جستارهای وابسته

برای مطالعهٔ بیشتر

برای کسب اطلاعات بیشتر در این موضوع، به بررسی‌های مربوط به یادگیری متریک و یادگیری مشابه که توسط بلت و همکارانش[۱۲] انجام شده و همچنین بررسی‌های کولیس[۱۳] مراجعه کنید.

منابع

الگو:پانویس