یادگیری مشابه
یادگیری مشابه (به انگلیسی = Similarity learning) بخشی از یادگیری نظارت شده ماشینی در هوش مصنوعی است. هدف از یادگیری تابع شباهت این است که میزان شباهت یا مرتبط بودن دو شی را اندازهگیری کند. کاربرد این یادگیری در زمینههایی اعم از رتبهبندی، در سیستمهای توصیه، ردیابی هویت بصری، تأیید چهره و تأیید سخنران است.
همچنین یادگیری مشابه از نظرهای زیادی مرتبط با تحلیل رگرسیون و طبقهبندی آماری است.
راه اندازی
چهار روش راه اندازی برای یادگیری مشابه و یادگیری متریک وجود دارد.
- یادگیری مشابه: تحلیل رگرسیونی
- در این روش راه اندازی، جفت اشیاء به همراه معیاری از شباهت میان آنها به ما داده میشوند. هدف، یادگیری تابعی است که به صورت تقریبی برای هر نمونه سهگانه جدید نشان میدهد: که با به حداقل رساندن ضرر منظم به دست میآید: .
- یادگیری مشایه: طبقهبندی آماری
- در این روش راه اندازی جفت اشیاء مشابه و اشیاء غیر مشابه داده شدهاست. این معادل این است که هر جفت همراه با یک برچسب باینری داده میشود، که مشخص میکند این دو شی مشابه هستند یا خیر. در اینجا نیز هدف، یادگیری طبقهبندی کنندهای است که به ما نشان دهد آیا میتواند تصمیم بگیرد
- یک جفت شی جدید مشابه هستند یا خیر.
- یادگیری مشابه: رتبه بندی شده
- در این روش راه اندازی، سهگانه ای از اشیاء داده شدهاست که شباهت نسبی آنها از نظمی که از پیش تعیین شده پیروی میکند. این نظم میگوید: معروف است به این که بیشتر شبیه به است تا . هدف یادگیری یک تابع است مانند به طوری که برای هر سهگانه جدید از اشیاء ، اطاعت کند از نامساوی زیر: (یادگیری متضاد). این روش شکل ضعیف تری از نظارت را نسبت به تحلیل رگرسیون نشان میدهد، زیرا به جای ارائه معیار دقیق شباهت، فقط باید ترتیب نسبی شباهتها را ارائه کند. به همین دلیل، یادگیری مشابه رتبهبندی شده راحت تر در معیارهای بزرگ مورد استفاده قرار میگیرد.
- هشینگ حساس به مکان (LSH)[۱]
- در این روش، موارد ورودی را هش میکند تا موارد مانند هم که دارای احتمال زیاد تری هستند به همان «سطل» در حافظه نگاشت شوند (تعداد سطلها کوچکتر از تعداد آیتمهای ورودی ممکن است). اغلب در جستجو نزدیکترین همسایه بر روی دادههایی با تعداد زیاد و در مقیاس بزرگ کاربرد دارد. به عنوان مثال، پایگاههای داده تصاویر، مجموعه اسناد، پایگاههای داده سری زمانی، و پایگاههای داده ژنوم استفاده میشود.[۲]
یک رویکرد رایج در یادگیری مشابه، مدلسازی تابع شباهت به صورت یک فرم دوخطی است. برای مثال، در مورد یادگیری مشابه: رتبهبندی شده، هدف یادگیری ماتریسی مانند W داست که تابع مشابه را پارامتری میکند. . هنگامی که دادههای فراوانی وجود دارد، یک روش دیگر یادگیری یک شبکه سیامی است - یک مدل شبکه عمیق با به اشتراک گذاری پارامترها.
یادگیری متریک
یادگیری مشابه ارتباط نزدیکی با یادگیری متریک از راه دور دارد. وظیفه یادگیری متریک این است که میزان شباهت بین نمونهها را با استفاده از تابع فاصله محاسبه کند. یک تابع متریک یا فاصله باید از چهار چیز بدیهی پیروی کند: غیر منفی بودن، هویت غیرقابل تشخیصها، تقارن و زیرجمعها (یا نابرابری مثلث). در عمل، الگوریتمهای یادگیری متریک شرط هویت غیرقابل تشخیصها را نادیده میگیرند و شبه متریک را یادمیگیرند.
در نظر داشته باشید که وقتی اشیاء برداری در هستند و هر ماتریسی مانند که نیمه مثبت معین و متقارن آن است که شبه متریک فاصله را در فضای x از طریق فرمول
بتوان تعریف کرد.
اما در حالتی دیگر وقتی که یک ماتریس قطعی مثبت متقارن است، یک متریک یا ستجه (تابع فاصله) بهشمار میرود.
لازم است ذکر شود که، مانند هر ماتریس نیمه معین مثبت متقارن دیگری میتواند به عنوان نیز تجزیه و تحلیل شود فقط در زمانی که شرطهای و برقرار باشند.
همچنین تابع فاصله را که در بالا به آن اشاره کردیم میتوان به صورت زیر نیز استفاده کرد:
.
در نظر داشته باشید که فاصله مطابق فاصله اقلیدسی (وابسته به هندسه اقلیدسی) بین بردارهای ویژگی و است.
علاوه بر فرمولهای بالا، فرمولهای بسیار دیگری نیز برای یادگیری متریک مطرح شدهاند.[۳][۴] برخی از رویکردهای شناخته شده و معروف برای یادگیری متریک شامل یادگیری از مقایسههای نسبی است[۵] که بر اساس از دست دادن سهگانه، نزدیکترین همسایه حاشیه بزرگ،[۶] یادگیری متریک نظری اطلاعات (ITML) هستند.[۷]
در آمار و ریاضیات، در بعضی مواقع ماتریس کوواریانس دادهها برای تعریف یک متریک فاصله به نام فاصله ماهالانوبیس استفاده میشود.
کاربردها
یادگیری مشابه در بازیابی اطلاعات برای یادگیری رتبهبندی، در تأیید چهره یا شناسایی چهره،[۸][۹] و در سیستمهای توصیه استفاده میشود. همچنین، بسیاری از رویکردهای یادگیری ماشینی بر معیارهای متریک تکیه دارند. این معیارها شامل یادگیری بدون نظارت مانند خوشه بندی است که اشیاء همانند و نزدیک به هم یا مشابه را با هم طبقهبندی میکند. همچنین شامل رویکردهای نظارت شده مانند الگوریتم K-نزدیکترین همسایه است که برای تصمیمگیری در مورد یک شی جدید نسبت به اشیاء نزدیک آن متکی است. پیشنهاد میشود که برای درک هرچه بهتر این رویکردها یادگیری متریک به عنوان یک مرحله پیش خوان مورد نظر قرار گیرد.
مقیاس پذیری
یادگیری متریک ویادگیری مشابه به سادگی و با ابعاد فضای ورودی به صورت درجه دوم مورد مقیاس قرار میگیرند، همانطور که به راحتی میتوان از روی فرم دو خطی بودن متریک آموخته شده متوجه آن شد.
مقیاس بندی به ابعاد بالاتر را میتوان با اعمال ساختار پراکندگی بر روی ماتریس مدل، همانطور که با HDSL,[۱۰] و با COMET انجام شد، به دست آورد.[۱۱]
جستارهای وابسته
- روش کرنل
- آموزش رتبهبندی
- تحلیل معنایی نهفته
برای مطالعهٔ بیشتر
برای کسب اطلاعات بیشتر در این موضوع، به بررسیهای مربوط به یادگیری متریک و یادگیری مشابه که توسط بلت و همکارانش[۱۲] انجام شده و همچنین بررسیهای کولیس[۱۳] مراجعه کنید.
منابع
- ↑ Gionis, Aristides, Piotr Indyk, and Rajeev Motwani. "Similarity search in high dimensions via hashing." VLDB. Vol. 99. No. 6. 1999.
- ↑ الگو:Cite web
- ↑ الگو:Cite arXiv
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite journal
- ↑ الگو:Cite arXiv
- ↑ الگو:Cite journal