نتایج جستجو
پرش به ناوبری
پرش به جستجو
- '''دستهبندی با چند برچسب''' (به انگلیسی: Multi-label classification) متفاوت از [[ردهبن ...نمونه دقیقا یک برچسب را انتخاب کنیم و به آن نمونه نسبت دهیم. در حالی که در دستهبندی با چند برچسب ممکن است به هر نمونه بیش از یک برچسب نسبت داده شود و حالت کلی ...۵ کیلوبایت (۱۶۶ واژه) - ۱۳ مارس ۲۰۲۵، ساعت ۱۳:۵۵
- ...یژگیها) به خوبی کار میکنند. در مقایسه با دستهبندی کنندههای غیرخطی، این دستهبندی کنندهها با صرف زمان کمتری برای آموزش و صرف زمان کمتر در پیشبینی، عملکرد م ...ً زمانی که بردار ویژگی دارای ابعاد زیاد است، بسیار خوب عمل میکند. مانند [[دستهبندی اسناد|طبقه بندی اسناد]]، که در آن هر عنصر در <math>\vec x</math> معمولاً تع ...۸ کیلوبایت (۱۷۳ واژه) - ۲۶ ژوئیهٔ ۲۰۲۳، ساعت ۰۴:۳۴
- ...[[مسئله بهینهسازی]] هدف مینیممسازی تابع هزینه است و این کار معمولاً با [[الگوریتمهای تخمینی]] انجام میشود.<ref>{{cite book|last1=Berger|first1=James O.|title=S ...ده میشود و تفاوت بین دو توزیع احتمالی - احتمالات پیشبینی شده و برچسبهای دستهبندی واقعی - را اندازهگیری میکند. ...۹ کیلوبایت (۱۷۷ واژه) - ۵ ژانویهٔ ۲۰۲۵، ساعت ۱۷:۰۰
- ...سپترون یک الگوریتم [[:en:binary classification|دستهبندی دودویی]] (نوعی از دستهبندی که میتواند با توجه به بردار ورودی تصمیم بگیرد که این ورودی متعلق به یک کلا ...ه [[:en:binary classifier|دستهبندی دودودیی]] مقدار <math>f(x)</math> برای دستهبندی <math>x</math> بین دو کلاس <math>+</math> و <math>-</math> استفاده میشود. ...۱۳ کیلوبایت (۵۷۲ واژه) - ۱۶ آوریل ۲۰۲۴، ساعت ۰۵:۵۵
- [[رده:الگوریتمهای دستهبندی]] ...۴ کیلوبایت (۱۸۵ واژه) - ۲۷ مارس ۲۰۲۴، ساعت ۱۴:۴۳
- ...پنهان مارکوف]] محاسبه کند. این الگوریتم جزو الگوریتمهای [[یادگیری ماشین]] دستهبندی میشود. یعنی یک مجموعه داده از مشاهدات به عنوان [[داده های آموزشی]] در دستر این الگوریتم به دادههایی که توسط الگوریتمهای Forward و Backward تولید میشوند نیاز دارد. پارامترهای مدل را به صورت زیر د ...۷ کیلوبایت (۵۱۸ واژه) - ۱ اوت ۲۰۲۴، ساعت ۱۵:۰۸
- ...لگوریتمهای یادگیری مختلف هسته ای استفاده میشود. بهطور خاص، معمولاً در [[دستهبندی ماشین بردار پشتیبانی]] استفاده میشود. هسته RBF در دو نمونه x و x '، به عنو ...۳ کیلوبایت (۱۷۲ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۲۰
- ...ونههای قدیمی درخت تصمیم تنها قادر به استفاده از متغیرهای گسسته بودند، اما الگوریتمهای جدیدتر هردو نوع متغیر گسسته و پیوسته را در یادگیری به کار میبرند.<ref name ...شده از گره داخلی به یک گره برگ برای دستهبندی دادهها یا یک گره داخلی برای دستهبندی دادهها برحسب یک ویژگی دیگر هدایت میشوند. درنهایت، هر گره برگ برحسب یکی از ...۱۸ کیلوبایت (۴۸۶ واژه) - ۲۹ مهٔ ۲۰۲۳، ساعت ۱۵:۲۰
- ...دقت یک الگوریتم در پیشبینی دادههای از پیش دیده نشده است. به دلیل این که الگوریتمهای یادگیری توسط نمونههای محدودی ارزیابی میشوند، ارزیابی این الگوریتمها به خ === الگوریتمهای پایدار اثباتشده {{انگلیسی|Algorithms with proven stability}} === ...۱۰ کیلوبایت (۳۸۹ واژه) - ۲ ژانویهٔ ۲۰۲۳، ساعت ۲۰:۴۰
- # نمایش جواب به صورت رشته گسسته جایگشتی که در الگوریتمهای زیر قابل استفاده است: ## سایر الگوریتمهای بهینهسازی گسسته ...۱۴ کیلوبایت (۴۹۹ واژه) - ۱۷ ژوئن ۲۰۲۴، ساعت ۱۵:۰۰
- ...ن دانشمندان [[بازیابی اطلاعات]] توسعه یافت و هنوز هم از روشهای محبوب در [[دستهبندی اسناد]] بهشمار میآید. برای مدلسازی '''دستهبندیکننده بیز ساده''' برای تمام <math>k</math>ها به تخمین <math>p(C_k)</math> و ...۱۹ کیلوبایت (۱٬۰۶۱ واژه) - ۲۵ ژانویهٔ ۲۰۲۵، ساعت ۰۴:۴۰
- ...ر پشتیبانی]] و [[بوستینگ]] انجامیدند. این نظریه به تحلیل [[پیچیدگی زمانی]] الگوریتمهای یادگیری نیز میپردازد.<ref>{{ cite journal | title=Computational learning t ...اص موفقیت یادگیری را تضمین میکند؟" میباشد. دو چهارچوب برای بررسی یادگیری الگوریتمهای یادگیری در نظر گرفته میشود. چهارچوب اول، چهارچوب تقریباً درست یا PAC که در ...۱۹ کیلوبایت (۴۷۳ واژه) - ۱۲ دسامبر ۲۰۲۳، ساعت ۱۷:۴۲
- ...s}} . در اینجا مقدار 0.1 ممکن است نتایج خوبی به همراه داشته باشد)، یا توسط الگوریتمهای مختلفی که سعی میکنند درهها را با شیب زیاد، تشخیص زانو یا حداکثر محلی تشخی [[رده:الگوریتمهای دستهبندی]] ...۱۲ کیلوبایت (۵۰۳ واژه) - ۱۵ اوت ۲۰۲۴، ساعت ۱۳:۲۸
- [[رده:الگوریتمهای دستهبندی]] [[رده:الگوریتمهای یادگیری ماشین]] ...۷ کیلوبایت (۳۵۴ واژه) - ۱۴ مارس ۲۰۲۵، ساعت ۰۱:۲۳
- '''روش گروهی مدیریت دادهها (GMDH)''' یک خانواده از الگوریتمهای استقرایی است که برای مدلسازی ریاضی مجموعه دادههای چندمتغیره بهصورت کاملا ...dh.net/theory/GMDHbook.zip|archive-date=2017-12-31|url-status=dead}}</ref> الگوریتمهای GMDH از یک فرآیند استقرایی استفاده میکنند که طی آن مدلهای چندجملهای بهص ...۹ کیلوبایت (۴۲۵ واژه) - ۱ دسامبر ۲۰۲۴، ساعت ۱۹:۴۷
- روشهای یادگیری نیمهنظارتی را در یک دستهبندی کلی به دستههای زیر میتوان تقسیم کرد.<ref name="Chapelle">{{Cite book | la ...ف کرد که وجود مرز طبقهبندی در نقاط پرچگالی را جریمه میکنند. به این ترتیب الگوریتمهای زیادی برای یادگیری نیمهنظارتی مطرح میشوند. معروفترین الگوریتم در این دست ...۶ کیلوبایت (۸۹ واژه) - ۱۳ دسامبر ۲۰۲۳، ساعت ۰۲:۲۸
- ...y در نظر بگیرید. این مجموعه از نمونهها مجموعه آموزش نامیده میشود. مسئله دستهبندی پیدا کردن یک پیشبینیکننده (predictor) برای هر کلاس از همان توزیع (نه لزوم بدون هیچ فرض اضافهای دستهبندیکننده حاصل به عنوان QDA (Quadratic discriminant analysis) شناخته میشود. LD ...۱۹ کیلوبایت (۶۳۶ واژه) - ۱۲ دسامبر ۲۰۲۳، ساعت ۰۱:۵۴
- == مقایسه با الگوریتمهای مرتبسازی دیگر == ...انتخاب محور در مرتبسازی سریع مانند انتخاب تصادفی موجب مقاومت بیشتری برای دستهبندی کردن توزیع ورودیها میشود. ...۱۵ کیلوبایت (۴۵۷ واژه) - ۲۰ فوریهٔ ۲۰۲۳، ساعت ۱۳:۱۲
- ...دههای [[آموزش، اعتبارسنجی و مجموعههای آزمایشی|مجموعه آموزشی]] به گونهای دستهبندی میکنند که میانگین تابع [[اتلاف هینج|هزینه هینج]] و [[نرم (ریاضیات)|نرم]] L بهطور خاص، الگوریتمهای [[تنظیم تیخونوف]] یک مرز تصمیمگیری تولید میکنند که میانگین خطای مجموعه آم ...۱۳ کیلوبایت (۷۲۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۴۹
- ...خش=فارسی|سرواژه=ردهبندی دادهها}}</ref> {{به انگلیسی|Classification}}، '''دستهبندی''' یا '''طبقهبندی''' مسئلهٔ شناسایی تعلق یک [[مشاهده]] جدید به کدام یک از .... بر خلاف سایر الگوریتمها، که به سادگی یک کلاس «بهترین» را ارائه میدهند، الگوریتمهای [[احتمالات|احتمالی احتمال]] عضوی از هر یک از کلاسهای ممکن را بهدست میآور ...۲۳ کیلوبایت (۴۲۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۴۹