نتایج جستجو
پرش به ناوبری
پرش به جستجو
- {{یادگیری ماشین}} ...ت=۲۱۱–۲۴۴|نام=آماندا|نام خانوادگی=بارتل|ترجمه عنوان=یادگیری پراکنده بیزی و ماشین بردار مرتبط|عنوان=Sparse Bayesian Learning and the Relevance Vector Machine ...۴ کیلوبایت (۱۸۵ واژه) - ۲۷ مارس ۲۰۲۴، ساعت ۱۴:۴۳
- ...رض میکند که ما هیچ دانش قبلیای در مورد دقت الگوریتمهای موجود در مجموعهٔ الگوریتمهای پیشبینیکننده نداریم، اما دلایل کافی برای این باور وجود دارد که یک یا چند ...ه میدهد که رای بالاتری کسب کردهباشد. اگر الگوریتم ترکیبی اشتباه کند، وزن الگوریتمهای موجود در مجموعه که در این پیشبینی اشتباه دخیل بودهاند نیز، با نسبت معینی ...۴ کیلوبایت (۵۲ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
- ...بدست میآید. این نوع کلاهبرداری توسط هوش مصنوعی و [[یادگیری ماشینی|یادگیری ماشین]] قابل تشخیص و جلوگیری است. ...ه، تراکنشهای غیر طبیعی را تعیین میکند. الگوریتمهای هوش مصنوعی و یادگیری ماشین دارای خطا در پیشبینی هستند به همین علت از الگوریتمهایی مانند GASS و MBO بر ...۷ کیلوبایت (۱۵۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
- ...[روش نیوتن]] الهام گرفته شدهاست. بعضی اوقات، این الگوریتم در گروه روشهای یادگیری مرتبkszه دوم طبقهبندی میشود. این روش تقریب درجه دوم از [[گرادیان]] تکرار ...پیادهسازی از الگوریتم [[بازگشت به عقب|پس انتشار]] خطا است اما در طول فاز یادگیری شبکه ممکن است که، با توجه به گامهای بزرگی که برمیدارد، با هرج و مرج رفتار ...۲ کیلوبایت (۶۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
- '''یادگیری هب''' (به انگلیسی: Hebbian Learning) یکی از اصول اساسی یادگیری در علوم اعصاب و شبکههای عصبی مصنوعی است. این قانون در سال ۱۹۴۹ توسط [[دونا == اصول یادگیری هب == ...۴ کیلوبایت (۷۹ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۸:۵۰
- ...ی یادگیری مختلف هسته ای استفاده میشود. بهطور خاص، معمولاً در [[دستهبندی ماشین بردار پشتیبانی]] استفاده میشود. هسته RBF در دو نمونه x و x '، به عنوان برد از آنجایی که پشتیبانی از ماشینهای بردار و سایر مدلهای استفاده شده از [[ترفند هسته]] برای تعداد زیادی از ...۳ کیلوبایت (۱۷۲ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۲۰
- {{یادگیری ماشین}} ...گیری منطقی''' {{انگلیسی|Logic Learning Machine}}، یکی از روشهای [[یادگیری ماشین]] بر اساس ایجاد قوانین قابل فهم است. LLM یک روش پیادهسازی شده کارآمد از ال ...۷ کیلوبایت (۳۵۴ واژه) - ۱۴ مارس ۲۰۲۵، ساعت ۰۱:۲۳
- {{یادگیری ماشین}} ...از دادههای بدون برچسب و دادههای برچسبدار به صورت همزمان برای بهبود دقت یادگیری استفاده میشود. ...۶ کیلوبایت (۸۹ واژه) - ۱۳ دسامبر ۲۰۲۳، ساعت ۰۲:۲۸
- اصطلاح WHP به خصوص در [[علوم رایانه|علوم کامپیوتر]] و در تحلیل [[الگوریتمهای تصادفی]] استفاده میشود. برای مثال یک الگوریتم تصادفی خاص در گرافی با n گره ...تم تصادفی برای تأیید [[ضرب ماتریسی|ضرب ماتریس]] هاست که از [[الگوریتم قطعی|الگوریتمهای قطعی]] سریعتر اجرا میشود و '''با احتمال بالا''' پاسخ درست را برمیگرداند. ...۵ کیلوبایت (۱۲۹ واژه) - ۸ دسامبر ۲۰۲۱، ساعت ۲۱:۲۷
- {{یادگیری ماشین}}<templatestyles src="Nobold/styles.css" /> ...یادگیری ماشین به چه سرعتی «یادمیگیرد». در ادبیات [[کنترل تطبیقی]]، به نرخ یادگیری '''بهره''' گفته میشود.<ref>{{cite journal|last=Delyon|first=Bernard|date=2 ...۱۲ کیلوبایت (۶۳۶ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
- بسیاری از الگوریتمهای کاهش غیرخطی ابعاد با روشهای خطی زیر ارتباط دارند: ...ری ماشینی]]، روشهای نگاشت به عنوان مرحلهٔ [[استخراج ویژگی]]، پیش از اعمال الگوریتمهای شناسایی الگو استفاده میشوند. آنهایی که یک نمایش از دادهها ارائه میکنند، ...۱۱ کیلوبایت (۲۹۴ واژه) - ۱۵ اکتبر ۲۰۲۳، ساعت ۱۲:۲۹
- {{یادگیری ماشین|Reinforcement learning}} '''خودبازی''' روشی است برای بهبود عملکرد عاملهای [[یادگیری تقویتی]]. بهطور شهودی، عوامل یادمیگیرند که با بازی کردن «در مقابل خودشان» ...۶ کیلوبایت (۳۰۶ واژه) - ۲۰ مهٔ ۲۰۲۴، ساعت ۰۴:۰۷
- ...[[ترکیب خطی]] یا غیرخطی آنها را به عنوان تابع کرنل جدید استفاده میکنند و یادگیری را با استفاده از آن انجام میدهند. مزیتهای استفاده از این تابع کرنل جدید ر ...بهینه کردن پارامترهای تابع کرنل چندتایی که خود این موضوع باعث کاهش سوگیری یادگیری به دلیل انتخاب تابع هسته بد میشود و در عین حال امکان خودکار سازی انتخاب تا ...۱۱ کیلوبایت (۵۴۳ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
- ...دگیری ساختار یافته (خروجی)''' یک اصطلاح کلی برای تکنیکهای یادگیری ماشین [[یادگیری نظارتشده|تحت نظارت]] است که شامل [[پیشبینی]] اشیا ساختیافته است، به جای ...زش دهنده اغلب از نظر محاسباتی غیرممکن است و از استنباط تقریبی و از روشهای یادگیری استفاده میشود. ...۸ کیلوبایت (۱۷۸ واژه) - ۲۷ مارس ۲۰۲۴، ساعت ۱۴:۴۳
- ...و [[بوستینگ]] انجامیدند. این نظریه به تحلیل [[پیچیدگی زمانی]] الگوریتمهای یادگیری نیز میپردازد.<ref>{{ cite journal | title=Computational learning theory: S ...د و معیاری طبیعی برای پیچیدگی فضای فرضیهای که تعداد نمونههای آموزشی برای یادگیری استقرایی را محدود میکند، تعریف میکنیم. ...۱۹ کیلوبایت (۴۷۳ واژه) - ۱۲ دسامبر ۲۰۲۳، ساعت ۱۷:۴۲
- ...نی بر رگرسیون این امکان وجود دارد که مقادیر وزنها و [[ابرپارامتر (یادگیری ماشین)|ایرپارامترهای]] مدل از کنترل خارج شوند به شکلی که یا خیلی بزرگ یا خیلی کوچ * [[ماشین بردار پشتیبانی]]<ref>{{Cite journal|last=Wang|first=Li|last2=Zhu|first2=Ji| ...۱۰ کیلوبایت (۵۰۸ واژه) - ۲۷ ژانویهٔ ۲۰۲۵، ساعت ۰۴:۵۶
- ...جربی (ERM) یک اصل در تئوری یادگیری آماری است که خانواده ای از الگوریتم های یادگیری را تعریف می کند و برای ارائه محدودیت های نظری بر عملکرد آنها استفاده می شود وضعیت زیر را در نظر بگیرید، که مجموعه ای کلی از بسیاری از مشکلات یادگیری تحت نظارت است.ما دو فضای از اشیاء X و Y داریم و می خواهیم یک تابع را یاد ب ...۶ کیلوبایت (۲۰۶ واژه) - ۲۱ نوامبر ۲۰۲۲، ساعت ۱۵:۴۱
- ...دارهایی به نام [[منحنی فراگیری]] انجام میپذیرد که خطای تعمیم را در فرایند یادگیری تخمین میزنند. هدف در یک مسئلهٔ یادگیری، یافتن تابع <math>f_n(\vec{x})</math> است که با توجه به دادهٔ ورودی <math>\ ...۱۰ کیلوبایت (۳۸۹ واژه) - ۲ ژانویهٔ ۲۰۲۳، ساعت ۲۰:۴۰
- {{یادگیری ماشین}} ...گروهی هستند، از مجموعهای از مدلهای یادگیرنده ضعیف(weak learners) به جهت یادگیری مسئله استفاده میشود و نتیجه نهایی بر اساس تجمیع نتیجه همه این مدلهای یادگ ...۱۲ کیلوبایت (۲۱۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
- {{یادگیری ماشین|Artificial neural network}} ...ودی به صورت داده اولیه یا مجموعهای از ویژگیها داده میشود، سپس در یک مدل یادگیری ویژگی، نمایش مناسبی از ویژگی ها ارائه می شود. در آخر می توان از نمایش ویژگی ...۱۷ کیلوبایت (۲۰۴ واژه) - ۲۷ نوامبر ۲۰۲۳، ساعت ۱۷:۵۰