نتایج جستجو

پرش به ناوبری پرش به جستجو
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)
  • {{یادگیری ماشین}} ...ت=۲۱۱–۲۴۴|نام=آماندا|نام خانوادگی=بارتل|ترجمه عنوان=یادگیری پراکنده بیزی و ماشین بردار مرتبط|عنوان=Sparse Bayesian Learning and the Relevance Vector Machine ...
    ۴ کیلوبایت (۱۸۵ واژه) - ۲۷ مارس ۲۰۲۴، ساعت ۱۴:۴۳
  • ...رض می‌کند که ما هیچ دانش قبلی‌ای در مورد دقت الگوریتم‌های موجود در مجموعهٔ الگوریتم‌های پیش‌بینی‌کننده نداریم، اما دلایل کافی برای این باور وجود دارد که یک یا چند ...ه می‌دهد که رای بالاتری کسب کرده‌باشد. اگر الگوریتم ترکیبی اشتباه کند، وزن الگوریتم‌های موجود در مجموعه که در این پیش‌بینی اشتباه دخیل بوده‌اند نیز، با نسبت معینی ...
    ۴ کیلوبایت (۵۲ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • ...بدست می‌آید. این نوع کلاهبرداری توسط هوش مصنوعی و [[یادگیری ماشینی|یادگیری ماشین]] قابل تشخیص و جلوگیری است. ...ه، تراکنش‌های غیر طبیعی را تعیین می‌کند. الگوریتم‌های هوش مصنوعی و یادگیری ماشین دارای خطا در پیشبینی هستند به همین علت از الگوریتم‌هایی مانند GASS و MBO بر ...
    ۷ کیلوبایت (۱۵۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
  • ...[روش نیوتن]] الهام گرفته شده‌است. بعضی اوقات، این الگوریتم در گروه روش‌های یادگیری مرتبkszه دوم طبقه‌بندی می‌شود. این روش تقریب درجه دوم از [[گرادیان]] تکرار ...پیاده‌سازی از الگوریتم [[بازگشت به عقب|پس انتشار]] خطا است اما در طول فاز یادگیری شبکه ممکن است که، با توجه به گام‌های بزرگی که برمی‌دارد، با هرج و مرج رفتار ...
    ۲ کیلوبایت (۶۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • '''یادگیری هب''' (به انگلیسی: Hebbian Learning) یکی از اصول اساسی یادگیری در علوم اعصاب و شبکه‌های عصبی مصنوعی است. این قانون در سال ۱۹۴۹ توسط [[دونا == اصول یادگیری هب == ...
    ۴ کیلوبایت (۷۹ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۸:۵۰
  • ...ی یادگیری مختلف هسته ای استفاده می‌شود. به‌طور خاص، معمولاً در [[دسته‌بندی ماشین بردار پشتیبانی]] استفاده می‌شود. هسته RBF در دو نمونه x و x '، به عنوان برد از آنجایی که پشتیبانی از ماشین‌های بردار و سایر مدل‌های استفاده شده از [[ترفند هسته]] برای تعداد زیادی از ...
    ۳ کیلوبایت (۱۷۲ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۲۰
  • {{یادگیری ماشین}} ...گیری منطقی''' {{انگلیسی|Logic Learning Machine}}، یکی از روش‌های [[یادگیری ماشین]] بر اساس ایجاد قوانین قابل فهم است. LLM یک روش پیاده‌سازی شده کارآمد از ال ...
    ۷ کیلوبایت (۳۵۴ واژه) - ۱۴ مارس ۲۰۲۵، ساعت ۰۱:۲۳
  • {{یادگیری ماشین}} ...از داده‌های بدون برچسب و داده‌های برچسب‌دار به صورت هم‌زمان برای بهبود دقت یادگیری استفاده می‌شود. ...
    ۶ کیلوبایت (۸۹ واژه) - ۱۳ دسامبر ۲۰۲۳، ساعت ۰۲:۲۸
  • اصطلاح WHP به خصوص در [[علوم رایانه|علوم کامپیوتر]] و در تحلیل [[الگوریتم‌های تصادفی]] استفاده می‌شود. برای مثال یک الگوریتم تصادفی خاص در گرافی با n گره ...تم تصادفی برای تأیید [[ضرب ماتریسی|ضرب ماتریس]] هاست که از [[الگوریتم قطعی|الگوریتم‌های قطعی]] سریعتر اجرا می‌شود و '''با احتمال بالا''' پاسخ درست را برمی‌گرداند. ...
    ۵ کیلوبایت (۱۲۹ واژه) - ۸ دسامبر ۲۰۲۱، ساعت ۲۱:۲۷
  • {{یادگیری ماشین}}<templatestyles src="Nobold/styles.css" /> ...یادگیری ماشین به چه سرعتی «یادمی‌گیرد». در ادبیات [[کنترل تطبیقی]]، به نرخ یادگیری '''بهره''' گفته می‌شود.<ref>{{cite journal|last=Delyon|first=Bernard|date=2 ...
    ۱۲ کیلوبایت (۶۳۶ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
  • بسیاری از الگوریتم‌های کاهش غیرخطی ابعاد با روش‌های خطی زیر ارتباط دارند: ...ری ماشینی]]، روش‌های نگاشت به عنوان مرحلهٔ [[استخراج ویژگی]]، پیش از اعمال الگوریتم‌های شناسایی الگو استفاده می‌شوند. آن‌هایی که یک نمایش از داده‌ها ارائه می‌کنند، ...
    ۱۱ کیلوبایت (۲۹۴ واژه) - ۱۵ اکتبر ۲۰۲۳، ساعت ۱۲:۲۹
  • {{یادگیری ماشین|Reinforcement learning}} '''خودبازی''' روشی است برای بهبود عملکرد عامل‌های [[یادگیری تقویتی]]. به‌طور شهودی، عوامل یادمی‌گیرند که با بازی کردن «در مقابل خودشان» ...
    ۶ کیلوبایت (۳۰۶ واژه) - ۲۰ مهٔ ۲۰۲۴، ساعت ۰۴:۰۷
  • ...[[ترکیب خطی]] یا غیرخطی آن‌ها را به عنوان تابع کرنل جدید استفاده می‌کنند و یادگیری را با استفاده از آن انجام می‌دهند. مزیت‌های استفاده از این تابع کرنل جدید ر ...بهینه کردن پارامترهای تابع کرنل چندتایی که خود این موضوع باعث کاهش سوگیری یادگیری به دلیل انتخاب تابع هسته بد می‌شود و در عین حال امکان خودکار سازی انتخاب تا ...
    ۱۱ کیلوبایت (۵۴۳ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • ...دگیری ساختار یافته (خروجی)''' یک اصطلاح کلی برای تکنیک‌های یادگیری ماشین [[یادگیری نظارت‌شده|تحت نظارت]] است که شامل [[پیش‌بینی]] اشیا ساخت‌یافته است، به جای ...زش دهنده اغلب از نظر محاسباتی غیرممکن است و از استنباط تقریبی و از روش‌های یادگیری استفاده می‌شود. ...
    ۸ کیلوبایت (۱۷۸ واژه) - ۲۷ مارس ۲۰۲۴، ساعت ۱۴:۴۳
  • ...و [[بوستینگ]] انجامیدند. این نظریه به تحلیل [[پیچیدگی زمانی]] الگوریتم‌های یادگیری نیز می‌پردازد.<ref>{{ cite journal | title=Computational learning theory: S ...د و معیاری طبیعی برای پیچیدگی فضای فرضیه‌ای که تعداد نمونه‌های آموزشی برای یادگیری استقرایی را محدود می‌کند، تعریف می‌کنیم. ...
    ۱۹ کیلوبایت (۴۷۳ واژه) - ۱۲ دسامبر ۲۰۲۳، ساعت ۱۷:۴۲
  • ...نی بر رگرسیون این امکان وجود دارد که مقادیر وزن‌ها و [[ابرپارامتر (یادگیری ماشین)|ایرپارامترهای]] مدل از کنترل خارج شوند به شکلی که یا خیلی بزرگ یا خیلی کوچ * [[ماشین بردار پشتیبانی]]<ref>{{Cite journal|last=Wang|first=Li|last2=Zhu|first2=Ji| ...
    ۱۰ کیلوبایت (۵۰۸ واژه) - ۲۷ ژانویهٔ ۲۰۲۵، ساعت ۰۴:۵۶
  • ...جربی (ERM) یک اصل در تئوری یادگیری آماری است که خانواده ای از الگوریتم های یادگیری را تعریف می کند و برای ارائه محدودیت های نظری بر عملکرد آنها استفاده می شود وضعیت زیر را در نظر بگیرید، که مجموعه ای کلی از بسیاری از مشکلات یادگیری تحت نظارت است.ما دو فضای از اشیاء X و Y داریم و می خواهیم یک تابع را یاد ب ...
    ۶ کیلوبایت (۲۰۶ واژه) - ۲۱ نوامبر ۲۰۲۲، ساعت ۱۵:۴۱
  • ...دارهایی به نام [[منحنی فراگیری]] انجام می‌پذیرد که خطای تعمیم را در فرایند یادگیری تخمین می‌زنند. هدف در یک مسئلهٔ یادگیری، یافتن تابع <math>f_n(\vec{x})</math> است که با توجه به دادهٔ ورودی <math>\ ...
    ۱۰ کیلوبایت (۳۸۹ واژه) - ۲ ژانویهٔ ۲۰۲۳، ساعت ۲۰:۴۰
  • {{یادگیری ماشین}} ...گروهی هستند، از مجموعه‌ای از مدل‌های یادگیرنده ضعیف(weak learners) به جهت یادگیری مسئله استفاده می‌شود و نتیجه نهایی بر اساس تجمیع نتیجه همه این مدل‌های یادگ ...
    ۱۲ کیلوبایت (۲۱۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • {{یادگیری ماشین|Artificial neural network}} ...ودی به صورت داده اولیه یا مجموعه‌ای از ویژگی‌ها داده می‌شود، سپس در یک مدل یادگیری ویژگی، نمایش مناسبی از ویژگی ها ارائه می شود. در آخر می توان از نمایش ویژگی ...
    ۱۷ کیلوبایت (۲۰۴ واژه) - ۲۷ نوامبر ۲۰۲۳، ساعت ۱۷:۵۰
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)