نتایج جستجو

پرش به ناوبری پرش به جستجو
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)

تطبیق عنوان صفحه

  • در چاچوب [[شبکه عصبی مصنوعی]]، '''یکسوساز''' یک [[تابع فعالسازی|تابع فعال‌سازی]] که به صورت ...ت. یکسوساز در حال حاضر از پرطرفدارترین توابع فعال‌سازی برای [[یادگیری عمیق|شبکه‌های عمیق]] است.<ref>{{Cite journal|last=Ramachandran|first=Prajit|last2=Zop ...
    ۱۲ کیلوبایت (۵۲۳ واژه) - ۱۸ ژانویهٔ ۲۰۲۳، ساعت ۱۷:۴۴
  • [[پرونده:FeedForwardNN.png|بندانگشتی|چپ|400x400پیکسل|در شبکه عصبی پیشخور اطلاعات فقط در یک جهت حرکت می‌کنند.]] ...را تشکیل نمی‌دهند. در واقع این شبکه متفاوت از [[شبکه عصبی بازگشتی|شبکه‌های عصبی بازگشتی]] می‌باشد. ...
    ۲۵ کیلوبایت (۹۲۰ واژه) - ۱۶ مهٔ ۲۰۲۴، ساعت ۲۱:۴۴
  • ...work}} {{مخفف انگلیسی|CNN یا ConvNet}} رده‌ای از [[شبکه عصبی عمیق|شبکه‌های عصبی ژرف]] هستند که معمولاً برای انجام تحلیل‌های تصویری یا گفتاری در [[یادگیری م ...با فضا (space invariant) هم یاد می‌شود. این نام‌گذاری بر مبنای ساختار این شبکه است که در ادامه به آن اشاره خواهیم کرد.<ref name=":0">{{Cite journal|url=ht ...
    ۳۳ کیلوبایت (۱٬۲۶۷ واژه) - ۱۷ اوت ۲۰۲۴، ساعت ۰۰:۰۶
  • {{اشتباه نشود|شبکه‌های عصبی بازگشت‌پذیر}} ...ر پویای موقتی را به نمایش بگذارد. برخلاف شبکه‌های عصبی رو به جلو، شبکه‌های عصبی مکرر می‌توانند از وضعیت درونی خود برای پردازش دنباله‌ی ورودی‌ها استفاده کنن ...
    ۲۹ کیلوبایت (۴۶۸ واژه) - ۲۶ مارس ۲۰۲۳، ساعت ۰۰:۴۹
  • ...د یک گاز در فضای داده توزیع می‌کنند، «شبکه گاز عصبی» نام گرفته‌است. از این شبکه در موقعیت‌هایی که [[فشرده‌سازی داده‌ها]] یا کمی‌سازی برداری آسان نیست، استف ...نلاین) می‌توان به همگرایی بسیار قوی تری در الگوریتم دست یافت. مدل شبکه گاز عصبی گره ای را حذف نمی‌کند و نیز گره جدیدی ایجاد نمی‌کند. ...
    ۱۸ کیلوبایت (۱٬۰۳۶ واژه) - ۱ آوریل ۲۰۲۳، ساعت ۲۰:۰۱
  • {{DISPLAYTITLE:شبکه عصبی باقی‌مانده}} ...تی|نمودار تابع هزینه برای زمان تمرین (training) و زمان تست (test) یک شبکه عصبی مستقیم (بدون لایه پرشی) که نشان‌دهنه این است که هرچه تعداد لایه‌ها افزایش پ ...
    ۱۴ کیلوبایت (۷۵۲ واژه) - ۱۷ فوریهٔ ۲۰۲۴، ساعت ۰۱:۵۳
  • '''شبکه عصبی گرافی''' (GNN) یک کلاس از [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] برای پردازش داده‌ها است که می‌تواند به صورت یک [[گراف]] نمایش داده ...فورمرها]]، در زمینه [[پردازش زبان‌های طبیعی]]، می‌توانند به‌عنوان شبکه‌های عصبی گرافی دیده شوند که برای گراف کاملی که گره‌های آن‌ها کلمات در یک جمله هستند ...
    ۱۷ کیلوبایت (۷۷۳ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۵:۵۶
  • ...این گونه شبکه‌ها تا حدودی الهام‌گرفته از شیوهٔ کارکرد [[سامانه عصبی|سیستم عصبی زیستی]] برای [[پردازش داده‌ها]] و [[اطلاعات]] به منظور یادگیری و ایجاد [[دا ...باشند. این شبکه‌ها قادر به یادگیری‌اند؛ مثلاً با اعمال سوزش به [[سلول‌های عصبی]] لامسه، سلول‌ها یادمی‌گیرند که به طرف جسم داغ نروند و با این الگوریتم سیست ...
    ۲۳ کیلوبایت (۶۴۰ واژه) - ۲۳ دسامبر ۲۰۲۴، ساعت ۱۶:۰۰
  • ...Infinitely_wide_neural_network.webm|بندانگشتی|406x406پیکسل|سمت چپ: یک شبکه عصبی بیزی با دو لایه پنهان، که یک ورودی سه بعدی (پایین) را به یک خروجی دو بعدی ت ناشی از وزن‌های تصادفی شبکه است. ویدئو: با افزایش عرض شبکه، توزیع خروجی ساده می‌شود و در نهایت به یک نرمال چند متغیره در حد عرض نامحدو ...
    ۲۸ کیلوبایت (۱٬۹۵۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۲۰

تطبیق متن مقاله

  • [[File:Deep belief net.svg|thumb|Deep belief net|ساختار کلی یک شبکه باور عمیق]] ...عصبی مصنوعی]] است که از [[مدل سازنده|روش سازنده]] استفاده می‌کند. این شبکه عصبی مصنوعی شامل یک لایه از متغیرهای دیده شده و چندین لایه شامل متغیرهای دیده نش ...
    ۵ کیلوبایت (۱۴۸ واژه) - ۲۲ فوریهٔ ۲۰۲۴، ساعت ۱۲:۰۸
  • '''کوییک‌پراپ''' یک روش تکراری برای تعیین کمینه [[تابع هزینه]] یک [[شبکه عصبی مصنوعی]] است که از [[روش نیوتن]] الهام گرفته شده‌است. بعضی اوقات، این الگور ...ازی از الگوریتم [[بازگشت به عقب|پس انتشار]] خطا است اما در طول فاز یادگیری شبکه ممکن است که، با توجه به گام‌های بزرگی که برمی‌دارد، با هرج و مرج رفتار کند. ...
    ۲ کیلوبایت (۶۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • ...است. می توان آن را به عنوان الگوریتم [[پس‌انتشار|پس انتشار]] برای یک شبکه عصبی تک لایه با تابع خطای از دست رفتگی میانگین مربع استخراج کرد. ...ن خطا در خروجی شبکه عصبی از طریق [[گرادیان کاهشی]] مشتق شده است. خطای شبکه عصبی با خروجی های j را می توان به این صورت اندازه گیری کرد: ...
    ۷ کیلوبایت (۴۶۱ واژه) - ۶ ژوئیهٔ ۲۰۲۴، ساعت ۰۳:۵۷
  • ...چند جمله ای]] است. ''F'' می‌تواند یک [[شبکه عصبی]]، یک [[شبکه موجک]]، یک [[شبکه سیگموئید]] و غیره باشد. برای آزمایش غیرخطی بودن در یک سری زمانی، می‌توان از ...e.net/projects/narxsim پیاده‌سازی منبع باز مدل NARX با استفاده از شبکه‌های عصبی] ...
    ۳ کیلوبایت (۱۴۲ واژه) - ۱۸ سپتامبر ۲۰۲۱، ساعت ۰۹:۰۶
  • ...عصبی مصنوعی تک لایه و نام دستگاهی است که این شبکه را پیاده سازی کرده است. شبکه از ممیستورها استفاده می کند. این توسط پروفسور برنارد ویدرو و دانشجوی دکترای یک شبکه چند لایه از واحدهای '''آدالاین (ADALINE)''' یک '''مادالین (MADALINE)''' است ...
    ۸ کیلوبایت (۱۸۲ واژه) - ۲۵ ژوئن ۲۰۲۴، ساعت ۰۴:۵۳
  • ...نسبی بین خروجی نورون ها (اسپایک‌ها) صورت می‌گیرد. فرایند STDP، توسعه سیستم عصبی را بر اساس وابستگی به فعالیت نورون‌ها مخصوصاً دو به کمک روند [[:en:Long-ter ...تدای به شدت کمی در نتیجه نورون خروجی مؤثر بودند با گذر زمان تقویت شده و در شبکه می‌مانند و در نتیجه نهایی نورون خروجی مؤثرتر واقع می‌شوند. ...
    ۴ کیلوبایت (۲۰۷ واژه) - ۱۳ دسامبر ۲۰۲۳، ساعت ۰۵:۲۳
  • .../wiki/File:DNC_training_recall_task.gif|بندانگشتی|300x300پیکسل|یک کامپیوتر عصبی دیفرانسیل‌پذیر در حال آموزش برای ذخیره و یادآوری اعداد باینری متراکم. در ای ...وتر عصبی دیفرانسیل‌پذیر''' ( '''DNC''' ) یک معماری [[شبکه عصبی مصنوعی|شبکه عصبی]] تقویت‌شده حافظه (MANN) است که معمولاً (اما نه همیشه) به صورت بازگشتی پیاد ...
    ۱۱ کیلوبایت (۵۱۷ واژه) - ۱۹ آوریل ۲۰۲۴، ساعت ۰۸:۱۲
  • ...مرکز توزیع دیتاها یا تغییر دادن مقیاس آنها موجب سریعتر و پایدارتر شدن شبکه عصبی می شود.این تکنیک در سال 2015 توسط سرگئی یوفه وکریستین سگدی معرفی شد.<ref>{{ ...دسته ای موجب انفجار گرادیانت می شود که توسط اقداماتی از جمله اتصال پرشی در شبکه های باقی مانده یا residual network حل می شود.<ref name="Yang">{{Cite journa ...
    ۱۰ کیلوبایت (۵۰۷ واژه) - ۸ اوت ۲۰۲۴، ساعت ۱۳:۳۸
  • ...ودی، یک لایه پنهان و یک لایه خروجی. به جز گره‌های ورودی، هر گره یک [[یاخته عصبی|نورون]] است که از یک [[تابع فعال‌سازی]] غیر خطی استفاده می‌کند.MLP از تکنیک ...اتصالات ورودی است. توابع فعال‌سازی جایگزین، از جمله توابع [[یکسوساز (شبکه عصبی)]]<nowiki/> پیشنهاد شده‌است. توابع فعال‌سازی بیشتر تخصصی شامل [[توابع پایه ...
    ۹ کیلوبایت (۱۷۹ واژه) - ۲۴ نوامبر ۲۰۲۴، ساعت ۱۰:۳۳
  • {{DISPLAYTITLE:شبکه عصبی باقی‌مانده}} ...تی|نمودار تابع هزینه برای زمان تمرین (training) و زمان تست (test) یک شبکه عصبی مستقیم (بدون لایه پرشی) که نشان‌دهنه این است که هرچه تعداد لایه‌ها افزایش پ ...
    ۱۴ کیلوبایت (۷۵۲ واژه) - ۱۷ فوریهٔ ۲۰۲۴، ساعت ۰۱:۵۳
  • ...{{Mvar|n}} عدد از این اعداد کوچک برای محاسبه گرادیان لایه‌های اولیه در یک شبکه {{Mvar|n}} لایه، گرادیان مقدار خیلی کوچکی پیدا می‌کند. ...پیدا کردن راه‌حل‌هایی برای این مشکل سبب رشد چشم‌گیر استفاده [[یادگیری ژرف|شبکه‌های مصنوعی عمیق]] شد. ...
    ۱۲ کیلوبایت (۶۹۸ واژه) - ۲۵ نوامبر ۲۰۲۳، ساعت ۱۲:۰۱
  • ...بع هذلولوی|هذلولی]] به عنوان تابع فعال‌سازی در [[شبکه عصبی مصنوعی|شبکه‌های عصبی]] استفاده می‌شود. منحنی‌های سیگموئید نیز در آمار به عنوان [[تابع توزیع تجمع در [[شبکه عصبی مصنوعی|شبکه های عصبی مصنوعی]]، گاهی اوقات از توابع غیرساده برای افزایش بازدهی استفاده می‌شود که ...
    ۸ کیلوبایت (۲۴۷ واژه) - ۱۹ فوریهٔ ۲۰۲۵، ساعت ۲۱:۳۵
  • ...رین لایه (نزدیک‌ترین لایه به خروجی) محاسبه مشتق‌ها شروع می‌شود و تا ابتدای شبکه (نزدیک‌ترین لایه به ورودی‌ها) ادامه پیدا می‌کند. ...(محاسبه اثر هر وزن در خروجی هر نمونه) برای شبکه‌های عصبی پیشخور و به خصوص شبکه‌های عمیق بسیار زمان‌بر و در عمل غیرممکن است. با استفاده از روش پس‌انتشار و ...
    ۱۶ کیلوبایت (۱٬۱۳۸ واژه) - ۲۹ نوامبر ۲۰۲۳، ساعت ۱۲:۰۶
  • '''شبکه عصبی گرافی''' (GNN) یک کلاس از [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] برای پردازش داده‌ها است که می‌تواند به صورت یک [[گراف]] نمایش داده ...فورمرها]]، در زمینه [[پردازش زبان‌های طبیعی]]، می‌توانند به‌عنوان شبکه‌های عصبی گرافی دیده شوند که برای گراف کاملی که گره‌های آن‌ها کلمات در یک جمله هستند ...
    ۱۷ کیلوبایت (۷۷۳ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۵:۵۶
  • ...'ماشین یادگیری حداکثر''' {{به انگلیسی|Extreme learning machine}} یک [[شبکه عصبی پیشخور]] است که برای [[طبقه‌بندی آماری]] ، [[تحلیل رگرسیون]] ، [[خوشه‌بندی] [[رده:شبکه‌های عصبی مصنوعی]] ...
    ۳ کیلوبایت (۲۶۳ واژه) - ۲۲ اکتبر ۲۰۲۱، ساعت ۲۳:۰۷
  • ...ادگیری_ماشین|یادگیری ماشین]]، به خصوص در ایجاد [[شبکه_عصبی_مصنوعی|شبکه‌های عصبی مصنوعی]]، '''میانگین‌گیری گروهی''' به فرآیندی گفته می‌شود که در آن چندین مد ...شبکه‌های تولید شده حذف می‌شوند و فقط یکی باقی می‌ماند، میانگین‌گیری گروهی شبکه‌های کمتر مطلوب را با وزن کمتر <ref name = 'two'> Hashem, S. "Optimal linear ...
    ۹ کیلوبایت (۳۲۳ واژه) - ۲۷ آوریل ۲۰۲۴، ساعت ۱۳:۵۵
  • ...ی برچسب یاد می‌گیرند. به عنوان مثال می‌توان به [[شبکه عصبی مصنوعی|شبکه های عصبی تحت نظارت]]، [[پرسپترون چندلایه|پرسپترون چند لایه]] و یادگیری [[فرهنگ لغت]] === شبکه های عصبی === ...
    ۱۷ کیلوبایت (۲۰۴ واژه) - ۲۷ نوامبر ۲۰۲۳، ساعت ۱۷:۵۰
  • ...گاهی اوقات '''شبکه عصبی دوقلو''' نامیده می‌شود) یک [[شبکه عصبی مصنوعی|شبکه عصبی مصنوعی است]] که از وزن‌های یکسانی استفاده می‌کند در حالی که روی دو بردار ور ...عملکردی شبیه به یک شبکه سیامی باشد، اما عملکرد کمی متفاوت را اجرا کند. این شبکه‌ها معمولاً برای مقایسه نمونه‌های مشابه در مجموعه‌های مختلف استفاده می‌شود.{ ...
    ۱۴ کیلوبایت (۸۷۵ واژه) - ۳ اکتبر ۲۰۲۳، ساعت ۰۹:۰۷
  • ...ایجاد قوانین قابل فهم است. LLM یک روش پیاده‌سازی شده کارآمد از الگوی شبکه عصبی سوئیچینگ (SNN) است،<ref>{{Cite journal|last=Muselli|first=Marco|year=2006|t ...ل فهم بساز تا عملکرد بهتری داشته باشد. در سال ۲۰۱۴، یک نسخه کارآمد از شبکه عصبی سوئیچینگ در مجموعه Rulex با نام Logic Learning Machine توسعه و پیاده‌سازی ش ...
    ۷ کیلوبایت (۳۵۴ واژه) - ۱۴ مارس ۲۰۲۵، ساعت ۰۱:۲۳
  • ...[یادگیری خودران (خودسازمانده)|یادگیری خودران]] است. این مدل نوعی از [[شبکه عصبی]] با ارتباطات بدون جهت است. دلیل جذابیت ماشین‌ بولتسمان، محلی بودن الگوریتم ماشین بولتسمان، شبکه‌ای از واحد‌های [[رقم دودویی|دودویی]] است که یک مقدار "انرژی" دارد. وزن های ...
    ۶ کیلوبایت (۳۰۷ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)