نتایج جستجو
پرش به ناوبری
پرش به جستجو
تطبیق عنوان صفحه
- ...د یک گاز در فضای داده توزیع میکنند، «شبکه گاز عصبی» نام گرفتهاست. از این شبکه در موقعیتهایی که [[فشردهسازی دادهها]] یا کمیسازی برداری آسان نیست، استف ...نلاین) میتوان به همگرایی بسیار قوی تری در الگوریتم دست یافت. مدل شبکه گاز عصبی گره ای را حذف نمیکند و نیز گره جدیدی ایجاد نمیکند. ...۱۸ کیلوبایت (۱٬۰۳۶ واژه) - ۱ آوریل ۲۰۲۳، ساعت ۲۰:۰۱
- {{DISPLAYTITLE:شبکه عصبی باقیمانده}} ...تی|نمودار تابع هزینه برای زمان تمرین (training) و زمان تست (test) یک شبکه عصبی مستقیم (بدون لایه پرشی) که نشاندهنه این است که هرچه تعداد لایهها افزایش پ ...۱۴ کیلوبایت (۷۵۲ واژه) - ۱۷ فوریهٔ ۲۰۲۴، ساعت ۰۱:۵۳
- '''شبکه عصبی گرافی''' (GNN) یک کلاس از [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]] برای پردازش دادهها است که میتواند به صورت یک [[گراف]] نمایش داده ...فورمرها]]، در زمینه [[پردازش زبانهای طبیعی]]، میتوانند بهعنوان شبکههای عصبی گرافی دیده شوند که برای گراف کاملی که گرههای آنها کلمات در یک جمله هستند ...۱۷ کیلوبایت (۷۷۳ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۵:۵۶
- ...این گونه شبکهها تا حدودی الهامگرفته از شیوهٔ کارکرد [[سامانه عصبی|سیستم عصبی زیستی]] برای [[پردازش دادهها]] و [[اطلاعات]] به منظور یادگیری و ایجاد [[دا ...باشند. این شبکهها قادر به یادگیریاند؛ مثلاً با اعمال سوزش به [[سلولهای عصبی]] لامسه، سلولها یادمیگیرند که به طرف جسم داغ نروند و با این الگوریتم سیست ...۲۳ کیلوبایت (۶۴۰ واژه) - ۲۳ دسامبر ۲۰۲۴، ساعت ۱۶:۰۰
- در چاچوب [[شبکه عصبی مصنوعی]]، '''یکسوساز''' یک [[تابع فعالسازی|تابع فعالسازی]] که به صورت ...ت. یکسوساز در حال حاضر از پرطرفدارترین توابع فعالسازی برای [[یادگیری عمیق|شبکههای عمیق]] است.<ref>{{Cite journal|last=Ramachandran|first=Prajit|last2=Zop ...۱۲ کیلوبایت (۵۲۳ واژه) - ۱۸ ژانویهٔ ۲۰۲۳، ساعت ۱۷:۴۴
- [[پرونده:FeedForwardNN.png|بندانگشتی|چپ|400x400پیکسل|در شبکه عصبی پیشخور اطلاعات فقط در یک جهت حرکت میکنند.]] ...را تشکیل نمیدهند. در واقع این شبکه متفاوت از [[شبکه عصبی بازگشتی|شبکههای عصبی بازگشتی]] میباشد. ...۲۵ کیلوبایت (۹۲۰ واژه) - ۱۶ مهٔ ۲۰۲۴، ساعت ۲۱:۴۴
- ...work}} {{مخفف انگلیسی|CNN یا ConvNet}} ردهای از [[شبکه عصبی عمیق|شبکههای عصبی ژرف]] هستند که معمولاً برای انجام تحلیلهای تصویری یا گفتاری در [[یادگیری م ...با فضا (space invariant) هم یاد میشود. این نامگذاری بر مبنای ساختار این شبکه است که در ادامه به آن اشاره خواهیم کرد.<ref name=":0">{{Cite journal|url=ht ...۳۳ کیلوبایت (۱٬۲۶۷ واژه) - ۱۷ اوت ۲۰۲۴، ساعت ۰۰:۰۶
- {{اشتباه نشود|شبکههای عصبی بازگشتپذیر}} ...ر پویای موقتی را به نمایش بگذارد. برخلاف شبکههای عصبی رو به جلو، شبکههای عصبی مکرر میتوانند از وضعیت درونی خود برای پردازش دنبالهی ورودیها استفاده کنن ...۲۹ کیلوبایت (۴۶۸ واژه) - ۲۶ مارس ۲۰۲۳، ساعت ۰۰:۴۹
- ...Infinitely_wide_neural_network.webm|بندانگشتی|406x406پیکسل|سمت چپ: یک شبکه عصبی بیزی با دو لایه پنهان، که یک ورودی سه بعدی (پایین) را به یک خروجی دو بعدی ت ناشی از وزنهای تصادفی شبکه است. ویدئو: با افزایش عرض شبکه، توزیع خروجی ساده میشود و در نهایت به یک نرمال چند متغیره در حد عرض نامحدو ...۲۸ کیلوبایت (۱٬۹۵۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۲۰
تطبیق متن مقاله
- [[File:Deep belief net.svg|thumb|Deep belief net|ساختار کلی یک شبکه باور عمیق]] ...عصبی مصنوعی]] است که از [[مدل سازنده|روش سازنده]] استفاده میکند. این شبکه عصبی مصنوعی شامل یک لایه از متغیرهای دیده شده و چندین لایه شامل متغیرهای دیده نش ...۵ کیلوبایت (۱۴۸ واژه) - ۲۲ فوریهٔ ۲۰۲۴، ساعت ۱۲:۰۸
- '''کوییکپراپ''' یک روش تکراری برای تعیین کمینه [[تابع هزینه]] یک [[شبکه عصبی مصنوعی]] است که از [[روش نیوتن]] الهام گرفته شدهاست. بعضی اوقات، این الگور ...ازی از الگوریتم [[بازگشت به عقب|پس انتشار]] خطا است اما در طول فاز یادگیری شبکه ممکن است که، با توجه به گامهای بزرگی که برمیدارد، با هرج و مرج رفتار کند. ...۲ کیلوبایت (۶۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
- ...است. می توان آن را به عنوان الگوریتم [[پسانتشار|پس انتشار]] برای یک شبکه عصبی تک لایه با تابع خطای از دست رفتگی میانگین مربع استخراج کرد. ...ن خطا در خروجی شبکه عصبی از طریق [[گرادیان کاهشی]] مشتق شده است. خطای شبکه عصبی با خروجی های j را می توان به این صورت اندازه گیری کرد: ...۷ کیلوبایت (۴۶۱ واژه) - ۶ ژوئیهٔ ۲۰۲۴، ساعت ۰۳:۵۷
- ...چند جمله ای]] است. ''F'' میتواند یک [[شبکه عصبی]]، یک [[شبکه موجک]]، یک [[شبکه سیگموئید]] و غیره باشد. برای آزمایش غیرخطی بودن در یک سری زمانی، میتوان از ...e.net/projects/narxsim پیادهسازی منبع باز مدل NARX با استفاده از شبکههای عصبی] ...۳ کیلوبایت (۱۴۲ واژه) - ۱۸ سپتامبر ۲۰۲۱، ساعت ۰۹:۰۶
- ...عصبی مصنوعی تک لایه و نام دستگاهی است که این شبکه را پیاده سازی کرده است. شبکه از ممیستورها استفاده می کند. این توسط پروفسور برنارد ویدرو و دانشجوی دکترای یک شبکه چند لایه از واحدهای '''آدالاین (ADALINE)''' یک '''مادالین (MADALINE)''' است ...۸ کیلوبایت (۱۸۲ واژه) - ۲۵ ژوئن ۲۰۲۴، ساعت ۰۴:۵۳
- ...نسبی بین خروجی نورون ها (اسپایکها) صورت میگیرد. فرایند STDP، توسعه سیستم عصبی را بر اساس وابستگی به فعالیت نورونها مخصوصاً دو به کمک روند [[:en:Long-ter ...تدای به شدت کمی در نتیجه نورون خروجی مؤثر بودند با گذر زمان تقویت شده و در شبکه میمانند و در نتیجه نهایی نورون خروجی مؤثرتر واقع میشوند. ...۴ کیلوبایت (۲۰۷ واژه) - ۱۳ دسامبر ۲۰۲۳، ساعت ۰۵:۲۳
- .../wiki/File:DNC_training_recall_task.gif|بندانگشتی|300x300پیکسل|یک کامپیوتر عصبی دیفرانسیلپذیر در حال آموزش برای ذخیره و یادآوری اعداد باینری متراکم. در ای ...وتر عصبی دیفرانسیلپذیر''' ( '''DNC''' ) یک معماری [[شبکه عصبی مصنوعی|شبکه عصبی]] تقویتشده حافظه (MANN) است که معمولاً (اما نه همیشه) به صورت بازگشتی پیاد ...۱۱ کیلوبایت (۵۱۷ واژه) - ۱۹ آوریل ۲۰۲۴، ساعت ۰۸:۱۲
- ...مرکز توزیع دیتاها یا تغییر دادن مقیاس آنها موجب سریعتر و پایدارتر شدن شبکه عصبی می شود.این تکنیک در سال 2015 توسط سرگئی یوفه وکریستین سگدی معرفی شد.<ref>{{ ...دسته ای موجب انفجار گرادیانت می شود که توسط اقداماتی از جمله اتصال پرشی در شبکه های باقی مانده یا residual network حل می شود.<ref name="Yang">{{Cite journa ...۱۰ کیلوبایت (۵۰۷ واژه) - ۸ اوت ۲۰۲۴، ساعت ۱۳:۳۸
- ...ودی، یک لایه پنهان و یک لایه خروجی. به جز گرههای ورودی، هر گره یک [[یاخته عصبی|نورون]] است که از یک [[تابع فعالسازی]] غیر خطی استفاده میکند.MLP از تکنیک ...اتصالات ورودی است. توابع فعالسازی جایگزین، از جمله توابع [[یکسوساز (شبکه عصبی)]]<nowiki/> پیشنهاد شدهاست. توابع فعالسازی بیشتر تخصصی شامل [[توابع پایه ...۹ کیلوبایت (۱۷۹ واژه) - ۲۴ نوامبر ۲۰۲۴، ساعت ۱۰:۳۳
- {{DISPLAYTITLE:شبکه عصبی باقیمانده}} ...تی|نمودار تابع هزینه برای زمان تمرین (training) و زمان تست (test) یک شبکه عصبی مستقیم (بدون لایه پرشی) که نشاندهنه این است که هرچه تعداد لایهها افزایش پ ...۱۴ کیلوبایت (۷۵۲ واژه) - ۱۷ فوریهٔ ۲۰۲۴، ساعت ۰۱:۵۳
- ...{{Mvar|n}} عدد از این اعداد کوچک برای محاسبه گرادیان لایههای اولیه در یک شبکه {{Mvar|n}} لایه، گرادیان مقدار خیلی کوچکی پیدا میکند. ...پیدا کردن راهحلهایی برای این مشکل سبب رشد چشمگیر استفاده [[یادگیری ژرف|شبکههای مصنوعی عمیق]] شد. ...۱۲ کیلوبایت (۶۹۸ واژه) - ۲۵ نوامبر ۲۰۲۳، ساعت ۱۲:۰۱
- ...بع هذلولوی|هذلولی]] به عنوان تابع فعالسازی در [[شبکه عصبی مصنوعی|شبکههای عصبی]] استفاده میشود. منحنیهای سیگموئید نیز در آمار به عنوان [[تابع توزیع تجمع در [[شبکه عصبی مصنوعی|شبکه های عصبی مصنوعی]]، گاهی اوقات از توابع غیرساده برای افزایش بازدهی استفاده میشود که ...۸ کیلوبایت (۲۴۷ واژه) - ۱۹ فوریهٔ ۲۰۲۵، ساعت ۲۱:۳۵
- ...رین لایه (نزدیکترین لایه به خروجی) محاسبه مشتقها شروع میشود و تا ابتدای شبکه (نزدیکترین لایه به ورودیها) ادامه پیدا میکند. ...(محاسبه اثر هر وزن در خروجی هر نمونه) برای شبکههای عصبی پیشخور و به خصوص شبکههای عمیق بسیار زمانبر و در عمل غیرممکن است. با استفاده از روش پسانتشار و ...۱۶ کیلوبایت (۱٬۱۳۸ واژه) - ۲۹ نوامبر ۲۰۲۳، ساعت ۱۲:۰۶
- '''شبکه عصبی گرافی''' (GNN) یک کلاس از [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]] برای پردازش دادهها است که میتواند به صورت یک [[گراف]] نمایش داده ...فورمرها]]، در زمینه [[پردازش زبانهای طبیعی]]، میتوانند بهعنوان شبکههای عصبی گرافی دیده شوند که برای گراف کاملی که گرههای آنها کلمات در یک جمله هستند ...۱۷ کیلوبایت (۷۷۳ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۵:۵۶
- ...'ماشین یادگیری حداکثر''' {{به انگلیسی|Extreme learning machine}} یک [[شبکه عصبی پیشخور]] است که برای [[طبقهبندی آماری]] ، [[تحلیل رگرسیون]] ، [[خوشهبندی] [[رده:شبکههای عصبی مصنوعی]] ...۳ کیلوبایت (۲۶۳ واژه) - ۲۲ اکتبر ۲۰۲۱، ساعت ۲۳:۰۷
- ...ادگیری_ماشین|یادگیری ماشین]]، به خصوص در ایجاد [[شبکه_عصبی_مصنوعی|شبکههای عصبی مصنوعی]]، '''میانگینگیری گروهی''' به فرآیندی گفته میشود که در آن چندین مد ...شبکههای تولید شده حذف میشوند و فقط یکی باقی میماند، میانگینگیری گروهی شبکههای کمتر مطلوب را با وزن کمتر <ref name = 'two'> Hashem, S. "Optimal linear ...۹ کیلوبایت (۳۲۳ واژه) - ۲۷ آوریل ۲۰۲۴، ساعت ۱۳:۵۵
- ...ی برچسب یاد میگیرند. به عنوان مثال میتوان به [[شبکه عصبی مصنوعی|شبکه های عصبی تحت نظارت]]، [[پرسپترون چندلایه|پرسپترون چند لایه]] و یادگیری [[فرهنگ لغت]] === شبکه های عصبی === ...۱۷ کیلوبایت (۲۰۴ واژه) - ۲۷ نوامبر ۲۰۲۳، ساعت ۱۷:۵۰
- ...گاهی اوقات '''شبکه عصبی دوقلو''' نامیده میشود) یک [[شبکه عصبی مصنوعی|شبکه عصبی مصنوعی است]] که از وزنهای یکسانی استفاده میکند در حالی که روی دو بردار ور ...عملکردی شبیه به یک شبکه سیامی باشد، اما عملکرد کمی متفاوت را اجرا کند. این شبکهها معمولاً برای مقایسه نمونههای مشابه در مجموعههای مختلف استفاده میشود.{ ...۱۴ کیلوبایت (۸۷۵ واژه) - ۳ اکتبر ۲۰۲۳، ساعت ۰۹:۰۷
- ...ایجاد قوانین قابل فهم است. LLM یک روش پیادهسازی شده کارآمد از الگوی شبکه عصبی سوئیچینگ (SNN) است،<ref>{{Cite journal|last=Muselli|first=Marco|year=2006|t ...ل فهم بساز تا عملکرد بهتری داشته باشد. در سال ۲۰۱۴، یک نسخه کارآمد از شبکه عصبی سوئیچینگ در مجموعه Rulex با نام Logic Learning Machine توسعه و پیادهسازی ش ...۷ کیلوبایت (۳۵۴ واژه) - ۱۴ مارس ۲۰۲۵، ساعت ۰۱:۲۳
- ...[یادگیری خودران (خودسازمانده)|یادگیری خودران]] است. این مدل نوعی از [[شبکه عصبی]] با ارتباطات بدون جهت است. دلیل جذابیت ماشین بولتسمان، محلی بودن الگوریتم ماشین بولتسمان، شبکهای از واحدهای [[رقم دودویی|دودویی]] است که یک مقدار "انرژی" دارد. وزن های ...۶ کیلوبایت (۳۰۷ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲